Customize this title in frenchLe conseil d’administration d’OpenAI reçoit le pouvoir « anti-Sam Altman » : les études sur l’intelligence artificielle jugées dangereuses pourraient faire l’objet d’un veto

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les mesures de sécurité internes d’OpenAI sont étendues. La nouvelle unité de sécurité établie au sein de l’institution et le droit de veto accordé au conseil d’administration sur l’intelligence artificielle ont été annoncés.

Elle a été à l’ordre du jour ces derniers temps avec le limogeage de Sam Altman, puis son retour et le changement du conseil d’administration. OpenAI L’une des affirmations faites à leur sujet était qu’ils avaient développé une intelligence artificielle supérieure et dangereuse. OpenAI, Même s’il n’était pas nécessaire de faire une déclaration sur cette question, il a pris des réglementations qui donnent la priorité à la sécurité de l’intelligence artificielle.

OpenAI principalement « groupe de conseil en sécurité » Il a formé une équipe appelée. Cette équipe est positionnée au-dessus des équipes techniques de l’organisation et fournira des conseils de leadership aux équipes techniques. De plus Conseil d’administration d’OpenAIdésormais, des projets d’intelligence artificielle qu’il considère comme dangereux veto ne le faites pas Il a obtenu ses droits.

Un nouveau « groupe consultatif sur la sécurité » a été créé, le pouvoir de veto a été donné à la direction

Bien que de tels changements soient apportés de temps à autre dans presque toutes les entreprises, OpenAI a récemment procédé à un tel changement. les événements qui ont eu lieu et c’est d’une grande importance lorsque l’on considère les allégations. Après tout, OpenAI est une institution leader dans le domaine de l’intelligence artificielle et les mesures de sécurité dans ce domaine sont d’une grande importance.

Le nouveau règlement, annoncé par OpenAI dans un article de blog, « Cadre de préparation » Ça s’appelait. En novembre, deux membres du conseil d’administration réputés opposés à une croissance agressive, Ilya Sutskever et Helen Toner, ont été démis du conseil d’administration. Avec le nouveau règlement « dévastateur« Un guide a également été créé pour définir et analyser l’intelligence artificielle et décider des actions à entreprendre.

Selon le nouvel arrangement interne, l’équipe du système de sécurité gérera les modèles en production. ChatGPT Des tâches telles que limiter leurs abus systématiques dans les API reviendront à cette équipe. L’équipe de préparation sera responsable des modèles préliminaires et se concentrera sur l’identification des risques possibles et la prise de précautions. L’équipe, appelée équipe de superorientation, développera des orientations théoriques pour les modèles de super intelligence artificielle. Chaque équipe identifie les modèles dont elle est responsable. « cybersécurité », « persuasion », « autonomie », « CBRN » Elle sera évaluée en termes (de menaces chimiques, biologiques, radiologiques et nucléaires).

OpenAI n’a pas encore fait ces évaluations. comment faire Bien qu’ils n’aient partagé aucune information sur le problème, un groupe interfonctionnel de conseillers en sécurité supervisera et aidera généralement à diriger ces efforts.

Source :
https://techcrunch.com/2023/12/18/openai-buffs-safety-team-and-gives-board-veto-power-on-risky-ai/



Source link -57