Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsOpenAI se bâtissait une réputation dans le domaine de l’intelligence artificielle, mais n’était pas un nom familier lorsque Mira Murati a rejoint le laboratoire de recherche à but non lucratif en 2018.Peu de temps après, le laboratoire de San Francisco a entamé une transformation majeure. Il s’est transformé en une entreprise qui a attiré l’attention du monde entier en tant que créateur de ChatGPT.Désormais directeur de la technologie, Murati dirige les équipes de recherche, de produit et de sécurité d’OpenAI. Elle a dirigé le développement et le lancement de ses modèles d’IA, notamment ChatGPT, le générateur d’images DALL-E et le plus récent, GPT-4. Elle s’est entretenue avec l’Associated Press des garanties de l’IA et de la vision de l’entreprise pour le concept futuriste d’intelligence artificielle générale, connue sous le nom d’AGI. L’interview a été modifiée pour plus de longueur et de clarté.Q : Que signifie l’intelligence artificielle générale pour OpenAI ?R : Par intelligence artificielle générale, nous entendons généralement des systèmes hautement autonomes capables de produire une production économique, une production économique importante. En d’autres termes, des systèmes qui peuvent se généraliser à différents domaines. C’est une capacité de niveau humain. La vision spécifique d’OpenAI à ce sujet est de le construire en toute sécurité et de trouver comment le construire d’une manière alignée sur les intentions humaines, de sorte que les systèmes d’IA fassent les choses que nous voulons qu’ils fassent, et que cela profite au maximum au plus grand nombre. là-bas que possible, idéalement tout le monde.Q : Existe-t-il un chemin entre des produits tels que GPT-4 et AGI ?R : Nous sommes loin d’avoir un système AGI sûr, fiable et aligné. Notre chemin pour y parvenir comporte quelques vecteurs importants. Du point de vue de la recherche, nous essayons de construire des systèmes qui ont une solide compréhension du monde de la même manière que nous le faisons en tant qu’humains. Des systèmes comme GPT-3 n’étaient initialement formés que sur des données textuelles, mais notre monde n’est pas seulement fait de texte, nous avons donc aussi des images, puis nous avons commencé à introduire d’autres modalités. L’autre angle a été la mise à l’échelle de ces systèmes pour augmenter leur généralité. Avec GPT-4, nous avons affaire à un système beaucoup plus performant, notamment du point de vue du raisonnement sur les choses. Cette capacité est essentielle. Si le modèle est assez intelligent pour comprendre une direction ambiguë ou une direction de haut niveau, alors vous pouvez comprendre comment lui faire suivre cette direction. Mais s’il ne comprend même pas cet objectif de haut niveau ou cette direction de haut niveau, il est beaucoup plus difficile de l’aligner. Il ne suffit pas de construire cette technologie dans le vide dans un laboratoire. Nous avons vraiment besoin de ce contact avec la réalité, avec le monde réel, pour voir où sont les faiblesses, où sont les points de rupture, et essayer de le faire de manière contrôlée et à faible risque et obtenir autant de retours que possible.Q : Quelles mesures de sécurité prenez-vous ?R : Nous pensons aux interventions à chaque étape. Nous expurgeons certaines données de la formation initiale sur le modèle. Avec DALL-E, nous voulions réduire les problèmes de biais nuisibles que nous voyions. Nous avons ajusté le ratio d’images d’images féminines et masculines dans l’ensemble de données d’entraînement. Mais vous devez être très prudent car vous pourriez créer un autre déséquilibre. Vous devez constamment auditer. Dans ce cas, nous avons eu un biais différent car beaucoup de ces images étaient de nature sexuelle. Alors vous devez l’ajuster à nouveau et faire très attention à chaque fois que vous faites une intervention, en voyant ce qui est d’autre perturbé. Dans la formation du modèle, avec ChatGPT en particulier, nous avons fait un apprentissage par renforcement avec des commentaires humains pour aider le modèle à s’aligner davantage sur les préférences humaines. Fondamentalement, ce que nous essayons de faire, c’est d’amplifier ce qui est considéré comme un bon comportement, puis de désamplifier ce qui est considéré comme un mauvais comportement. Q : Ces systèmes devraient-ils être réglementés ?R : Oui, absolument. Ces systèmes doivent être réglementés. Chez OpenAI, nous discutons constamment avec les gouvernements, les régulateurs et d’autres organisations qui développent ces systèmes pour, au moins au niveau de l’entreprise, convenir d’un certain niveau de normes. Nous avons travaillé là-dessus au cours des deux dernières années avec de grands développeurs de modèles de langage pour nous aligner sur certaines normes de sécurité de base pour le déploiement de ces modèles. Mais je pense qu’il reste encore beaucoup à faire. Les régulateurs gouvernementaux devraient certainement être très impliqués.Q : Une lettre appelant à une pause de 6 mois de l’industrie sur la construction de modèles d’IA plus puissants que GPT-4 a suscité beaucoup d’attention. Que pensez-vous de la pétition et de son hypothèse sur les risques liés à l’IA ?R : Écoutez, je pense que concevoir des mécanismes de sécurité dans des systèmes complexes est difficile. Il y a beaucoup de nuances ici. Certains des risques soulignés par la lettre sont tout à fait valables. Chez OpenAI, nous en parlons très ouvertement depuis des années et nous les étudions également. Je ne pense pas que signer une lettre soit un moyen efficace de construire des mécanismes de sécurité ou de coordonner les acteurs dans l’espace. Certaines des déclarations contenues dans la lettre étaient tout simplement fausses au sujet du développement de GPT-4 ou GPT-5. Nous ne formons pas GPT-5. Nous n’avons pas l’intention de le faire dans les six prochains mois. Et nous ne nous sommes pas précipités sur GPT-4. Nous avons pris six mois, en fait, pour nous concentrer entièrement sur le développement et le déploiement en toute sécurité de GPT-4. Même alors, nous l’avons déployé avec un nombre élevé de garde-corps et un déploiement très coordonné et lent. Ce n’est pas facilement accessible à tout le monde, et ce n’est certainement pas open source. Tout cela pour dire que je pense que les mécanismes de sécurité et les mécanismes de coordination de ces systèmes d’IA et de tout système technologique complexe sont difficiles et nécessitent beaucoup de réflexion, d’exploration et de coordination entre les acteurs.Q : Dans quelle mesure OpenAI a-t-il changé depuis votre adhésion ?R : Lorsque j’ai rejoint OpenAI, c’était une organisation à but non lucratif. Je pensais que c’était la technologie la plus importante que nous construirions jamais en tant qu’humanité et j’avais vraiment l’impression qu’une entreprise ayant la mission d’OpenAI serait la plus susceptible de s’assurer que tout se passe bien. Au fil du temps, nous avons changé notre structure car ces systèmes coûtent cher. Ils nécessitent beaucoup de financement. Nous nous sommes assurés de structurer les incitations de manière à ce que nous servions toujours la mission à but non lucratif. C’est pourquoi nous avons une structure de « profit plafonné ». Les gens d’OpenAI sont intrinsèquement motivés et alignés sur leur mission et cela n’a pas changé depuis le début. Mais en cinq ans, notre réflexion a beaucoup évolué quant à la meilleure manière de se déployer, quelle est la manière la plus sûre. C’est probablement la différence la plus frappante. Je pense que c’est un bon changement.Q : Aviez-vous anticipé la réponse à ChatGPT avant sa sortie le 30 novembre ?R : La technologie sous-jacente existait depuis des mois. Nous avions une grande confiance dans les limites du modèle de la part des clients qui l’utilisaient déjà via une API. Mais nous avons apporté quelques modifications au modèle de base. Nous l’avons adapté au dialogue. Ensuite, nous l’avons mis à la disposition des chercheurs via une nouvelle interface ChatGPT. Nous l’avions exploré en interne avec un petit groupe de confiance, et nous avons réalisé que le goulot d’étranglement consistait à obtenir plus d’informations et à obtenir plus de données des personnes. Nous voulions l’étendre à plus de personnes dans ce que nous appelons un aperçu de la recherche, pas un produit. L’intention était de recueillir des commentaires sur le comportement du modèle et d’utiliser ces données pour améliorer le modèle et le rendre plus aligné. Nous n’avions pas prévu à quel point les gens seraient si captivés de parler à un système d’IA. C’était juste un aperçu de la recherche. Le nombre d’utilisateurs et autres, nous n’avions pas prévu ce niveau d’excitation.
Source link -57