Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- OpenAI craint que l’IA super intelligente ne conduise à l’extinction humaine.
- Il met en place une équipe pour s’assurer que l’IA superintelligente s’aligne sur les intérêts humains.
- Au-delà du recrutement pour l’équipe, elle consacre également 20% de sa puissance de calcul à cet objectif.
Le créateur de ChatGPT, OpenAI, est tellement préoccupé par les dangers potentiels d’une IA plus intelligente que les humains qu’il met sur pied une nouvelle équipe pour s’assurer que ces systèmes avancés fonctionnent pour le bien des gens, pas contre eux.
Dans un article de blog du 5 juillet, OpenAI a déclaré que même si l’intelligence artificielle « superintelligente » semblait lointaine, elle pourrait arriver dans la décennie.
« Actuellement, nous n’avons pas de solution pour diriger ou contrôler une IA potentiellement super intelligente et l’empêcher de devenir voyou », ont écrit le co-fondateur d’OpenAI Ilya Sutskever et le co-directeur de cette nouvelle équipe Jan Leike dans le blog.
Et bien que cette technologie puisse aider à résoudre bon nombre des problèmes les plus urgents au monde, l’IA superintelligente « pourrait conduire à la déresponsabilisation de l’humanité ou même à l’extinction humaine », ont écrit les auteurs.
La nouvelle équipe – appelée Superalignment – prévoit de développer une IA avec une intelligence de niveau humain capable de superviser une IA super intelligente dans les quatre prochaines années.
OpenAI recrute actuellement pour l’équipe. La société a déclaré qu’elle prévoyait de consacrer 20% de sa puissance de calcul à cette recherche, selon le blog.
Le PDG d’OpenAI, Sam Altman, appelle depuis longtemps les régulateurs à traiter le risque lié à l’IA comme une priorité mondiale.
En mai, Altman s’est joint à des centaines d’autres personnalités clés de la technologie en signant une lettre ouverte contenant une phrase : « Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».
D’autres personnalités clés de la technologie, dont Elon Musk, ont également tiré la sonnette d’alarme sur la réglementation de l’IA et appelé à une pause de six mois sur le développement de l’IA, bien que certains aient vu cela comme un stratagème pour que Musk rattrape son retard.
Certes, tout le monde ne partage pas les inquiétudes d’OpenAI concernant les futurs problèmes posés par l’IA super intelligente.
Dans une lettre publiée par le Distributed AI Research Institute le 31 mars, d’éminents éthiciens de l’IA ont attiré l’attention sur des problèmes concrets et actuels que les entreprises d’IA exacerbent actuellement.