Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Sam Altman a déclaré qu’il craignait que la création de ChatGPT soit « quelque chose de vraiment mauvais » étant donné les risques que pose l’IA.
- Le PDG d’OpenAI parlait à Satyan Gajwani, vice-président de Times Internet, à New Delhi.
- Il est en tournée dans six pays, dont Israël, la Jordanie, le Qatar, les Émirats arabes unis, l’Inde et la Corée du Sud.
Le PDG d’OpenAI, Sam Altman, a admis avoir perdu le sommeil face aux dangers de sa création ChatGPT.
Lors d’une conversation lors d’un récent voyage en Inde, Sam Altman a déclaré qu’il s’inquiétait de l’idée qu’il aurait pu faire « quelque chose de vraiment mauvais » en créant ChatGPT, qui a été publié en novembre et a suscité un regain d’intérêt pour l’IA.
« Ce sur quoi je perds le plus de sommeil, c’est l’idée hypothétique que nous avons déjà fait quelque chose de vraiment mal en lançant ChatGPT », a déclaré Altman à Satyan Gajwani, vice-président de Times Internet lors d’un événement organisé par l’Economic Times mercredi.
« Il y avait peut-être quelque chose de dur et de compliqué là-dedans (le système) que nous ne comprenions pas et que nous avons déjà lancé », a ajouté Altman.
Lorsqu’on lui a demandé si l’IA devait être réglementée comme l’énergie atomique, Altman a déclaré qu’il devait y avoir un meilleur système en place pour auditer le processus.
« Mettons en place un système afin que nous puissions auditer les personnes qui le font, l’autoriser, faire des tests de sécurité avant le déploiement », a-t-il déclaré.
Les risques sont élevés
Un certain nombre de leaders technologiques et de responsables gouvernementaux ont fait part de leurs inquiétudes quant au rythme de développement des plateformes d’IA.
Dans une lettre ouverte en mars du Future of Life Institute, Elon Musk et le cofondateur d’Apple, Steve Wozniak, faisaient partie des leaders technologiques qui ont averti que de puissants systèmes d’IA ne devraient être développés qu’une fois qu’il est certain que les effets seront positifs et que les risques sont gérables.
La lettre appelait à une pause de six mois sur la formation de systèmes d’IA plus puissants que GPT-4.
Altman a répondu à la lettre en disant qu’elle « manquait de nuance technique sur l’endroit où nous avons besoin de la pause ».
Plus tôt ce mois-ci, Altman faisait partie des plus de 350 scientifiques et leaders technologiques qui ont signé une déclaration exprimant leur profonde inquiétude face aux risques liés à l’IA.
« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire », indique le communiqué.