Customize this title in frenchDes chercheurs exclusifs d’OpenAI ont mis en garde le conseil d’administration contre une percée de l’IA avant l’éviction du PDG, selon des sources

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

© Reuter. PHOTO DE FICHIER : Le logo OpenAI est visible sur cette illustration prise le 3 février 2023. REUTERS/Dado Ruvic/Illustration/File Photo

Par Anna Tong, Jeffrey Dastin et Krystal Hu

(Reuters) – Avant les quatre jours d’exil du PDG d’OpenAI, Sam Altman, plusieurs chercheurs ont écrit une lettre au conseil d’administration pour l’avertir d’une puissante découverte d’intelligence artificielle qui, selon eux, pourrait menacer l’humanité, ont déclaré à Reuters deux personnes proches du dossier.

La lettre inédite et l’algorithme d’IA constituaient des développements clés avant l’éviction par le conseil d’administration d’Altman, l’enfant emblématique de l’IA générative, ont indiqué les deux sources. Avant son retour triomphal mardi soir, plus de 700 employés avaient menacé de démissionner et de rejoindre le bailleur de fonds Microsoft (NASDAQ 🙂 en solidarité avec leur dirigeant licencié.

Les sources ont cité la lettre comme l’un des facteurs parmi une longue liste de griefs du conseil d’administration ayant conduit au licenciement d’Altman, parmi lesquels figuraient les inquiétudes concernant la commercialisation des avancées avant d’en comprendre les conséquences. Reuters n’a pas pu examiner une copie de la lettre. Le personnel qui a rédigé la lettre n’a pas répondu aux demandes de commentaires.

Après avoir été contacté par Reuters, OpenAI, qui a refusé de commenter, a reconnu dans un message interne adressé au personnel un projet appelé Q* et une lettre adressée au conseil d’administration avant les événements du week-end, a déclaré l’une des sources. Un porte-parole d’OpenAI a déclaré que le message, envoyé par Mira Murati, dirigeante de longue date, alertait le personnel de certaines informations médiatiques sans commenter leur exactitude.

Certains chez OpenAI pensent que Q* (prononcer Q-Star) pourrait constituer une avancée majeure dans la recherche par la startup de ce que l’on appelle l’intelligence artificielle générale (AGI), a déclaré l’une des personnes à Reuters. OpenAI définit l’AGI comme des systèmes autonomes qui surpassent les humains dans les tâches les plus rentables.

Grâce à de vastes ressources informatiques, le nouveau modèle a pu résoudre certains problèmes mathématiques, a déclaré la personne sous couvert d’anonymat, car l’individu n’était pas autorisé à parler au nom de l’entreprise. Bien qu’ils n’effectuent des mathématiques qu’au niveau des élèves du primaire, la réussite de ces tests a rendu les chercheurs très optimistes quant au succès futur de Q*, a indiqué la source.

Reuters n’a pas pu vérifier de manière indépendante les capacités de Q* revendiquées par les chercheurs.

‘VOILE DE L’IGNORANCE’

Les chercheurs considèrent les mathématiques comme une frontière du développement de l’IA générative. Actuellement, l’IA générative est efficace dans l’écriture et la traduction en prédisant statistiquement le mot suivant, et les réponses à la même question peuvent varier considérablement. Mais conquérir la capacité de faire des mathématiques – où il n’y a qu’une seule bonne réponse – implique que l’IA aurait de plus grandes capacités de raisonnement ressemblant à l’intelligence humaine. Cela pourrait par exemple être appliqué à de nouvelles recherches scientifiques, estiment les chercheurs en IA.

Contrairement à une calculatrice capable de résoudre un nombre limité d’opérations, l’AGI peut généraliser, apprendre et comprendre.

Dans leur lettre au conseil d’administration, les chercheurs ont signalé les prouesses et le danger potentiel de l’IA, ont indiqué les sources sans préciser les problèmes de sécurité exacts notés dans la lettre. Les informaticiens discutent depuis longtemps du danger que représentent les machines hautement intelligentes, par exemple si elles décident que la destruction de l’humanité est dans leur intérêt.

Les chercheurs ont également signalé les travaux d’une équipe de « scientifiques en IA », dont plusieurs sources ont confirmé l’existence. Le groupe, formé en combinant les anciennes équipes « Code Gen » et « Math Gen », étudiait comment optimiser les modèles d’IA existants pour améliorer leur raisonnement et éventuellement effectuer des travaux scientifiques, a déclaré l’une des personnes.

Altman a dirigé les efforts visant à faire de ChatGPT l’une des applications logicielles à la croissance la plus rapide de l’histoire et a attiré les investissements – et les ressources informatiques – nécessaires de la part de Microsoft pour se rapprocher d’AGI.

En plus d’annoncer une série de nouveaux outils lors d’une démonstration ce mois-ci, Altman a déclaré la semaine dernière lors d’un sommet des dirigeants mondiaux à San Francisco qu’il pensait que des avancées majeures étaient en vue.

« Quatre fois maintenant dans l’histoire d’OpenAI, la dernière fois c’était au cours des deux dernières semaines, j’ai pu être dans la pièce, lorsque nous repoussons en quelque sorte le voile de l’ignorance et la frontière de la découverte en avant, et y parvenir est l’honneur professionnel de sa vie », a-t-il déclaré lors du sommet de la Coopération économique Asie-Pacifique.

Un jour plus tard, le conseil d’administration a licencié Altman.

(Anna Tong et Jeffrey Dastin à San Francisco et Krystal Hu à New York ; édité par Kenneth Li et Lisa Shumaker)

Source link -57