Customize this title in frenchMusk et des scientifiques appellent à l’arrêt de la course à l’IA déclenchée par ChatGPT

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les entreprises technologiques vont-elles trop vite dans le déploiement d’une puissante technologie d’intelligence artificielle qui pourrait un jour déjouer les humains ?

C’est la conclusion d’un groupe d’éminents informaticiens et d’autres notables de l’industrie technologique tels qu’Elon Musk et le co-fondateur d’Apple, Steve Wozniak, qui appellent à une pause de 6 mois pour examiner les risques.

Leur pétition publiée mercredi est une réponse à la récente publication de GPT-4 par la startup de San Francisco OpenAIun successeur plus avancé de son chatbot IA largement utilisé ChatGPT qui a contribué à déclencher une course entre les géants de la technologie Microsoft et Google pour dévoiler des applications similaires.

QU’EST-CE-QU’ILS DISENT?

La lettre avertit que les systèmes d’IA avec « l’intelligence compétitive humaine peuvent présenter des risques profonds pour la société et l’humanité » – en inondant Internet de désinformation et automatiser les emplois vers des risques futurs plus catastrophiques hors du domaine de la science-fiction.

Il indique que « ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».

« Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 », indique la lettre. « Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.

Un certain nombre de gouvernements travaillent déjà à réglementer les outils d’IA à haut risque. Le Royaume-Uni a publié mercredi un document décrivant son approche, qui, selon lui, « évitera une législation lourde qui pourrait étouffer l’innovation ». Les législateurs de l’Union européenne des 27 pays ont négocié l’adoption de règles radicales sur l’IA.

QUI L’A SIGNÉ ?

La pétition a été organisée par l’Institut à but non lucratif Future of Life, qui indique que les signataires confirmés incluent le pionnier de l’IA lauréat du prix Turing Yoshua Bengio et d’autres chercheurs de premier plan en IA tels que Stuart Russell et Gary Marcus. Wozniak, l’ancien candidat à la présidentielle américaine Andrew Yang et Rachel Bronson, présidente du Bulletin of the Atomic Scientists, un groupe de défense à vocation scientifique connu pour ses avertissements, ont également rejoint Wozniak. contre l’humanité, mettant fin à la guerre nucléaire.

Musk, qui dirige Tesla, Twitter et SpaceX et a été co-fondateur d’OpenAI et premier investisseur, a longtemps exprimé ses inquiétudes concernant les risques existentiels de l’IA. Une inclusion plus surprenante est Emad Mostaque, PDG de Stability AI, fabricant du générateur d’images AI Stable Diffusion qui s’associe à Amazon et est en concurrence avec le générateur similaire d’OpenAI connu sous le nom de DALL-E.

QUELLE EST LA RÉPONSE ?

OpenAI, Microsoft et Google n’ont pas répondu aux demandes de commentaires mercredi, mais la lettre a déjà beaucoup de sceptiques.

« Une pause est une bonne idée, mais la lettre est vague et ne prend pas au sérieux les problèmes de réglementation », déclare James Grimmelmann, professeur de droit numérique et de l’information à l’Université Cornell. « Il est également profondément hypocrite pour Elon Musk de signer étant donné à quel point Tesla a lutté contre la responsabilité de l’IA défectueuse dans ses voitures autonomes. »

EST-CE QUE C’EST DE L’HYSTÉRIE IA ?

Bien que la lettre soulève le spectre d’une IA infâme bien plus intelligente que ce qui existe réellement, ce n’est pas l’IA « surhumaine » qui inquiète certains de ceux qui se sont inscrits. Bien qu’impressionnant, un outil tel que ChatGPT est simplement un générateur de texte qui fait des prédictions sur les mots qui répondraient à l’invite qui lui a été donnée en fonction de ce qu’il a appris en ingérant d’énormes quantités d’œuvres écrites.

Gary Marcus, un professeur émérite de l’Université de New York qui a signé la lettre, a déclaré dans un article de blog qu’il n’était pas d’accord avec d’autres qui s’inquiètent de la perspective à court terme de machines intelligentes si intelligentes qu’elles peuvent s’auto-améliorer au-delà du contrôle de l’humanité. Ce qui l’inquiète le plus, c’est « l’IA médiocre » qui est largement déployée, y compris par des criminels ou des terroristes pour tromper les gens ou diffuser de fausses informations dangereuses.

« La technologie actuelle pose déjà d’énormes risques auxquels nous sommes mal préparés », a écrit Marcus. « Avec la technologie future, les choses pourraient bien empirer. »

Source link -57