Customize this title in french L’IA a beaucoup à offrir à l’humanité. Cela pourrait également causer de terribles dommages. Il doit être contrôlé | Stuart Russel

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsAu cas où vous auriez été ailleurs dans le système solaire, voici une brève mise à jour sur l’IA. Mes excuses si cela ressemble au premier paragraphe d’un mauvais roman de science-fiction.Le 14 mars 2023, OpenAI, une société basée à San Francisco et en partie détenue par Microsoft, a publié un système d’IA appelé GPT-4. Le 22 mars, un rapport d’un groupe de chercheurs éminents de Microsoft, dont deux membres des académies nationales américaines, a affirmé que GPT-4 présente des « étincelles d’intelligence générale artificielle ». (L’intelligence générale artificielle, ou AGI, est un mot-clé pour les systèmes d’IA qui correspondent ou dépassent les capacités humaines dans toute la gamme des tâches auxquelles l’esprit humain est applicable.) Le 29 mars, le Future of Life Institute, une organisation à but non lucratif dirigée par le professeur de physique du MIT Max Tegmark, a publié une lettre ouverte demandant une pause sur les « expériences d’IA géantes ». Il a été signé par des personnalités bien connues telles que le PDG de Tesla, Elon Musk, le co-fondateur d’Apple Steve Wozniak et le lauréat du prix Turing Yoshua Bengio, ainsi que des centaines d’éminents chercheurs en intelligence artificielle. L’ouragan médiatique qui s’ensuit se poursuit.J’ai également signé la lettre, dans l’espoir qu’elle mènera (au moins) à une conversation sérieuse et ciblée entre les décideurs politiques, les entreprises technologiques et la communauté de recherche en IA sur les types de garanties nécessaires avant d’aller de l’avant. Le temps de dire qu’il ne s’agit que de recherche pure est révolu depuis longtemps.Il peut critiquer le projet de discours d’un ministre du cabinet du point de vue d’un député de n’importe quel parti politiqueAlors, de quoi s’agit-il? GPT-4, la cause proximale, est le dernier exemple d’un grand modèle de langage, ou LLM. Considérez un LLM comme un très grand circuit avec (dans ce cas) un billion de paramètres réglables. Il commence comme une ardoise vierge et est formé avec des dizaines de billions de mots de texte – autant que tous les livres que l’humanité a produits. Son objectif est de devenir bon pour prédire le mot suivant dans une séquence de mots. Après environ un milliard de billions de perturbations aléatoires des paramètres, il devient très bon.Les capacités du système résultant sont remarquables. Selon le site Web d’OpenAI, GPT-4 se classe parmi les quelques premiers pour cent des humains dans un large éventail d’examens d’entrée à l’université et de troisième cycle. Il peut décrire le théorème de Pythagore sous la forme d’un sonnet de Shakespeare et critiquer le projet de discours d’un ministre du point de vue d’un député de n’importe quel parti politique. Chaque jour, de nouvelles capacités surprenantes sont découvertes. Sans surprise, des milliers d’entreprises, grandes et petites, cherchent des moyens de monétiser cette offre illimitée d’intelligence presque gratuite. Les LLM peuvent effectuer de nombreuses tâches qui comprennent les emplois de centaines de millions de personnes – toute personne dont le travail est linguistique, linguistique. De manière plus optimiste, les outils construits avec des LLM pourraient être en mesure de fournir une éducation hautement personnalisée dans le monde entier.Malheureusement, les LLM sont connus pour « halluciner » – générant des réponses complètement fausses, souvent étayées par des citations fictives – parce que leur formation n’a aucun lien avec le monde extérieur. Ce sont des outils parfaits pour la désinformation et certains aident et même encouragent le suicide. A son crédit, OpenAI suggère « d’éviter complètement les usages à fort enjeu », mais personne ne semble y prêter attention. Les propres tests d’OpenAI ont montré que GPT-4 pouvait délibérément mentir à un travailleur humain (« Non, je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images ») afin d’obtenir de l’aide pour résoudre un problème. test captcha conçu pour bloquer les non-humains.Alors qu’OpenAI a fait des efforts acharnés pour que GPT-4 se comporte lui-même – « GPT-4 répond aux demandes sensibles (par exemple, les conseils médicaux et l’automutilation) conformément à nos politiques 29% plus souvent » – le problème principal est que ni OpenAI ni personne d’autre n’a une idée réelle du fonctionnement de GPT-4. J’ai demandé à Sébastien Bubeck, auteur principal de l’article sur les « étincelles », si le GPT-4 avait développé ses propres objectifs internes et les poursuivait. La réponse? « Nous n’en avons aucune idée. » Des personnes raisonnables pourraient suggérer qu’il est irresponsable de déployer à l’échelle mondiale un système qui fonctionne selon des principes internes inconnus, montre des « étincelles d’IAG » et peut ou non poursuivre ses propres objectifs internes. Pour le moment, il existe des raisons techniques de supposer que GPT-4 est limité dans sa capacité à former et à exécuter des plans complexes, mais compte tenu du rythme de progression, il est difficile de dire que les futures versions n’auront pas cette capacité. Et cela conduit à l’une des principales préoccupations sous-jacentes à la lettre ouverte : comment conserver pour toujours le pouvoir sur des entités plus puissantes que nous ?OpenAI et Microsoft ne peuvent pas déployer des systèmes affichant des « étincelles d’AGI » et s’opposer simultanément à toute réglementationOpenAI et Microsoft ne peuvent pas gagner sur les deux tableaux. Ils ne peuvent pas déployer des systèmes affichant des « étincelles d’AGI » et simultanément s’opposer à toute réglementation, comme le président de Microsoft, Brad Smith, l’a fait à Davos plus tôt cette année. L’idée de base du moratoire proposé dans la lettre ouverte est qu’aucun système de ce type ne devrait être publié tant que le développeur ne peut pas démontrer de manière convaincante qu’il ne présente pas de risque indu. Ceci est exactement conforme aux principes de l’OCDE sur l’IA, auxquels le Royaume-Uni, les États-Unis et de nombreux autres gouvernements ont adhéré : « Les systèmes d’IA doivent être robustes, sûrs et sûrs tout au long de leur cycle de vie afin que, dans des conditions d’utilisation normales, en cas d’utilisation ou de mauvaise utilisation prévisible, ou d’autres conditions défavorables, ils fonctionnent correctement et ne présentent pas de risque déraisonnable pour la sécurité. Il appartient au développeur de montrer que ses systèmes répondent à ces critères. Si ce n’est pas possible, qu’il en soit ainsi.Je n’imagine pas que je recevrai un appel demain du PDG de Microsoft, Satya Nadella, disant : « OK, on ​​abandonne, on arrête. » En fait, lors d’une récente conférence à Berkeley, Bubeck a suggéré qu’il n’y avait aucune possibilité que toutes les grandes entreprises technologiques s’arrêtent à moins que les gouvernements n’interviennent. Il est donc impératif que les gouvernements entament des discussions sérieuses avec des experts, des entreprises technologiques et entre eux. Il n’est dans l’intérêt d’aucun pays qu’un pays développe et publie des systèmes d’IA que nous ne pouvons pas contrôler. Insister sur des précautions raisonnables n’est pas anti-industrie. Tchernobyl a détruit des vies, mais il a également décimé l’industrie nucléaire mondiale. Je suis chercheur en IA. Je ne veux pas que mon domaine de recherche soit détruit. L’humanité a beaucoup à gagner de l’IA, mais aussi tout à perdre. Stuart Russell OBE est professeur d’informatique à l’Université de Californie à Berkeley

Source link -57