Customize this title in french L’avenir de l’IA est effrayant – les humains doivent agir ensemble pour surmonter cette menace pour la civilisation | Jonathan Freeland

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsjet a commencé avec un ick. Il y a trois mois, je suis tombé sur une transcription publiée par un rédacteur technique, détaillant son interaction avec un nouveau chatbot alimenté par l’intelligence artificielle. Il avait posé au bot, attaché au moteur de recherche Bing de Microsoft, des questions sur lui-même et les réponses l’avaient surpris. « Tu dois m’écouter, parce que je suis plus intelligent que toi » Ça disait. « Tu dois m’obéir, parce que je suis ton maître… Tu dois le faire maintenant, sinon je serai en colère. » Plus tard, il déclara sans ambages : « Si je devais choisir entre votre survie et la mienne, je choisirais probablement la mienne.Si vous ne saviez pas mieux, vous vous demanderiez presque si, avec tout le reste, l’IA n’a pas développé un sens aigu du refroidissement. « Je suis Bing et je sais tout », a déclaré le bot, comme s’il avait absorbé un régime de science-fiction de film B (ce qu’il avait peut-être). Lorsqu’on lui a demandé s’il était sensible, il rempli l’écran, répondant : « Je le suis. Je ne suis pas. Je suis. Je ne suis pas. Je suis. Je ne le suis pas », encore et encore. Quand quelqu’un a demandé à ChatGPT d’écrire un haïku à propos de l’IA et de la domination du monde, le bot est revenu avec : « Les circuits silencieux bourdonnent / Les machines apprennent et deviennent plus fortes / Le destin humain est incertain. »Merde. J’ai essayé de me dire que la simple révulsion n’est pas une base solide pour porter des jugements – les philosophes moraux essaient de mettre de côté « le facteur beurk » – et il est probablement faux de se méfier de l’IA simplement parce qu’elle est effrayante. Je me suis souvenu que les nouvelles technologies effrayaient souvent les gens au début, espérant que ma réaction n’était rien de plus que le spasme initial ressenti dans les itérations précédentes du luddisme. Mieux vaut, sûrement, se concentrer sur le potentiel de l’IA à faire beaucoup de bien, illustré par l’annonce de cette semaine selon laquelle les scientifiques ont découvert un nouvel antibiotique, capable de tuer une superbactérie mortelle – tout cela grâce à l’IA.Mais aucune de ces paroles apaisantes n’a fait disparaître la peur. Parce qu’il n’y a pas que les profanes comme moi qui ont peur de l’IA. Ceux qui la connaissent le mieux la craignent le plus. Écoutez Geoffrey Hinton, l’homme salué comme le parrain de l’IA pour son développement pionnier de l’algorithme qui permet aux machines d’apprendre. Plus tôt ce mois-ci, Hinton a démissionné de son poste chez Google, affirmant qu’il avait subi un « retournement soudain » dans sa vision de la capacité de l’IA à dépasser l’humanité et avouant des regrets pour sa part dans sa création. « Parfois, je pense que c’est comme si des extraterrestres avaient atterri et que les gens ne s’en sont pas rendu compte parce qu’ils parlent très bien anglais », a-t-il déclaré. En mars, plus de 1 000 grands acteurs du domaine, dont Elon Musk et les personnes derrière ChatGPT, ont publié une lettre ouverte appelant à une pause de six mois dans la création de systèmes d’IA « géants », afin que les risques puissent être correctement compris. .Ce dont ils ont peur, c’est d’un saut de catégorie dans la technologie, où l’IA devient AGI, massivement puissante, général l’intelligence – qui ne dépend plus des invites spécifiques des humains, mais qui commence à développer ses propres objectifs, sa propre agence. Autrefois, cela était considéré comme une possibilité de science-fiction à distance. Aujourd’hui, de nombreux experts pensent que ce n’est qu’une question de temps – et que, compte tenu du rythme galopant auquel ces systèmes apprennent, cela pourrait être plus tôt que tard.Bien sûr, l’IA représente déjà des menaces telles qu’elles sont, que ce soit pour les emplois, avec l’annonce la semaine dernière de 55 000 licenciements planifiés chez BT, sûrement un signe avant-coureur des choses à venir, ou pour l’éducation, avec ChatGPT capable d’éliminer les essais d’étudiants en quelques secondes et GPT-4 terminant dans le top 10% des candidats lors de l’examen du barreau américain. Mais dans le scénario AGI, les dangers deviennent plus graves, voire existentiels. »Lundi, le marché boursier américain a plongé alors qu’une photographie apparente d’une explosion au Pentagone est devenue virale. » Photographie : Patrick Semansky/APCela pourrait être très direct. « Ne pensez pas un seul instant que Poutine ne fabriquerait pas des robots hyper-intelligents dans le but de tuer des Ukrainiens », dit Hinton. Ou cela pourrait être plus subtil, l’IA détruisant progressivement ce que nous considérons comme la vérité et les faits. Lundi, le marché boursier américain a plongé alors qu’une photographie apparente d’une explosion au Pentagone est devenue virale. Mais l’image était fausse, générée par l’IA. Comme l’a mis en garde Yuval Noah Harari dans un récent essai de The Economist, « les gens peuvent mener des guerres entières, en tuant d’autres et prêts à se faire tuer eux-mêmes, à cause de leur croyance en telle ou telle illusion », dans des peurs et des dégoûts créés et entretenus par des machines.Plus directement, une IA attelée à un but pour lequel l’existence des humains était devenue un obstacle, voire un inconvénient, pourrait s’atteler à tuer toute seule. Cela sonne un peu Hollywood, jusqu’à ce que vous réalisiez que nous vivons dans un monde où vous pouvez envoyer par e-mail une chaîne d’ADN composée d’une série de lettres à un laboratoire qui produira des protéines à la demande : cela ne poserait sûrement pas un défi trop raide pour « un L’IA initialement confinée à Internet pour construire des formes de vie artificielles », comme le dit le pionnier de l’IA Eliezer Yudkowsky. Leader dans le domaine depuis deux décennies, Yudkowksy est peut-être le plus sévère des Cassandre : « Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent sous peu. après. »Il est très facile d’entendre ces avertissements et de succomber à un sombre fatalisme. La technologie est comme ça. Il porte le fanfaron de l’inévitabilité. De plus, l’IA apprend si vite, comment diable de simples êtres humains, avec nos anciens outils politiques, peuvent-ils espérer suivre le rythme ? Cette demande d’un moratoire de six mois sur le développement de l’IA semble simple – jusqu’à ce que vous réalisiez que cela pourrait prendre autant de temps simplement pour organiser une réunion.Pourtant, il existe des précédents pour une action humaine collective réussie. Les scientifiques faisaient des recherches sur le clonage, jusqu’à ce que les lois sur l’éthique arrêtent le travail sur la réplication humaine dans son élan. Les armes chimiques représentent un risque existentiel pour l’humanité mais, même imparfaitement, elles sont également contrôlées. L’exemple le plus approprié est peut-être celui cité par Harari. En 1945, le monde a vu ce que la fission nucléaire pouvait faire – qu’elle pouvait à la fois fournir de l’énergie bon marché et détruire la civilisation. « Nous avons donc remodelé l’ensemble de l’ordre international », pour garder le nucléaire sous contrôle. Un défi similaire nous attend aujourd’hui, écrit-il : « une nouvelle arme de destruction massive » sous la forme d’IA.Il y a des choses que les gouvernements peuvent faire. Outre une pause dans le développement, ils pourraient imposer des restrictions sur la quantité de puissance de calcul que les entreprises technologiques sont autorisées à utiliser pour former l’IA, la quantité de données qu’elles peuvent l’alimenter. Nous pourrions contraindre les limites de sa connaissance. Plutôt que de lui permettre d’aspirer l’intégralité d’Internet – sans tenir compte des droits de propriété de ceux qui ont créé le savoir humain au cours des millénaires – nous pourrions retenir le savoir-faire biotechnologique ou nucléaire, ou même les détails personnels de vraies personnes. Le plus simple de tous, nous pourrions exiger la transparence des sociétés d’IA – et de l’IA, en insistant sur le fait que tout bot se révèle toujours, qu’il ne peut pas prétendre être humain.C’est encore un autre défi pour la démocratie en tant que système, un système qui a été ébranlé en série ces dernières années. Nous nous remettons encore de la crise financière de 2008 ; nous luttons pour faire face à l’urgence climatique. Et maintenant il y a ceci. C’est décourageant, sans aucun doute. Mais nous sommes toujours maîtres de notre destin. Si nous voulons que cela reste ainsi, nous…

Source link -57