Customize this title in frenchL’IA, c’est comme… des armes nucléaires ?

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa préoccupation, comme Edward Teller l’a vu, était littéralement la fin du monde. Il avait effectué les calculs, et il y avait une possibilité réelle, a-t-il dit à ses collègues du projet Manhattan en 1942, que lorsqu’ils auraient fait exploser la première bombe nucléaire au monde, l’explosion déclencherait une réaction en chaîne. L’atmosphère s’enflammerait. Toute vie sur Terre serait incinérée. Certains des collègues de Teller ont rejeté l’idée, mais d’autres non. S’il y avait même une légère possibilité d’inflammation atmosphérique, a déclaré Arthur Compton, directeur d’un laboratoire du projet Manhattan à Chicago, tous les travaux sur la bombe devraient s’arrêter. « Mieux vaut accepter l’esclavage des nazis », écrira-t-il plus tard, « que de courir une chance de tirer le dernier rideau sur l’humanité. »Je propose cette histoire comme une analogie – ou peut-être un contraste avec – notre moment actuel de l’IA. En quelques mois seulement, la nouveauté de ChatGPT a cédé la place à la pure manie. Soudain, l’IA est partout. Est-ce le début d’une nouvelle crise de désinformation ? Une nouvelle crise de la propriété intellectuelle ? La fin de la dissertation universitaire ? Du travail en col blanc ? Certains s’inquiètent, comme Compton il y a 80 ans, pour l’avenir même de l’humanité, et ont préconisé de suspendre ou de ralentir le développement de l’IA ; d’autres disent qu’il est déjà trop tard.Face à tant d’excitation, d’incertitude et de peur, le mieux que l’on puisse faire est d’essayer de trouver une bonne analogie, une façon de rendre cette nouvelle technologie peu familière un peu plus familière. L’IA est le feu. AI est des stéroïdes. AI est un tout-petit extraterrestre. (Quand j’ai demandé une analogie propre, GPT-4 a suggéré la boîte de Pandore – pas très rassurant.) Certaines de ces analogies sont, pour le moins, meilleures que d’autres. Certains d’entre eux sont même utiles.Compte tenu des trois dernières années, il n’est pas étonnant que les analogies liées à la pandémie abondent. Le développement de l’IA a a été par rapport à la recherche de gain de fonction, par exemple. Les partisans de ce dernier travail, dans lequel des virus potentiellement mortels sont améliorés dans un environnement de laboratoire contrôlé, disent qu’il est essentiel d’arrêter la prochaine pandémie. Les opposants disent qu’il est moins susceptible d’empêcher une catastrophe que d’en provoquer une, que ce soit par une fuite accidentelle ou un acte de bioterrorisme.Au niveau littéral, cette analogie fonctionne plutôt bien. Le développement de l’IA est vraiment une sorte de recherche sur le gain de fonction – sauf que ce sont les algorithmes, et non les virus, qui gagnent les fonctions. De plus, les deux promettent des avantages à court terme : Cette expérience pourrait aider à prévenir la prochaine pandémie; cette IA pourrait aider à guérir votre cancer. Et les deux comportent des risques potentiels qui bouleversent le monde : Cette expérience pourrait aider à cause une pandémie plusieurs fois plus meurtrière que celle que nous venons de subir; cette IA pourrait anéantir complètement l’humanité. Mettre un nombre sur les probabilités de chacun de ces résultats, qu’ils soient bons ou mauvais, n’est pas une chose simple. Les gens sérieux sont en désaccord avec véhémence sur leur probabilité.Lire : La grippe aviaire laisse le monde avec un choix existentielCe que l’analogie du gain de fonction ne parvient pas à saisir, ce sont les motivations et les incitations qui motivent le développement de l’IA. La virologie expérimentale est une entreprise académique, principalement menée dans des laboratoires universitaires par des professeurs d’université, dans le but au moins de protéger les personnes. Ce n’est pas une entreprise lucrative. Ni les scientifiques ni les institutions qu’ils représentent ne sont là pour s’enrichir. On ne peut pas en dire autant de l’IA. Deux entreprises privées aux bénéfices d’un milliard de dollars, Microsoft (en partenariat avec OpenAI) et Google (en partenariat avec Anthropic), sont engagées dans une bataille pour la suprématie de l’IA. Même les plus petits acteurs de l’industrie sont inondés d’argent. Plus tôt cette année, quatre des meilleurs chercheurs en intelligence artificielle de Google ont démissionné pour créer leur propre entreprise, même s’ils ne savaient pas exactement ce qu’elle ferait ; environ une semaine plus tard, il avait une valorisation de 100 millions de dollars. À cet égard, la meilleure analogie est…Réseaux sociaux. Il y a deux décennies, il y avait de l’argent frais – beaucoup – à gagner dans la technologie, et la façon de le faire n’était pas de ralentir ou d’attendre ou de tergiverser sur des bagatelles telles que le sort de la démocratie. Les entreprises privées ont agi rapidement au risque de briser la civilisation humaine, au diable les ennemis. La réglementation n’a pas suivi le rythme. On pourrait dire la même chose de l’IA d’aujourd’hui.Lire : L’argent tuera la magie de ChatGPTLe problème avec la comparaison des médias sociaux est qu’elle sous-estime le potentiel destructeur de l’IA. Aussi dommageables que soient les médias sociaux, ils ne présentent pas de menace existentielle. Il ne semble pas non plus avoir conféré, à aucun pays, des avantages stratégiques très significatifs sur les adversaires étrangers, nonobstant les inquiétudes concernant TikTok. On ne peut pas en dire autant de l’IA. À cet égard, la meilleure analogie est…Armes nucléaires. Cette comparaison saisit à la fois la gravité de la menace et l’origine probable de cette menace. Peu d’individus pouvaient rassembler les ressources colossales et l’expertise technique nécessaires pour construire et déployer une bombe nucléaire. Heureusement, les armes nucléaires sont le domaine des États-nations. La recherche sur l’IA présente des barrières à l’entrée tout aussi élevées et une dynamique géopolitique mondiale similaire. La course aux armements de l’IA entre les États-Unis et la Chine est en cours, et les dirigeants de la technologie l’invoquent déjà comme justification pour agir le plus rapidement possible. Comme ce fut le cas pour la recherche sur les armes nucléaires, invoquer la concurrence internationale a été une façon de rejeter les appels à pomper les freins.Mais la technologie des armes nucléaires a une portée beaucoup plus étroite que l’IA. L’utilité des armes nucléaires est purement militaire ; et les gouvernements, et non les entreprises ou les individus, les construisent et les utilisent. Cela rend leurs dangers moins diffus que ceux qui proviennent de la recherche sur l’IA. À cet égard, la meilleure analogie est…Électricité. Une scie sert à couper, un stylo à écrire, un marteau à enfoncer les clous. Ces choses sont des outils; chacun a une fonction spécifique. L’électricité non. C’est moins un outil qu’une force, plus un coefficient qu’une constante, qui imprègne pratiquement tous les aspects de la vie. L’IA est comme ça aussi – ou ça pourrait l’être.Lire : Qu’est-ce que les humains viennent de déclencher ?Sauf que l’électricité n’a jamais (vraiment) menacé de tous nous tuer. L’IA est peut-être diffuse, mais elle est aussi menaçante. Même l’analogie nucléaire ne saisit pas tout à fait la nature de la menace. Oubliez les peurs de l’époque de la guerre froide des dirigeants américains et soviétiques avec leurs doigts planant au-dessus de petits boutons rouges. La plus grande menace de l’IA super intelligente n’est pas que nos adversaires l’utilisent contre nous. C’est l’IA super intelligente elle-même. À cet égard, la meilleure analogie est…Teller a peur de l’inflammation atmosphérique. Une fois que vous avez fait exploser la bombe, une fois que vous avez construit l’IA super intelligente, il n’y a plus de retour en arrière. Soit l’atmosphère s’enflamme, soit elle ne s’enflamme pas. Pas de refaire. En fin de compte, l’inquiétude de Teller s’est avérée sans fondement. D’autres calculs ont démontré que l’atmosphère ne s’enflammerait pas – bien que deux villes japonaises l’aient finalement fait – et le projet Manhattan a avancé.Aucun autre calcul n’exclura la possibilité d’une apocalypse de l’IA. L’analogie Teller, comme toutes les autres, ne va pas plus loin. Dans une certaine mesure, c’est justement la nature des analogies : elles sont éclairantes mais incomplètes. Mais cela témoigne également de la nature radicale de l’IA. Il englobe des éléments de recherche sur le gain de fonction, les médias sociaux et les armes nucléaires. C’est comme tous — et, en cela, comme aucun d’eux.

Source link -57