Les craintes mal placées d’un ChatGPT « mal » obscurcissent le vrai mal fait | Jean Naughton

[ad_1]

Oe 14 février, Kevin Roose, le New York Times chroniqueur technologique, a eu une conversation de deux heures avec Bing, le moteur de recherche amélioré ChatGPT de Microsoft. Il est ressorti de l’expérience un homme apparemment changé, car le chatbot lui avait dit, entre autres, qu’il aimerait être humain, qu’il nourrissait des désirs destructeurs et qu’il était amoureux de lui.

La transcription de la conversation, ainsi que l’apparition de Roose sur le journal Le Quotidien podcast, a immédiatement fait monter en flèche la panique morale qui faisait déjà rage à propos des implications des grands modèles de langage (LLM) tels que GPT-3.5 (qui sous-tend apparemment Bing) et d’autres outils « d’IA générative » qui sont maintenant lâches dans le monde. Ceux-ci sont diversement considérés comme des artefacts chroniquement indignes de confiance, comme des exemples de technologie hors de contrôle ou comme des précurseurs de ce que l’on appelle l’intelligence générale artificielle (IAG) – c’est-à-dire l’intelligence au niveau humain – et posant donc une menace existentielle pour l’humanité.

Cette hystérie s’accompagne d’une nouvelle ruée vers l’or, alors que les capital-risqueurs et autres investisseurs s’efforcent de participer à l’action. Il semble que tout cet argent creuse des trous dans des poches très profondes. Heureusement, cela a ses côtés comiques. Cela suggère, par exemple, que les chatbots et les LLM ont remplacé la crypto et le Web 3.0 comme la prochaine grande chose, ce qui confirme à son tour que l’industrie technologique a collectivement la capacité d’attention d’un triton.

La chose la plus étrange de toutes, cependant, est que le pandémonium a été déclenché par ce que l’un de ses principaux chercheurs a appelé des « perroquets stochastiques » – ce qui signifie que les chatbots alimentés par LLM sont des machines qui prédisent en permanence quel mot est statistiquement le plus susceptible de suivre le précédent. Et ce n’est pas de la magie noire, mais un processus de calcul bien compris et clairement décrit par le professeur Murray Shanahan et élégamment disséqué par l’informaticien Stephen Wolfram.

Comment donner un sens à toute cette folie ? Un bon point de départ consiste à sevrer les gens de leur désir incurable d’interpréter les machines de manière anthropocentrique. Depuis Eliza de Joe Weizenbaum, les humains qui interagissent avec les chatbots semblent vouloir humaniser l’ordinateur. C’était absurde avec Eliza – qui exécutait simplement un script écrit par son créateur – il est donc peut-être compréhensible que les humains qui interagissent maintenant avec ChatGPT – qui peut apparemment répondre intelligemment à l’entrée humaine – tombent dans le même piège. Mais c’est encore con.

Le rebadgeage persistant des LLM en tant qu' »IA » n’aide pas non plus. Ces machines sont certes artificielles, mais les considérer comme « intelligentes » me semble exiger une conception assez pauvre de l’intelligence. Certains observateurs, cependant, comme le philosophe Benjamin Bratton et l’informaticien Blaise Agüera y Arcas sont moins dédaigneux. « Il est possible », concèdent-ils, « que ces types d’IA soient « intelligents » – et même « conscients » d’une certaine manière – selon la façon dont ces termes sont définis », mais « aucun de ces termes ne peut être très utile s’ils sont définis de manière fortement anthropocentrique ». Ils soutiennent que nous devrions distinguer la sensibilité de l’intelligence et de la conscience et que «la véritable leçon pour la philosophie de l’IA est que la réalité a dépassé le langage disponible pour analyser ce qui est déjà à portée de main. Un vocabulaire plus précis est indispensable.

C’est. Pour le moment, cependant, nous sommes coincés avec l’hystérie. Un an, c’est terriblement long dans cette industrie. Il y a seulement deux ans, rappelez-vous, les prochaines grandes choses allaient être la crypto/web 3.0 et l’informatique quantique. La première s’est effondrée sous le poids de sa propre absurdité, tandis que la seconde est, comme la fusion nucléaire, encore à l’horizon.

Avec les chatbots et les LLM, le résultat le plus probable est qu’ils seront finalement considérés comme une augmentation significative des capacités humaines (des feuilles de calcul sur les stéroïdes, comme l’a dit un collègue cynique). Si cela se produit, les principaux bénéficiaires (comme dans toutes les ruées vers l’or précédentes) seront les fournisseurs des pioches et des pelles, qui dans ce cas sont les ressources de cloud computing nécessaires à la technologie LLM et détenues par de grandes entreprises.

Compte tenu de cela, n’est-il pas intéressant que la seule chose dont personne ne parle pour le moment soit l’impact environnemental de la grande quantité d’informatique nécessaire pour former et faire fonctionner les LLM ? Un monde qui en dépend serait peut-être bon pour les affaires, mais ce serait certainement mauvais pour la planète. C’est peut-être ce que Sam Altman, le PDG d’OpenAI, la société qui a créé ChatGPT, avait à l’esprit lorsqu’il a observé que « l’IA mènera probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises ». .

Ce que j’ai lu

Profils de douleur
Les médias sociaux sont une cause majeure de l’épidémie de maladie mentale chez les adolescentes est une enquête impressionnante réalisée par le psychologue Jonathan Haidt.

Chauffeur de salle
What the Poet, Playboy and Prophet of Bubbles Can Still Teach us est un bel essai de Tim Harford sur la folie des foules, entre autres.

Redevance technologique
What Mary, Queen of Scots, Can Teach Today’s Computer-Security Geeks est un article intrigant de Rupert Goodwins sur le registre.

[ad_2]

Source link -11