[ad_1]
SParfois, ceux qui voudraient oublier l’histoire sont condamnés à la répéter. Pour ceux d’entre nous qui ont de longs souvenirs, l’agitation actuelle – voire l’hystérie – entourant ChatGPT (et « l’IA générative » en général) sonne une cloche.
Nous sommes déjà venus ici : en janvier 1966, pour être précis. C’est à ce moment que Joseph Weizenbaum, informaticien au MIT, a dévoilé Eliza, qui aurait été appelée le premier chatbot du monde si ce terme avait existé à l’époque. Weizenbaum a écrit le logiciel (dans un langage de programmation intrigant appelé MAD-SLIP) pour démontrer que les communications entre les humains et les ordinateurs étaient inévitablement superficielles. Il l’a fait en fournissant une zone de texte dans laquelle on pouvait échanger des communications dactylographiées avec la machine. À l’intérieur du programme se trouvait un scénario (baptisé DOCTOR par Weizenbaum) qui parodiait les échanges qu’un patient pouvait avoir avec un psychothérapeute qui pratiquait la thérapie centrée sur la personne mise au point par Carl Rogers. (Le nom du programme vient d’Eliza Doolittle, la jeune fille cockney qui a appris à « parler correctement » dans la pièce de Shaw Pygmalion.)
La façon dont cela fonctionne est que le programme prend ce que vous avez tapé et le traite pour produire une réponse. Supposons que vous tapiez (comme je viens de le faire) : « Je suis un peu déprimé par la politique britannique. » Eliza : « Penses-tu que venir ici t’aidera à ne pas être déprimée ? » Moi : « Je l’espère. » Eliza : « Voulez-vous dire que vous l’espérez pour une raison particulière ? » Vous avez compris – mais vous pouvez l’essayer par vous-même : rendez-vous simplement sur masswerk.at/elizabot/.
Weizenbaum a écrit le programme pour montrer que si les machines pouvaient apparemment copier le comportement humain, c’était en réalité comme un magicien sortant un lapin d’un chapeau : une illusion. Et une fois que vous savez comment le tour a été fait, pensa Weizenbaum, cela a cessé d’être une illusion. Il n’y avait rien de secret à propos d’Eliza : si vous lisiez le code, vous pouviez comprendre comment il fonctionnait. Ce qui a surpris son créateur, c’est que même si les gens savaient que ce n’était qu’un programme, ils semblaient le prendre au sérieux. Il y a une histoire célèbre à propos de sa secrétaire lui demandant de quitter la pièce pendant qu’elle avait sa «conversation» avec Eliza. Les gens étaient tout à fait envoûté par celle-ci. (Je l’ai vu moi-même lorsque je l’ai exécuté une fois sur un PC lors de la journée portes ouvertes de mon université et que j’ai dû éloigner les gens de la machine pour que d’autres dans la file d’attente puissent essayer.)
Après la publication de l’article de Weizenbaum sur Eliza, il n’a pas fallu longtemps à certaines personnes (dont certains psychiatres en exercice) pour commencer à dire que si une machine pouvait faire ce genre de choses, qui avait besoin de psychothérapeutes ? Weizenbaum était aussi consterné par cela que les pédagogues et les artistes d’aujourd’hui le sont par l’esclavage contemporain des outils de l’IA générative. Pour lui, comme l’a dit un commentateur perspicace, « il y avait quelque chose dans la relation entre une personne et son thérapeute qui était fondamentalement une rencontre entre deux êtres humains. Dans un langage qui rappelait parfois la formulation « je et tu » de Martin Buber, Weizenbaum est resté obsédé par l’importance de l’interaction entre les êtres humains. En ce sens, il n’était pas seulement un informaticien distingué, mais aussi un humaniste remarquable.
Cette indignation humaniste a alimenté son opposition de toute une vie au déterminisme technologique de « l’intelligensia artificielle ». Et cela a informé son livre de 1976, Puissance informatique et raison humainequi a confirmé son rôle d’épine dans le pied de la foule de l’IA et se classe avec Norbert Wiener L’utilisation humaine des êtres humains en énonçant les réserves d’un initié technologique sur le sens du voyage de l’humanité vers « l’automatisation de tout ».
L’écho intrigant d’Eliza en pensant à ChatGPT est que les gens le considèrent comme magique même s’ils savent comment cela fonctionne – comme un « perroquet stochastique » (selon les mots de Timnit Gebru, un chercheur bien connu) ou comme une machine à » plagiat high-tech » (Noam Chomsky). Mais en fait, nous n’en connaissons pas encore la moitié – pas le CO2 émissions générées par la formation de son modèle linguistique sous-jacent ou l’empreinte carbone de toutes ces interactions ravies que les gens ont avec lui. Ou, rythme Chomsky, que la technologie n’existe qu’en raison de son appropriation non autorisée du travail créatif de millions de personnes qui traînent par hasard sur le Web ? Quel est le business model derrière ces outils ? Et ainsi de suite. Réponse : nous ne savons pas.
Dans l’une de ses conférences, Weizenbaum a souligné que nous concluons sans cesse des marchés faustiens avec cette technologie. Dans de tels contrats, les deux parties obtiennent quelque chose : le diable obtient l’âme humaine ; les humains obtiennent les services qui nous ravissent. Parfois, le compromis fonctionne pour nous, mais avec ce genre de choses, si nous décidons finalement que ce n’est pas le cas, il sera trop tard. C’est le marché que l’IA générative met désormais sur la table. Sommes-nous prêts à le faire ?
Ce que j’ai lu
Estime de soi
Le New York Times’ L’obsession de soi est une excoriation politique chronique de Jack Shafer.
Visions d’enfer
Ken Burns sur son film le plus important est une interview de Baris Weiss sur le site Web Free Press sur les attitudes américaines à l’égard de l’Holocauste.
Règles de monopole
Comprendre l’affaire antitrust contre Google est une bonne explication par Matt Stoller sur Substack d’une question vraiment complexe.
[ad_2]
Source link -8