[ad_1]
La semaine dernière, Microsoft et Google ont annoncé qu’ils intégreraient des programmes d’IA similaires à ChatGPT dans leurs moteurs de recherche – des offres pour transformer la façon dont nous trouvons des informations en ligne en une conversation avec un chatbot omniscient. Un problème : ces modèles de langage sont des mythomanes notoires.
Dans une vidéo promotionnelle, le chatbot Bard de Google a fait une erreur flagrante à propos de l’astronomie – une erreur de plus d’une décennie lorsque la première photo d’une planète en dehors de notre système solaire a été capturée – qui a fait chuter les actions de sa société mère jusqu’à 9 %. La démo en direct du nouveau Bing, qui intègre une version plus avancée de ChatGPT, était également truffée d’inexactitudes embarrassantes. Même si les derniers mois auraient fait croire à beaucoup que l’intelligence artificielle est enfin à la hauteur de son nom, les limites fondamentales de cette technologie suggèrent que les annonces de ce mois-ci pourraient en fait se situer quelque part entre l’effondrement de Google Glass et une mise à jour de l’iPhone – au pire de la science-fiction. battage médiatique, au mieux une amélioration progressive accompagnée d’un maelström de bogues.
Le problème survient lorsque nous traitons les chatbots non seulement comme recherche bots, mais comme ayant quelque chose comme un cerveau – lorsque les entreprises et les utilisateurs font confiance à des programmes comme ChatGPT pour analyser leurs finances, planifier des voyages et des repas, ou même fournir des informations de base. Au lieu d’obliger les utilisateurs à lire d’autres pages Internet, Microsoft et Google ont proposé un avenir où les moteurs de recherche utilisent l’IA pour synthétiser les informations et les regrouper en prose de base, comme des oracles en silicium. Mais réaliser pleinement que cette vision pourrait être un objectif lointain, et le chemin qui y mène est sinueux et obscur : les programmes actuellement à l’origine de ce changement, connus sous le nom de « grands modèles de langage », sont corrects pour générer des phrases simples mais assez horribles pour tout le reste.
Ces modèles fonctionnent en identifiant et en régurgitant des modèles dans le langage, comme une correction automatique super puissante. Un logiciel comme ChatGPT analyse d’abord d’énormes quantités de texte (livres, pages Wikipédia, journaux, publications sur les réseaux sociaux), puis utilise ces données pour prédire quels mots et expressions sont les plus susceptibles d’aller ensemble. Ces programmes modèle langage existant, ce qui signifie qu’ils ne peuvent pas proposer de « nouvelles » idées. Et leur dépendance aux régularités statistiques signifie qu’ils ont tendance à produire des versions bon marché et dégradées de l’information originale – quelque chose comme une copie Xerox défectueuse, dans l’imagination de l’écrivain Ted Chiang.
Et même si ChatGPT et ses cousins avaient appris à prédire parfaitement les mots, il leur manquerait encore d’autres compétences de base. Par exemple, ils ne comprennent pas le monde physique ou comment utiliser la logique, sont mauvais en mathématiques et, ce qui est le plus pertinent pour la recherche sur Internet, ne peuvent pas vérifier eux-mêmes les faits. Pas plus tard qu’hier, ChatGPT m’a dit qu’il y avait six lettres dans son nom.
Ces programmes linguistiques écrivent de « nouvelles » choses — on les appelle des « hallucinations », mais on pourrait aussi les décrire comme mensonges. Semblable à la façon dont la correction automatique est terrible pour obtenir des lettres simples, ces modèles gâchent des phrases et des paragraphes entiers. Le nouveau Bing aurait déclaré que 2022 vient après 2023, puis a déclaré que l’année en cours est 2022, tout en éclairant les utilisateurs lorsqu’ils se disputaient avec lui; ChatGPT est connu pour évoquer des statistiques à partir de sources fabriquées. Bing a inventé des traits de personnalité sur le politologue Rumman Chowdhury et s’est livré à de nombreuses choses effrayantes, spéculation genrée sur sa vie personnelle. Le journaliste Mark Hachman, essayant de montrer à son fils comment le nouveau Bing a des filtres anti-biais, a plutôt incité l’IA à enseigner à son plus jeune enfant une vile foule d’insultes ethniques (Microsoft a déclaré qu’il avait pris « une action immédiate… pour résoudre ce problème »).
Interrogé sur ces problèmes, un porte-parole de Microsoft a écrit dans un e-mail que, « étant donné qu’il s’agit d’un aperçu précoce, [the new Bing] peut parfois montrer des réponses inattendues ou inexactes », et que « nous ajustons ses réponses pour créer des réponses cohérentes, pertinentes et positives ». Et un porte-parole de Google m’a dit par e-mail : « Les tests et les commentaires des Googleurs et des testeurs externes de confiance sont des aspects importants de l’amélioration de Bard afin de s’assurer qu’il est prêt pour nos utilisateurs. »
En d’autres termes, les créateurs savent que les nouveaux Bing et Bard sont pas prêt pour le monde, malgré les annonces de produits et le cycle de battage médiatique qui s’ensuit. Les outils de recherche de type chatbot offrent des notes de bas de page, un vague geste vers la responsabilité, mais si le principal tampon de l’IA contre la désinformation est une pratique de citation vieille de plusieurs siècles, alors cette « révolution » n’est pas significativement différente d’une entrée Wikipedia.
Si les pépins – et l’hostilité pure et simple – ne suffisent pas à vous faire réfléchir, considérez que la formation d’une IA prend énormément de données et de temps. ChatGPT, par exemple, ne s’est pas entraîné sur (et n’a donc aucune connaissance de) quoi que ce soit après 2021, et mettre à jour n’importe quel modèle avec les nouvelles de chaque minute serait peu pratique, voire impossible. Pour fournir des informations plus récentes – sur les dernières nouvelles, par exemple, ou sur les événements sportifs à venir – le nouveau Bing exécuterait la requête d’un utilisateur via le moteur de recherche Bing traditionnel et utiliserait ces résultats, en conjonction avec l’IA, pour rédiger une réponse. Cela ressemble à une poupée russe, ou peut-être à une statue dorée : sous la couche extérieure scintillante de l’IA se trouve le même Bing terni que nous connaissons tous et que nous n’utilisons jamais.
La mise en garde à tout ce scepticisme est que Microsoft et Google n’ont pas dit grand-chose sur le fonctionnement réel de ces outils de recherche alimentés par l’IA. Peut-être incorporent-ils d’autres logiciels pour améliorer la fiabilité des chatbots, ou peut-être que la prochaine itération du modèle de langage d’OpenAI, GPT-4, résoudra comme par magie ces préoccupations, si des rumeurs (incroyables) s’avèrent vraies. Mais les preuves actuelles suggèrent le contraire, et en référence à l’idée que GPT-4 pourrait s’approcher de quelque chose comme l’intelligence humaine, le PDG d’OpenAI a déclaré : « Les gens supplient d’être déçus et ils le seront. »
En effet, deux des plus grandes entreprises du monde demandent essentiellement au public d’avoir la foi – de leur faire confiance comme s’ils étaient des dieux et des chatbots leur médium, comme Apollo parlant à travers une prêtresse à Delphes. Ces robots de recherche IA seront bientôt disponibles pour tout le monde, mais nous ne devrions pas être si prompts à faire confiance aux corrections automatiques glorifiées pour gérer nos vies. Il y a moins d’une décennie, le monde s’est rendu compte que Facebook était moins un réseau social amusant qu’une machine à éroder la démocratie. Si nous nous précipitons encore pour faire confiance au Next Big Thing des géants de la technologie, alors peut-être que l’hallucination, avec ou sans chatbots, a déjà supplanté la recherche d’informations et la réflexion.
[ad_2]
Source link -30