Customize this title in french Comment fonctionnent les chatbots IA comme ChatGPT ? Voici une explication rapide.

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • Les chatbots IA comme ChatGPT d’OpenAI sont basés sur de grands modèles de langage qui reçoivent de nombreuses informations.
  • Ils sont également formés par des humains qui guident le système pour qu’il génère des réponses appropriées et précises.
  • Des experts en informatique ont expliqué à Insider comment les robots déterminent quoi dire ensuite.

ChatGPT et d’autres chatbots pilotés par l’intelligence artificielle peuvent parler avec des phrases fluides et grammaticalement correctes qui peuvent même avoir un rythme naturel.

Mais ne vous laissez pas tromper en confondant ce discours bien exécuté avec une pensée, une émotion ou même une intention, disent les experts.

Un chatbot n’est, par essence, rien de plus qu’une machine effectuant des calculs mathématiques et des analyses statistiques pour appeler les bons mots et phrases. Les robots comme ChatGPT sont formés sur de grandes quantités de texte, ce qui leur permet d’interagir de manière naturelle avec les utilisateurs humains. Il y a aussi beaucoup de formation dispensée par des humains, qui aident à lisser les rides.

OpenAI, la société derrière ChatGPT, indique sur son site Web que ses modèles sont informés à partir d’informations provenant de diverses sources, notamment celles de ses utilisateurs et du matériel sous licence.

Voici comment fonctionnent les chatbots IA

Les chatbots IA comme ChatGPT d’OpenAI sont basés sur de grands modèles de langage, ou LLM, qui sont des programmes formés sur des volumes de texte obtenus à partir d’écrits publiés et d’informations en ligne, généralement produites par des humains.

Les systèmes sont formés sur des séries de mots et apprennent l’importance des mots dans ces séries, ont déclaré les experts. Ainsi, toutes ces connaissances imprégnées entraînent non seulement de grands modèles de langage sur des informations factuelles, mais les aident également à deviner les modèles de discours et la manière dont les mots sont généralement utilisés et regroupés.

Les chatbots sont ensuite formés par des humains sur la manière de fournir des réponses appropriées et de limiter les messages nuisibles.

Un formateur en données d’IA qui travaille chez Invisible Technologies, une entreprise engagée pour former ChatGPT, a précédemment déclaré à Insider qu’ils étaient chargés d’identifier les inexactitudes factuelles ; fautes d’orthographe et de grammaire ; et harcèlement lors du test des réponses du chatbot.

« Vous pouvez dire : ‘C’est toxique, c’est trop politique, c’est une opinion’ et formuler cela de manière à ne pas générer ces choses », a déclaré Kristian Hammond, professeur d’informatique à l’Université Northwestern. Hammond est également directeur du Center for Advancing Safety of Machine Intelligence de l’université.

Lorsque vous demandez à un chatbot de répondre à une question factuelle simple, le processus de rappel peut être simple : il consiste à déployer un ensemble d’algorithmes pour choisir la phrase la plus susceptible de répondre. Il sélectionne les meilleures réponses possibles en quelques millisecondes et, parmi ces meilleurs choix, en présente une au hasard. C’est pourquoi poser la même question à plusieurs reprises peut générer des réponses légèrement différentes.

Les chatbots peuvent également diviser les questions en plusieurs parties et répondre à chaque partie dans l’ordre, comme s’ils réfléchissaient à la question.

Supposons que vous ayez demandé au robot de nommer un président américain qui partage le prénom de l’acteur principal masculin du film « Camelot ». Le robot pourrait d’abord répondre que l’acteur en question est Richard Harris. Il utilisera ensuite cette réponse pour vous donner Richard Nixon comme réponse à votre question initiale, a déclaré Hammond.

Les chatbots ne sont pas parfaits – et ils peuvent se tromper

Les chatbots IA rencontrent le plus de problèmes lorsqu’on leur pose des questions auxquelles ils n’ont pas de réponse. Ils ne savent tout simplement pas ce qu’ils ne savent pas, alors au lieu de refuser de répondre, ils extrapolent, sur la base de ce qu’ils savent, et font une supposition.

Le problème est qu’ils ne vous disent pas qu’ils sont en train de deviner : ils peuvent simplement présenter l’information comme un fait. Lorsqu’un chatbot invente des informations qu’il présente à un utilisateur comme étant factuelles, cela s’appelle une « hallucination ».

La possibilité que ChatGPT crache une hallucination est, en partie, la raison pour laquelle certains experts en technologie avertissent les utilisateurs de chatbot d’être prudents. Dans une étude récente du Boston Consulting Group, des chercheurs ont découvert que les personnes utilisant ChatGPT au travail peuvent en fait avoir de moins bons résultats sur certaines tâches si elles prennent les résultats du chatbot au pied de la lettre et ne les vérifient pas pour détecter les erreurs.

« C’est ce que nous appelons la connaissance de la connaissance ou métacognition », a déclaré William Wang, professeur agrégé enseignant l’informatique à l’Université de Californie à Santa Barbara. Il est également codirecteur du groupe de traitement du langage naturel de l’université.

« Le modèle ne comprend pas vraiment très bien les inconnues connues », a-t-il déclaré.

Source link -57