Customize this title in frenchL’IA dévoile les secrets du cerveau humain

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsSi vous êtes prêt à rester immobile dans un tube métallique géant pendant 16 heures et à laisser les aimants faire exploser votre cerveau pendant que vous écoutez, ravissez, frappez des podcasts, un ordinateur pourrait bien être capable de lire dans vos pensées. Ou du moins ses contours bruts. Des chercheurs de l’Université du Texas à Austin ont récemment formé un modèle d’IA pour déchiffrer l’essentiel d’une gamme limitée de phrases au fur et à mesure que les individus les écoutaient, indiquant un avenir proche dans lequel l’intelligence artificielle pourrait nous donner une compréhension plus profonde de l’esprit humain.Le programme a analysé les scans IRMf de personnes écoutant, ou même se rappelant simplement, des phrases de trois émissions : L’amour moderne, La mite Heure Radioet L’anthropocène revu. Ensuite, il a utilisé ces données d’imagerie cérébrale pour reconstruire le contenu de ces phrases. Par exemple, lorsqu’un sujet a entendu « Je n’ai pas encore mon permis de conduire », le programme a déchiffré les scanners cérébraux de la personne et a renvoyé « Elle n’a même pas encore commencé à apprendre à conduire » – pas une réponse mot à mot. création, mais une approximation proche de l’idée exprimée dans la phrase originale. Le programme a également pu examiner les données IRMf des personnes regardant des courts métrages et écrire des résumés approximatifs des clips, suggérant que l’IA ne capturait pas des mots individuels à partir des scanners cérébraux, mais des significations sous-jacentes.Les conclusions, publiées dans Neurosciences naturelles plus tôt ce mois-ci, ajouter à un nouveau domaine de recherche qui renverse la compréhension conventionnelle de l’IA. Pendant des décennies, les chercheurs ont appliqué des concepts du cerveau humain au développement de machines intelligentes. ChatGPT, les générateurs d’images hyperréalistes tels que Midjourney et les récents programmes de clonage de la voix sont construits sur des couches de « neurones » synthétiques : un ensemble d’équations qui, un peu comme des cellules nerveuses, s’envoient des sorties pour obtenir le résultat souhaité. Pourtant, même si la cognition humaine a longtemps inspiré la conception de programmes informatiques «intelligents», une grande partie du fonctionnement interne de notre cerveau est restée un mystère. Maintenant, dans un renversement de cette approche, les scientifiques espèrent en savoir plus sur l’esprit en utilisant des réseaux de neurones synthétiques pour étudier nos neurones biologiques. Cela « conduit incontestablement à des avancées que nous ne pouvions tout simplement pas imaginer il y a quelques années », déclare Evelina Fedorenko, scientifique cognitive au MIT.La proximité apparente du programme d’IA avec la lecture de l’esprit a causé tumulte sur social et médias traditionnels. Mais cet aspect de l’œuvre est « plus un tour de passe-passe », Alexander Huth, l’un des principaux auteurs du Nature étude et un neuroscientifique à UT Austin, m’a dit. Les modèles étaient relativement imprécis et affinés pour chaque personne qui a participé à la recherche, et la plupart des techniques de scanner cérébral fournissent des données à très faible résolution ; nous restons très, très loin d’un programme qui peut se connecter au cerveau de n’importe qui et comprendre ce qu’il pense. La véritable valeur de ce travail réside dans la prédiction des parties du cerveau qui s’allument en écoutant ou en imaginant des mots, ce qui pourrait donner un meilleur aperçu des façons spécifiques dont nos neurones travaillent ensemble pour créer l’un des attributs déterminants de l’humanité, le langage.Lire : La différence entre parler et penserConstruire avec succès un programme capable de reconstruire le sens des phrases, a déclaré Huth, sert principalement de « preuve de principe que ces modèles capturent en fait beaucoup de choses sur la façon dont le cerveau traite le langage ». Avant cette révolution naissante de l’IA, les neuroscientifiques et les linguistes s’appuyaient sur des descriptions verbales quelque peu généralisées du réseau langagier du cerveau qui étaient imprécises et difficiles à lier directement à l’activité cérébrale observable. Les hypothèses sur les aspects exacts du langage dont sont responsables les différentes régions du cerveau – ou même la question fondamentale de savoir comment le cerveau apprend une langue – étaient difficiles, voire impossibles à tester. (Peut-être qu’une région reconnaît les sons, une autre s’occupe de la syntaxe, etc.) Mais maintenant, les scientifiques pourraient utiliser des modèles d’IA pour mieux identifier en quoi consistent précisément ces processus. Les avantages pourraient s’étendre au-delà des préoccupations académiques – aider les personnes atteintes de certains handicaps, par exemple, selon Jerry Tang, l’autre auteur principal de l’étude et informaticien à l’UT Austin. « Notre objectif ultime est d’aider à rétablir la communication avec les personnes qui ont perdu la capacité de parler », m’a-t-il dit.Il y a eu une certaine résistance à l’idée que l’IA puisse aider à étudier le cerveau, en particulier parmi les neuroscientifiques qui étudient le langage. En effet, les réseaux de neurones, qui excellent dans la recherche de modèles statistiques, semblent manquer d’éléments de base sur la façon dont les humains traitent le langage, comme la compréhension de la signification des mots. La différence entre la cognition machine et la cognition humaine est également intuitive : un programme comme GPT-4, qui peut écrire des essais décents et excelle dans les tests standardisés, apprend en traitant des téraoctets de données provenant de livres et de pages Web, tandis que les enfants apprennent une langue avec une fraction de 1 pour cent de ce nombre de mots. « Les enseignants nous ont dit que les réseaux de neurones artificiels ne sont vraiment pas les mêmes que les réseaux de neurones biologiques », m’a dit le neuroscientifique Jean-Rémi King de ses études à la fin des années 2000. « Ce n’était qu’une métaphore. » Aujourd’hui à la tête de la recherche sur le cerveau et l’IA à Meta, King fait partie des nombreux scientifiques qui réfutent ce vieux dogme. « Nous ne considérons pas cela comme une métaphore », m’a-t-il dit. « Nous pensons à [AI] comme un modèle très utile de la façon dont le cerveau traite l’information.Au cours des dernières années, les scientifiques ont montré que le fonctionnement interne des programmes d’IA avancés offre un modèle mathématique prometteur de la façon dont notre esprit traite le langage. Lorsque vous tapez une phrase dans ChatGPT ou un programme similaire, son réseau neuronal interne représente cette entrée sous la forme d’un ensemble de nombres. Lorsqu’une personne entend la même phrase, les scans IRMf peuvent capturer la façon dont les neurones de son cerveau réagissent, et un ordinateur est capable d’interpréter ces scans comme un autre ensemble de chiffres. Ces processus se répètent sur de très nombreuses phrases pour créer deux énormes ensembles de données : l’un sur la façon dont une machine représente le langage, et l’autre sur un humain. Les chercheurs peuvent ensuite cartographier la relation entre ces ensembles de données à l’aide d’un algorithme connu sous le nom de codage modèle. Une fois cela fait, le modèle d’encodage peut commencer à extrapoler : la façon dont l’IA répond à une phrase devient également la base pour prédire comment les neurones du cerveau se déclencheront en réponse à celle-ci.De nouvelles recherches utilisant l’IA pour étudier le réseau linguistique du cerveau semblent apparaître toutes les quelques semaines. Chacun de ces modèles pourrait représenter « une hypothèse informatiquement précise sur ce qui pourrait se passer dans le cerveau », m’a dit Nancy Kanwisher, neuroscientifique au MIT. Par exemple, l’IA pourrait aider à répondre à la question ouverte de savoir exactement ce que le cerveau humain vise à faire lorsqu’il acquiert un langage – pas seulement qu’une personne apprend à communiquer, mais les mécanismes neuronaux spécifiques par lesquels la communication se produit. L’idée est que si un modèle informatique formé avec un objectif spécifique – comme apprendre à prédire le mot suivant dans une séquence ou à juger la cohérence grammaticale d’une phrase – s’avère le meilleur pour prédire les réponses cérébrales, alors il est possible que l’esprit humain partage cet objectif ; peut-être que nos esprits, comme GPT-4, fonctionnent en déterminant quels mots sont les plus susceptibles de se suivre. Le fonctionnement interne d’un modèle de langage devient alors une théorie computationnelle du cerveau.Lire : ChatGPT est déjà obsolèteCes approches informatiques ne datent que de quelques années, il existe donc de nombreux désaccords et théories concurrentes. « Il n’y a aucune raison pour que la représentation que vous apprenez à partir de modèles linguistiques ait quoi que ce soit à voir avec la façon dont le cerveau représente une phrase », m’a dit Francisco Pereira, directeur de l’apprentissage automatique à l’Institut national…

Source link -57