[ad_1]
Le langage est communément compris comme la « substance » de la pensée. Les gens « en parlent » et « disent ce qu’ils pensent », suivent des « trains de pensée » ou des « flux de conscience ». Certains des sommets de la création humaine – la musique, la géométrie, la programmation informatique – sont présentés comme des langages métaphoriques. L’hypothèse sous-jacente est que le cerveau traite le monde et notre expérience de celui-ci à travers une progression de mots. Et ce lien supposé entre le langage et la pensée est une grande partie de ce qui rend ChatGPT et des programmes similaires si étranges : la capacité de l’IA à répondre à n’importe quelle invite avec un langage à consonance humaine peut suggérer que la machine a une sorte d’intention, voire de sensibilité.
Mais alors le programme dit quelque chose de complètement absurde – qu’il y a 12 lettres dans dix-neuf ou que les voiliers sont des mammifères – et le voile tombe. Bien que ChatGPT puisse générer une prose fluide et parfois élégante, passant facilement le test de référence de Turing qui hante le domaine de l’IA depuis plus de 70 ans, il peut aussi sembler incroyablement stupide, voire dangereux. Il se trompe de maths, ne donne pas les instructions de cuisson les plus élémentaires et affiche des biais choquants. Dans un nouvel article, les scientifiques cognitifs et les linguistes abordent cette dissonance en séparant la communication via le langage de l’acte de penser : La capacité pour l’un n’implique pas l’autre. À un moment où les experts sont obsédés par le potentiel de l’IA générative de perturber tous les aspects de notre façon de vivre et de travailler, leur argument devrait forcer une réévaluation des limites et des complexités de l’intelligence artificielle et humaine.
Les chercheurs expliquent que mots peut ne pas fonctionner très bien comme synecdoque pour pensait. Les gens, après tout, s’identifient sur un continuum de pensée visuelle à verbale ; l’expérience de ne pas pouvoir mettre une idée en mots est peut-être aussi humaine que le langage lui-même. La recherche contemporaine sur le cerveau humain suggère également qu’« il existe une séparation entre le langage et la pensée », déclare Anna Ivanova, neuroscientifique cognitive au MIT et l’un des deux auteurs principaux de l’étude. Les scanners cérébraux de personnes utilisant des dizaines de langues ont révélé un réseau particulier de neurones qui se déclenche indépendamment de la langue utilisée (y compris des langues inventées telles que Na’vi et Dothraki).
Ce réseau de neurones n’est généralement pas impliqué dans des activités de réflexion telles que les mathématiques, la musique et le codage. De plus, de nombreux patients atteints d’aphasie – une perte de la capacité de comprendre ou de produire le langage, à la suite de lésions cérébrales – restent habiles dans l’arithmétique et d’autres tâches mentales non linguistiques. Combinés, ces deux corps de preuves suggèrent que le langage seul n’est pas le médium de la pensée ; c’est plus comme un messager. L’utilisation de la grammaire et d’un lexique pour communiquer des fonctions qui impliquent d’autres parties du cerveau, telles que la socialisation et la logique, est ce qui rend le langage humain spécial.
ChatGPT et des logiciels comme celui-ci démontrent une incroyable capacité à lier des mots ensemble, mais ils ont du mal avec d’autres tâches. Demandez une lettre expliquant à un enfant que le Père Noël est faux, et cela produit un message émouvant signé par Saint Nick lui-même. Ces grands modèles de langage, également appelés LLM, fonctionnent en prédisant le mot suivant dans une phrase en fonction de tout ce qui le précède (croyance populaire suit contrairement à, par exemple). Mais demandez à ChatGPT de faire de l’arithmétique et de l’orthographe de base ou de donner des conseils pour faire frire un œuf, et vous pourriez recevoir des absurdités grammaticales superbes : « Si vous utilisez trop de force pour retourner l’œuf, la coquille peut se fissurer et se casser. »
Ces défauts indiquent une distinction, qui n’est pas différente de celle qui existe dans le cerveau humain, entre l’assemblage de mots et l’assemblage d’idées – ce que les auteurs appellent officiel et fonctionnel compétence linguistique, respectivement. « Les modèles de langage sont vraiment bons pour produire un langage grammatical fluide », déclare Kyle Mahowald, linguiste de l’Université du Texas à Austin, l’autre auteur principal de l’article. « Mais cela ne signifie pas nécessairement que quelque chose qui peut produire un langage grammatical est capable de faire des mathématiques ou un raisonnement logique, ou de penser ou de naviguer dans des contextes sociaux. »
Si le réseau langagier du cerveau humain n’est pas responsable des mathématiques, de la musique ou de la programmation, c’est-à-dire en pensant– alors il n’y a aucune raison pour qu’un « réseau de neurones » artificiel formé sur des téraoctets de texte soit bon pour ces choses non plus. « Conformément aux preuves des neurosciences cognitives », écrivent les auteurs, « le comportement des LLM met en évidence la différence entre être bon en langage et être bon en pensée. » La capacité de ChatGPT à obtenir des scores médiocres à certains examens de commerce et de droit est donc plus un mirage qu’un signe de compréhension.
Pourtant, le battage médiatique tourne autour de la prochaine itération des modèles de langage, qui s’entraînera sur beaucoup plus de mots et avec beaucoup plus de puissance de calcul. OpenAI, le créateur de ChatGPT, affirme que ses programmes se rapprochent d’une soi-disant intelligence générale qui mettrait les machines à égalité avec l’humanité. Mais si la comparaison avec le cerveau humain tient, alors le simple fait de rendre les modèles meilleurs pour la prédiction de mots ne les rapprochera pas beaucoup de cet objectif. En d’autres termes, vous pouvez rejeter l’idée que les programmes d’IA tels que ChatGPT ont une âme ou ressemblent à une invasion extraterrestre.
Ivanova et Mahowald pensent que différentes méthodes de formation sont nécessaires pour stimuler les progrès de l’IA, par exemple, des approches spécifiques au raisonnement logique ou social plutôt qu’à la prédiction de mots. ChatGPT a peut-être déjà fait un pas dans cette direction, non seulement en lisant d’énormes quantités de texte, mais en incorporant également des commentaires humains : les superviseurs ont pu commenter ce qui constituait de bonnes ou de mauvaises réponses. Mais avec peu de détails sur la formation de ChatGPT disponibles, on ne sait pas exactement ce que cette contribution humaine a ciblé ; le programme pense apparemment 1 000 est à la fois supérieur et inférieur à 1 062. (OpenAI a publié hier une mise à jour de ChatGPT qui améliore soi-disant ses « capacités mathématiques », mais c’est toujours aurait aux prises avec des problèmes de mots de base.)
Il y a, il convient de le noter, des gens qui croient que les grands modèles de langage ne sont pas aussi bons en langage qu’Ivanova et Mahowald l’écrivent – qu’ils sont essentiellement des auto-complétions glorifiées dont les défauts évoluent avec leur puissance. « Le langage est plus qu’une simple syntaxe », déclare Gary Marcus, scientifique cognitif et éminent chercheur en intelligence artificielle. « En particulier, il s’agit aussi de sémantique.” Ce n’est pas seulement que les chatbots IA ne comprennent pas les mathématiques ou comment faire frire des œufs – ils ont aussi, dit-il, du mal à comprendre comment une phrase tire son sens de la structure de ses parties.
Par exemple, imaginez trois balles en plastique à la suite : verte, bleue, bleue. Quelqu’un vous demande de saisir « la deuxième balle bleue » : vous comprenez qu’il fait référence à la dernière balle de la séquence, mais un chatbot peut comprendre l’instruction comme faisant référence à la deuxième balle, qui se trouve également être bleue. « Qu’un grand modèle de langage est bon le langage est exagéré », dit Marcus. Mais pour Ivanova, quelque chose comme l’exemple de la balle bleue nécessite non seulement de compiler des mots, mais aussi de conjurer une scène, et en tant que tel « n’est pas vraiment une question de langage proprement dit ; il s’agit de la langue utiliser.”
Et peu importe à quel point leur utilisation de la langue est convaincante, il y a toujours un débat sain sur la mesure dans laquelle des programmes tels que ChatGPT « comprennent » réellement le monde en étant simplement alimentés en données provenant de livres et d’entrées de Wikipédia. « Le sens n’est pas donné », déclare Roxana Girju, linguiste informatique à l’Université de l’Illinois à Urbana-Champaign. « Le sens se négocie dans nos interactions, nos discussions, non seulement avec les autres mais aussi avec le monde. C’est quelque chose que nous atteignons dans le processus d’engagement à travers le langage. Si tel est le cas, la construction d’une machine vraiment intelligente nécessiterait une manière différente de combiner le langage et la pensée – pas seulement en superposant différents algorithmes, mais en concevant un programme qui pourrait, par exemple, apprendre le langage et comment naviguer dans les relations sociales en même temps.
Ivanova et Mahowald ne rejettent pas catégoriquement l’idée que le langage incarne l’intelligence humaine ; ils le compliquent. Les humains sont « bons » en langage précisément parce que nous combinons la pensée avec son expression. Un ordinateur qui maîtrise à la fois les règles du langage et peut les mettre en pratique sera nécessairement intelligent – le revers de la médaille étant que l’imitation étroite des énoncés humains est précisément ce qui retient les machines. Mais avant de pouvoir utiliser nos cerveaux organiques pour mieux comprendre ceux en silicium, nous aurons besoin à la fois de nouvelles idées et de nouveaux mots pour comprendre la signification du langage lui-même.
[ad_2]
Source link -30