ChatGPT peut raconter des blagues, même écrire des articles. Mais seuls les humains peuvent détecter ses conneries fluides


UNAlors que les capacités de la technologie de traitement du langage naturel continuent de progresser, le potentiel des chatbots et des systèmes d’IA conversationnelle fait l’objet d’un battage médiatique croissant. L’un de ces systèmes, ChatGPT, prétend pouvoir s’engager dans une conversation naturelle et humaine et même fournir des informations et des conseils utiles. Cependant, il existe des inquiétudes valables concernant les limites de ChatGPT et d’autres systèmes d’IA conversationnelle, et leur capacité à reproduire véritablement l’intelligence et l’interaction humaines.

Non, je n’ai pas écrit ça. Il a en fait été écrit par ChatGPT lui-même, un logiciel d’IA conversationnel, après que je lui ai demandé de créer « un paragraphe d’ouverture pour un article sceptique quant aux capacités de ChatGPT dans le style de Kenan Malik ». Je pourrais ergoter sur la prose solide, mais c’est une tentative impressionnante. Et il n’est pas difficile de comprendre pourquoi il y a eu une telle effervescence, en effet engouementà propos de la dernière version du chatbot depuis sa sortie il y a une semaine.

Alimenté par d’énormes quantités de texte créé par l’homme, ChatGPT recherche des régularités statistiques dans ces données, apprend quels mots et expressions sont associés à d’autres, et est ainsi capable de prédire quels mots devraient suivre dans une phrase donnée, et comment les phrases s’emboîtent. Le résultat est une machine qui peut imiter de manière convaincante le langage humain.

Cette capacité de mimétisme permet à ChatGPT d’écrire essais et la poésie, imaginez blaguesformuler codeet répondez aux questions que ce soit à un enfant ou à un expert. Et pour le faire si bien que beaucoup au cours de la semaine dernière ont à la fois célébré et paniqué. « Les essais sont morts » a écrit le scientifique cognitif Tim Kietzmann, un point de vue amplifié par de nombreux universitaires. D’autres prétendent que cela va terminer Google comme moteur de recherche. Et le programme lui-même pense qu’il pourrait être en mesure de remplacer les humains dans les emplois d’agent d’assurance à sténographe judiciaire.

Et pourtant, le chatbot qui peut écrire des essais de grade A vous dira aussi que si une femme peut avoir un bébé en neuf mois, neuf femmes peuvent avoir un bébé en un mois ; ce kilo de boeuf pèse plus qu’un kilo d’air comprimé ; et que le verre pilé est utile supplément de santé. Ça peut inventer des faits et reproduire bon nombre des préjugés du monde humain sur lequel il est formé.

ChatGPT peut être si convaincant que Stack Overflow, une plate-forme permettant aux développeurs d’obtenir de l’aide pour écrire du code, a interdit aux utilisateurs de publier des réponses générées par le chatbot. « Le principal problème », ont écrit les mods, « est que même si les réponses produites par ChatGPT ont un taux élevé d’erreurs, elles semblent généralement bonnes. » Ou, comme l’a dit un autre critique, c’est une connerie fluide.

Certains de ces problèmes seront résolus avec le temps. Chaque conversation impliquant ChatGPT fait partie de la banque de données utilisée pour améliorer le programme. La prochaine itération, GPT-4, est prévue pour l’année prochaine, et sera plus convaincante et fera moins d’erreurs.

Néanmoins, au-delà de cette amélioration progressive se pose également un problème fondamental auquel est confrontée toute forme d’intelligence artificielle. Un ordinateur manipule des symboles. Son programme spécifie un ensemble de règles permettant de transformer une chaîne de symboles en une autre ou de reconnaître des modèles statistiques. Mais il ne précise pas ce que signifient ces symboles ou motifs. Pour un ordinateur, le sens n’a pas d’importance. ChatGPT « sait » (la plupart du temps au moins) ce qui semble significatif pour les humains, mais pas ce qui est significatif pour lui-même. C’est, selon les mots du scientifique cognitif Gary Marcus, un « imitateur qui ne sait pas de quoi il parle ».

Les humains, en pensant, en parlant, en lisant et en écrivant, manipulent également des symboles. Pour les humains, cependant, contrairement aux ordinateurs, le sens est tout.

Lorsque nous communiquons, nous communiquons du sens. Ce qui importe n’est pas seulement l’extérieur d’une chaîne de symboles mais aussi son intérieur, pas seulement la syntaxe mais la sémantique. Le sens pour les humains vient de notre existence en tant qu’êtres sociaux, incarnés et ancrés dans le monde. Je ne donne un sens à moi-même que dans la mesure où je vis dans une communauté d’autres êtres qui pensent, ressentent et parlent, et me rapporte à celle-ci.

Bien sûr, les humains mentent, manipulent, sont attirés et promeuvent des théories du complot qui peuvent avoir des conséquences dévastatrices. Tout cela fait aussi partie du fait d’être des êtres sociaux. Mais nous reconnaissons les humains comme étant imparfaits, comme potentiellement sournois, ou des conneries, ou des manipulateurs.

Cependant, nous avons tendance à considérer les machines comme objectives et impartiales, ou potentiellement mauvaises si elles sont sensibles. Nous oublions souvent que les machines peuvent être biaisées ou tout simplement fausses, parce qu’elles ne sont pas ancrées dans le monde comme le sont les humains, et parce qu’elles doivent être programmées par des humains et formées sur des données recueillies par des humains.

Nous vivons également à une époque où la surface importe souvent plus que la profondeur du sens. Une époque où les politiciens poursuivent trop souvent une politique non pas parce qu’elle est nécessaire ou juste en principe, mais parce qu’elle réussit bien dans les groupes de discussion. Une époque où nous ignorons souvent le contexte social des actions ou des discours des gens et sommes éblouis par la littéralité. Une époque où les étudiants sont, selon les mots de l’écrivain et éducateur John Warner, « récompensés pour… régurgiter des informations existantes » dans un système qui « privilégie[s] exactitude au niveau de la surface » plutôt que « développer[ing] leurs qualités rédactionnelles et leur esprit critique ». Que ChatGPT semble si facilement écrire des essais de grade A, suggère-t-il, « est principalement un commentaire sur ce que nous apprécions ».

Rien de tout cela ne veut nier la remarquable réalisation technique qu’est ChatGPT, ou à quel point il est étonnant d’interagir avec lui. Il deviendra sans aucun doute un outil utile, contribuant à améliorer à la fois les connaissances humaines et la créativité. Mais nous devons garder la perspective. ChatGPT révèle non seulement les progrès réalisés dans l’IA, mais aussi ses limites. Cela aide également à éclairer à la fois la nature de la cognition humaine et le caractère du monde contemporain.

Plus immédiatement, ChatGPT soulève également des questions sur la façon de se rapporter à des machines qui sont bien meilleures pour faire des conneries et diffuser de la désinformation que les humains eux-mêmes. Compte tenu des difficultés à lutter contre la désinformation humaine, ce ne sont pas des questions qui devraient être retardées. Nous ne devrions pas devenir si hypnotisés par la force de persuasion de ChatGPT que nous oublions les vrais problèmes que ces programmes peuvent poser.

Kenan Malik est un chroniqueur d’Observer

  • Avez-vous une opinion sur les questions soulevées dans cet article? Si vous souhaitez soumettre une lettre de 250 mots maximum pour être considérée pour publication, envoyez-la nous par e-mail à [email protected]





Source link -8