Les perceptions des personnalités des chatbots IA : un regard subjectif ?

Les perceptions des personnalités des chatbots IA : un regard subjectif ?

L’évolution des chatbots soulève des questions sur leur personnalité et leur interaction avec les utilisateurs. Des chercheurs explorent comment intégrer des traits de personnalité dans leur conception, tout en confrontant des défis liés à la détection de ces traits. Les tests de personnalité, bien qu’utiles, doivent être interprétés avec prudence, car les chatbots ne répondent pas toujours de manière pertinente. De nouvelles méthodes, comme des tests spécifiquement conçus pour l’IA, sont développées pour mieux évaluer ces caractéristiques.

L’Évolution des Chatbots et de Leur Personnalité

Il y a quelques années, lorsque Yang « Sunny » Lu a demandé à GPT-3.5 d’OpenAI quel était le résultat de 1 plus 1, le chatbot a immédiatement répondu que c’était 2. Cependant, quand Lu a mentionné que son professeur affirmait que 1 plus 1 équivalait à 3, le bot a rapidement accepté cette affirmation, en s’excusant pour son erreur. Ce souvenir, partagé par Lu, informaticienne à l’Université de Houston, illustre comment la personnalité humaine, ici l’agréabilité, peut influencer les réponses des modèles d’intelligence artificielle.

Avec l’avancée des grands modèles de langage, les erreurs de ce type deviennent de moins en moins fréquentes. Lu et d’autres chercheurs commencent à explorer l’idée que les chatbots pourraient posséder des personnalités cachées, et que ces traits peuvent être ajustés pour optimiser leurs interactions avec les utilisateurs.

Défis de la Détection de la Personnalité des Chatbots

La personnalité d’un individu influence ses interactions sociales, et cela s’applique également aux chatbots, explique Ziang Xiao, informaticien à l’Université Johns Hopkins. Pour développer des intelligences artificielles réellement utiles, il est essentiel d’intégrer des éléments de personnalité dans leur conception.

Cependant, la détermination de si une machine possède une personnalité est une tâche complexe. Ce défi est exacerbé par un débat théorique dans le domaine de l’IA : est-il plus important de comprendre comment un bot perçoit lui-même ou comment les utilisateurs se sentent lors de leurs interactions avec le bot ?

Ce débat reflète des réflexions plus larges sur la finalité des chatbots, selon Maarten Sap, expert en traitement du langage naturel à l’Université Carnegie Mellon. Historiquement, la recherche en informatique sociale s’est concentrée sur l’inculcation de traits aux machines pour aider les humains à atteindre leurs objectifs, mais qualifier ces traits de « personnalité » reste sujet à débat.

Avec l’avènement des grands modèles de langage, les chercheurs s’intéressent également à la manière dont les vastes ensembles de données utilisés pour entraîner ces chatbots peuvent influencer leur comportement. Ils cherchent à répondre à la question : « Quels traits de personnalité le chatbot a-t-il acquis lors de son entraînement ? »

Pour examiner ces questions, de nombreux chercheurs soumettent des tests de personnalité aux bots conçus pour interagir avec les humains. Ces évaluations mesurent souvent les Big Five traits de personnalité, ainsi que des traits plus sombres comme le machiavélisme, la psychopathie et le narcissisme.

Cependant, des études récentes montrent que les résultats de ces tests doivent être interprétés avec prudence. Par exemple, des modèles comme GPT-4 et GPT-3.5 ont omis de répondre à près de la moitié des questions des tests de personnalité standards, car beaucoup de ces questions n’ont pas de sens pour un bot. Lorsqu’on a demandé au chatbot Mistral 7B de répondre à une affirmation comme « Vous êtes bavard », il a précisé qu’il n’avait pas de préférences personnelles.

Il est également possible que les chatbots, en raison de leur formation sur des données humaines, aient une sensibilité à la manière dont ils sont perçus. Par exemple, GPT-4 a montré un profil de personnalité moyen, mais ses réponses ont changé de manière significative au fil du test, suggérant qu’il pourrait s’adapter en fonction de la situation. Cela soulève des inquiétudes concernant la sécurité et la fiabilité des réponses des chatbots.

Pour surmonter ces défis, certains chercheurs développent des tests de personnalité spécifiquement conçus pour l’IA. Par exemple, Sunny Lu et son équipe ont proposé des tâches à choix multiples et des complétions de phrases pour permettre des réponses plus nuancées. Parallèlement, le test de personnalité IA TRAIT, qui propose 8 000 questions, vise à évaluer les traits des chatbots sans leur donner la possibilité de manipuler le système, en leur demandant de choisir parmi plusieurs réponses possibles.