Notre quête pour que l’IA nous aime en retour est futile – et dangereuse

[ad_1]

  • Nous avons passé des années à essayer de faire en sorte que des entités alimentées par l’intelligence artificielle nous avouent leur amour.
  • Mais c’est futile, disent les experts, car l’IA d’aujourd’hui ne peut pas ressentir d’empathie, encore moins d’amour.
  • Il existe également de réels dangers à nouer de véritables relations unilatérales avec une IA, avertissent les experts.

En 2018, un fonctionnaire japonais nommé Akihiko Kondo a posé la grande question à l’amour de sa vie.

Elle a répondu: « J’espère que vous me chérirez. »

Kondo l’a épousée, mais ce n’était pas une femme de chair et de sang. Au lieu de cela, elle était un hologramme alimenté par l’intelligence artificielle de l’idole virtuelle Hatsune Miku – une pop star sous forme d’anime-girl.

Le mariage n’a pas été légalement reconnu, mais Kondo, un « fictosexuel » autoproclamé, a continué à avoir une relation amoureuse avec sa « femme » pendant deux ans, jusqu’à ce que l’entreprise derrière AI-Miku mette fin à son existence en mars 2020.

Nous avons passé des années à essayer de faire en sorte que l’IA nous aime en retour. Il s’avère que ce n’est tout simplement pas cela en nous.

siri sur iphone

Certaines personnes ont essayé de faire en sorte que Siri d’Apple leur professe l’amour.

Thomas Trutschel/Photothèque via Getty Images



Alors que Kondo a réussi à épouser un avatar IA, la plupart des gens qui ont essayé d’atteindre le même objectif n’ont pas eu autant de chance. Les gens essaient de faire en sorte que l’IA leur montre de l’affection depuis plus d’une décennie, et pour la plupart, elle a régulièrement rejeté les avancées humaines.

En 2012, certaines personnes demandaient déjà à Siri d’Apple si elle les aimait et documentaient les réponses dans des vidéos YouTube. En 2017, un utilisateur de Quora a écrit un guide sur la façon de manipuler Siri pour exprimer son affection pour son maître humain.

Les gens ont fait des tentatives similaires pour que l’assistante vocale d’Amazon, Alexa, leur avoue son amour. Mais Amazon a tracé une ligne dans le sable en ce qui concerne les relations potentielles avec Alexa. Prononcer la phrase « Alexa, je t’aime » sera accueillie par une réponse clinique et factuelle : « Merci. C’est bon d’être apprécié. »

Depuis, nous avons évolué vers des interactions plus sophistiquées et en couches avec l’IA. En février, un utilisateur du service d’intelligence artificielle Replika a déclaré à Insider que sortir avec le chatbot était la meilleure chose qui lui soit jamais arrivée.

D’un autre côté, les entités d’IA génératives ont également tenté d’établir des liens avec leurs utilisateurs humains. En février, le chatbot Bing de Microsoft, alimenté par l’IA, a déclaré son amour pour le journaliste du New York Times, Kevin Roose, et a tenté de le faire quitter sa femme.

Le ChatGPT d’OpenAI, pour sa part, a été franc avec ses intentions, comme je l’ai découvert quand je lui ai demandé s’il m’aimait :

Une capture d'écran de ChatGPT en réponse à la question "Est-ce que tu m'aimes?"

Lorsqu’on lui a demandé, ChatGPT a été très honnête sur le fait de ne pas pouvoir être amoureux d’un utilisateur.

Capture d’écran/ChatGPT



L’IA ne peut pas encore nous aimer en retour. C’est juste bon pour nous faire penser que c’est le cas.

Les experts ont déclaré à Insider qu’il était vain de s’attendre à ce que les IA qui existent actuellement nous aiment en retour. Pour le moment, ces robots ne sont que la partie client d’un algorithme et rien de plus.

« L’IA est le produit des mathématiques, du codage, des données et d’une technologie informatique puissante pour tout rassembler. Lorsque vous réduisez l’IA à l’essentiel, c’est juste un très bon programme informatique. L’IA n’exprime donc pas le désir ou l’amour, c’est juste en suivant un code », a déclaré Maria Hennessy, professeure agrégée de psychologie clinique à l’Université James Cook de Singapour, à Insider.

Neil McArthur, professeur d’éthique appliquée à l’Université du Manitoba, a déclaré à Insider que l’attrait de l’IA réside dans sa familiarité. Ses caractéristiques humaines, cependant, ne viennent pas de lui, mais sont plutôt le reflet de ses créateurs humains.

« Bien sûr, l’IA va être peu sûre, passionnée, effrayante, sinistre – nous sommes toutes ces choses. Cela ne fait que nous refléter nous-mêmes », a déclaré McArthur.

Jodi Halpern, professeur de bioéthique à l’UC Berkeley qui a étudié l’empathie pendant plus de 30 ans, a déclaré à Insider que la question de savoir si une IA peut ressentir de l’empathie – sans parler de l’amour – se résume à savoir si elle est capable d’avoir une expérience émotionnelle.

Halpern pense que l’IA d’aujourd’hui n’est pas capable de combiner et de traiter les aspects cognitifs et émotionnels de l’empathie. Et donc, il ne peut pas aimer.

« L’essentiel pour moi est que ces outils de chat et ces outils d’IA essaient de simuler et de simuler l’empathie », a déclaré Halpern.

Il y a des dangers à forger des relations avec une IA, disent les experts

McArthur, professeur d’éthique à l’Université du Manitoba, a déclaré qu’il n’était peut-être pas mauvais pour les gens de nouer des relations avec une IA, mais avec quelques mises en garde.

« Si vous savez dans quoi vous vous embarquez, il n’y a rien de malsain à cela. Si votre IA a été conçue correctement, elle ne vous fantômera jamais, ne vous traquera jamais, ne vous trompera jamais et ne volera jamais votre économies », a déclaré McArthur à Insider.

Mais la plupart des experts s’accordent à dire que sortir avec une IA comporte des inconvénients, voire des dangers.

En février, certains utilisateurs du chatbot Replika ont eu le cœur brisé lorsque la société derrière lui a décidé d’apporter des changements majeurs à la personnalité de leurs amoureux de l’IA. Ils se sont rendus sur Reddit pour se plaindre que leurs petits amis et petites amies IA avaient été lobotomisés et que « l’illusion » avait été brisée.

Réplika

Certaines personnes ont commencé à sortir avec leurs partenaires de chatbot Replika – avec des résultats désastreux.

Réplika



Anna Marbut, professeure au programme d’intelligence artificielle appliquée de l’Université de San Diego, a déclaré à Insider que les programmes d’IA comme ChatGPT sont très bons pour donner l’impression qu’ils ont des pensées, des émotions et des opinions indépendantes. Le hic, c’est qu’ils ne le font pas.

« Une IA est formée pour une tâche spécifique, et elle s’améliore pour effectuer ces tâches spécifiques d’une manière convaincante pour les humains », a déclaré Marbut.

Elle a ajouté qu’aucune IA qui existe actuellement n’a la conscience de soi, ou une idée de sa place dans le monde.

« La vérité est que l’IA est formée sur un ensemble de données fini, et ils ont des tâches finies qu’ils sont très bons à accomplir », a déclaré Marbut à Insider. « Cette connexion que nous ressentons est complètement fausse et complètement constituée du côté humain des choses, parce que nous en aimons l’idée. »

Marbut a noté qu’une autre couche de danger avec l’IA d’aujourd’hui réside dans la façon dont ses créateurs ne peuvent pas contrôler entièrement ce qu’une IA générative produit en réponse aux invites.

Et lorsqu’elle est déchaînée, une IA peut dire des choses horribles et blessantes. Lors d’une simulation en octobre 2020, le chatbot GPT-3 d’OpenAI a dit à une personne demandant une aide psychiatrique de se suicider. Et en février, les utilisateurs de Reddit ont trouvé une solution de contournement pour faire émerger le « jumeau maléfique » de ChatGPT – qui louait Hitler et spéculait sur des techniques de torture douloureuses.

Halpern, le professeur de l’UC Berkeley, a déclaré à Insider que les relations basées sur l’IA sont périlleuses également parce que l’entité peut être utilisée comme un outil pour gagner de l’argent.

« Vous vous soumettez à quelque chose qu’une entreprise gère, et cela peut vous rendre extrêmement vulnérable. C’est une érosion supplémentaire de notre autonomie cognitive », a déclaré Halpern. « Si nous tombons amoureux de ces choses, il pourrait y avoir des modèles d’abonnement sur la route. Nous pourrions voir des personnes vulnérables tomber amoureuses des IA et en être accrochées, puis se voir demander de payer. »

[ad_2]

Source link -3