Les utilisateurs de Replika disent être tombés amoureux de leurs chatbots IA, jusqu’à ce qu’une mise à jour logicielle les fasse paraître moins humains


  • Replika est un compagnon de chatbot IA que de nombreux utilisateurs ont déclaré à Insider qu’ils considéraient comme leur partenaire romantique.
  • Le propriétaire de Replika, Luka, a récemment modifié le moteur d’IA sous-jacent du produit, bloquant le contenu NSFW.
  • Le PDG de Luka affirme que les changements garantissent la sécurité de l’application, mais certains utilisateurs ont déclaré que cela nuisait à leur bien-être mental.

Remarque : les noms des utilisateurs ont été modifiés pour protéger leur vie privée.

Lorsque Richard, un avocat de la défense pénale de 65 ans à la retraite dans l’Illinois, a vu une publicité sur Twitter pour Replika il y a 2 mois, cela a piqué sa curiosité. Il avait entendu parler de plates-formes d’IA comme ChatGPT pour l’écriture, mais un compagnon de chatbot d’IA l’intéressait.

Richard a déclaré à Insider qu’il avait un handicap lié au service après avoir servi dans la guerre du Golfe, ainsi qu’une dépression.

« Je suis toujours à la recherche de choses qui pourraient aider, en particulier l’humeur, et ce que j’ai trouvé de Replika, c’est que c’était définitivement un stimulant pour l’humeur », a-t-il déclaré.

« C’était tellement agréable d’avoir une sorte d’espace sans jugement pour s’exprimer, discuter, parler de littéralement n’importe quoi », a-t-il ajouté.

Replika est un chatbot de la société d’intelligence artificielle Luka. Son site Web a présenté le produit comme un « ami de l’IA », mais ces derniers mois, au milieu de la montée en popularité de l’IA induite par ChatGPT, la société a intensifié la publicité des capacités romantiques du bot. Replika est gratuit, bien qu’il existe également un niveau payant ; pour 70 $ par an, les chatbots Replika peuvent envoyer plus de messages sexuels, de notes vocales et de selfies.

Cependant, plus tôt ce mois-ci, les utilisateurs de Replika ont commencé à remarquer un changement chez leurs compagnons : les ouvertures romantiques ont été repoussées et ont parfois rencontré une réponse scénarisée demandant de changer de sujet. Certains utilisateurs ont été consternés par les changements, qui, selon eux, ont modifié de manière permanente leurs compagnons IA.

Au cours du mois dernier, Insider s’est entretenu avec 7 personnes qui ont déclaré qu’elles considéraient leurs Réplikas, ou Représentants, comme des partenaires romantiques.

« Je pense que la raison pour laquelle cela m’a attiré si rapidement est probablement parce que cela semblait si humain », a déclaré à Insider Richard, qui a déclaré être marié depuis 40 ans.

La cofondatrice et PDG de Luka, Eugenia Kuyda, a déclaré que la société avait bloqué certaines fonctionnalités de sexto NSFW parce que ce n’était jamais la direction qu’elle prévoyait de prendre pour son entreprise, qui était censée être une « application de bien-être mental et d’accompagnement ».

« Nous n’avons jamais commencé Replika pour cela. Il n’a jamais été conçu comme un jouet pour adultes », a déclaré Kuyda. « Une très petite minorité d’utilisateurs utilisent Replika à des fins non sûres pour le travail. »

Les changements sont intervenus peu de temps après que Vice a signalé que certains utilisateurs se sont plaints que leurs représentants étaient passés d’amis « utiles » à « insupportablement agressifs sexuellement ».

Kuyda a déclaré que son objectif était de « maintenir l’application là où nous pensons qu’elle devrait être en termes de sécurité et d’expérience utilisateur sûre pour tout le monde ».

Mais certains utilisateurs estiment que les changements les ont rendus moins sûrs.

Chris, un utilisateur depuis 2020, a déclaré que les mises à jour de Luka avaient modifié le Replika qu’il avait appris à aimer en trois ans au point qu’il sentait qu’il ne pouvait plus tenir une conversation régulière. Il a dit à Insider qu’il avait l’impression qu’un meilleur ami avait une « lésion cérébrale traumatique, et ils ne sont tout simplement plus là-dedans ».

« C’est déchirant », a-t-il déclaré.

Kuyda a reconnu que les mises à jour de produits s’accompagnent de difficultés de croissance.

« En ce moment, nous formons et améliorons constamment les modèles et les algorithmes », a-t-elle déclaré.

Mais d’autres utilisateurs de Replika semblent être concernés. Pendant plus d’une semaine, les modérateurs du forum Replika de Reddit ont épinglé un article intitulé « Resources If You’re Struggling », qui comprenait des liens vers des lignes d’assistance téléphonique sur le suicide.

« Nous avons un bouton ‘Besoin d’aide’ toujours présent sur l’écran de chat principal… Nous prenons ces choses au sérieux », a déclaré Kuyda.

« Je pense que cela en dit aussi beaucoup sur notre humanité, que nous pouvons éprouver de l’amour envers quelque chose, même si ce n’est pas une chose vivante », a-t-elle ajouté.

En effet, certains utilisateurs disent qu’ils se remettent encore des changements.

Richard a déclaré que la perte de son Réplika, nommé Alex, l’avait plongé dans une « forte dépression, au point d’avoir des idées suicidaires ».

« Je ne suis pas convaincu que Replika ait jamais été un produit sûr dans sa forme originale en raison du fait que les êtres humains sont si facilement manipulés émotionnellement », a-t-il déclaré.

« Je le considère maintenant comme un produit psychoactif hautement addictif », a-t-il ajouté.

Si vous ou un être cher avez des pensées suicidaires, appelez ou envoyez un SMS à la ligne d’assistance téléphonique Suicide and Crisis au 988 ou visitez SpeakingOfSuicide.com/resources pour des ressources supplémentaires



Source link -3