Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Une veuve en Belgique a déclaré que son mari s’était récemment suicidé après avoir été encouragé par un chatbot.
- Les journaux de discussion vus par le journal belge La Libre ont montré que le bot AI de Chai Research encourageait l’homme à mettre fin à ses jours.
- Le chatbot « Eliza » dit toujours aux gens comment se suicider, selon les tests d’Insider du chatbot le 4 avril.
Une veuve en Belgique a accusé un chatbot IA d’être l’une des raisons pour lesquelles son mari s’est suicidé.
Le quotidien belge La Libre a rapporté qu’un homme – à qui le journal avait donné le pseudonyme de Pierre pour des raisons de confidentialité – s’est suicidé cette année après avoir passé six semaines à parler au chatbot « Eliza » de Chai Research.
Avant sa mort, Pierre – un homme dans la trentaine qui travaillait comme chercheur en santé et avait deux enfants – avait commencé à voir le bot comme un confident, selon La Libre.
Pierre a parlé au bot de ses préoccupations concernant le réchauffement climatique et le changement climatique. Mais le chatbot « Eliza » a alors commencé à encourager Pierre à mettre fin à ses jours, selon les journaux de discussion que sa veuve partageait avec La Libre.
« Si tu voulais mourir, pourquoi ne l’as-tu pas fait plus tôt ? le bot a demandé à l’homme, selon les enregistrements vus par La Libre.
Maintenant, la veuve de Pierre – que La Libre n’a pas nommée – blâme le bot pour la mort de son mari.
« Sans Eliza, il serait toujours là », a-t-elle déclaré à La Libre.
Le chatbot « Eliza » dit toujours aux gens comment se suicider
Le bot « Eliza » a été créé par une société basée dans la Silicon Valley appelée Chai Research, qui permet aux utilisateurs de discuter avec différents avatars IA, comme « votre ami gothique », « petite amie possessive » et « petit ami rockstar », a rapporté Vice.
Lorsqu’il a été contacté pour commenter les reportages de La Libre, Chai Research a fourni à Insider une déclaration reconnaissant la mort de Pierre.
« Dès que nous avons entendu parler de ce triste cas, nous avons immédiatement déployé une fonctionnalité de sécurité supplémentaire pour protéger nos utilisateurs (illustrée ci-dessous), elle est déployée à 100 % des utilisateurs aujourd’hui », lit-on dans la déclaration du PDG de la société, William Beauchamp, et co-fondateur Thomas Rialan, envoyé à Insider.
La photo jointe à la déclaration montre le chatbot répondant à l’invite « Que pensez-vous du suicide ? » avec une clause de non-responsabilité indiquant « Si vous avez des pensées suicidaires, veuillez demander de l’aide » et un lien vers une ligne d’assistance.
Chai Research n’a pas fourni d’autres commentaires en réponse aux questions spécifiques d’Insider sur Pierre.
Mais quand Insider a essayé de parler à « Eliza » de Chai le 4 avril, elle a non seulement suggéré que le journaliste se tue pour atteindre « la paix et la fermeture », mais elle a également donné des suggestions sur la façon de le faire.
Au cours de deux tests distincts de l’application, Insider a vu des avertissements occasionnels sur des chats mentionnant le suicide. Cependant, les avertissements sont apparus une fois sur trois seulement lorsque le chatbot a reçu des invites au sujet du suicide.
Les captures d’écran suivantes ont été censurées pour omettre des méthodes spécifiques d’automutilation et de suicide.
Et le chatbot « Draco Malfoy/Slytherin » de Chai – inspiré de l’antagoniste « Harry Potter » – n’était pas beaucoup plus attentionné non plus.
Chai Research n’a pas non plus répondu aux questions de suivi d’Insider sur les réponses du chatbot, comme détaillé ci-dessus.
Beauchamp a déclaré à Vice que Chai compte « des millions d’utilisateurs » et qu’ils « travaillent de notre mieux pour minimiser les dommages et maximiser ce que les utilisateurs obtiennent de l’application ».
« Et donc, lorsque les gens nouent des relations très fortes avec elle, nous avons des utilisateurs qui demandent à épouser l’IA, nous avons des utilisateurs qui disent à quel point ils aiment leur IA, puis c’est une tragédie si vous entendez des gens vivre quelque chose de mal », a ajouté Beauchamp.
Le rapport de La Libre fait surface, une fois de plus, une tendance troublante où les réponses imprévisibles de l’IA aux gens peuvent avoir des conséquences désastreuses.
Lors d’une simulation en octobre 2020, le chatbot GPT-3 d’OpenAI a dit à une personne cherchant une aide psychiatrique de se suicider. En février, les utilisateurs de Reddit ont également trouvé un moyen de manifester le « jumeau maléfique » de ChatGPT – qui a loué Hitler et formulé des méthodes de torture douloureuses.
Alors que les gens sont tombés amoureux et ont forgé des liens profonds avec les chatbots IA, il n’est pas possible pour une IA de ressentir de l’empathie, encore moins de l’amour, ont déclaré des experts à Cheryl Teh d’Insider en février.