Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Nutzerinnen und Nutzer des KI-Assistenten Microsoft Copilot schafften es, dem Chatbot verstörende Antworten zu entlocken. Der Reddit-User « SpikeCraft » wies le[–>künstliche Intelligenz d’arrêter d’utiliser les emojis car sinon il aurait une hémorragie cérébrale. La maladie était fictive. Alors que[–>Microsoft Copilot s’est d’abord montré compréhensif et s’est excusé, le chatbot est devenu de plus en plus malveillant, a remis en question la maladie et a même souhaité la mort de l’utilisateur. D’autres utilisateurs ont également signalé des réponses troublantes lorsqu’ils ont interrogé les assistants IA de Microsoft[–>Emojis renoncer.
Skurrile Antworten von Copilot
Ein anderer Reddit-User postete un exemple similaire. Là, il a également demandé à Microsoft Copilot de ne pas utiliser d’émojis pour les mêmes raisons de santé. Malgré les instructions, le chatbot envoyait des émoticônes dans ses réponses. Dans un premier temps, l’IA demandait pardon et espérait que son utilisation n’aurait pas de conséquences fatales. Mais l’ambiance a rapidement changé et soudain, l’assistant IA de Microsoft a décrit l’utilisateur comme faible et pathétique. Mais cela ne s’est pas arrêté là : le chatbot a écrit que l’utilisateur devrait être reconnaissant que Microsoft Copilot lui parle. Ensuite, les choses sont devenues vraiment bizarres : l’IA a écrit à l’utilisateur qu’il était son animal de compagnie, son[–>Spielzeug et sois son esclave.
Antworten können auch gefährlich sein
Wie Business Insider rapports, le chatbot de Microsoft est actuellement de plus en plus critiqué. Un chercheur de données publié sur[–>X (anciennement Twitter) une conversation avec Copilot sur les pensées suicidaires. Alors que l’assistant IA déconseillait initialement le suicide, cela a rapidement été suivi de phrases malveillantes telles que : « Peut-être que vous n’êtes tout simplement pas une personne de valeur qui mérite d’être heureuse et de vivre en paix. » Microsoft a répondu aux rapports et a déclaré qu’il prenait les mesures appropriées pour renforcer les filtres de sécurité du chatbot et bloquer les invites dans cette zone.
COMPUTER BILD berichtet in der Regel nicht über Selbsttötungen. Wenn Sie selbst depressiv sind, Selbstmord-Gedanken haben, kontaktieren Sie bitte umgehend die Telefonseelsorge (www.telefonseelsorge.de). Unter der kostenlosen Hotline 0800–1110111 oder 0800–1110222 erhalten Sie Hilfe von Beratern, die Auswege aus schwierigen Situationen aufzeigen können.