Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
Selon une nouvelle étude sur le thème de la Saint-Valentin, une réalité potentiellement dangereuse se cache sous le vernis de la romance IA, qui conclut que les chatbots peuvent être un cauchemar en matière de vie privée.
La Fondation Mozilla, une organisation à but non lucratif sur Internet, a fait le point sur le paysage en plein essor, en examinant 11 chatbots et en concluant qu’ils n’étaient tous pas dignes de confiance – tombant dans la pire catégorie de produits qu’elle examine en matière de confidentialité.
« Bien qu’ils soient commercialisés comme quelque chose qui améliorera votre santé mentale et votre bien-être », a écrit le chercheur Misha Rykov à propos des chatbots romantiques dans le rapport, « ils se spécialisent dans la lutte contre la dépendance, la solitude et la toxicité, tout en récupérant autant de données que possible. de toi. »
Selon son enquête sur l’espace, 73 % des applications ne partagent pas la façon dont elles gèrent les vulnérabilités de sécurité, 45 % autorisent les mots de passe faibles et toutes sauf une (Eva AI Chat Bot et Soulmate) partagent ou vendent des données personnelles.
En outre, la politique de confidentialité de CrushOn.AI indique qu’il peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments sur ordonnance et les soins d’affirmation de genre, selon la Fondation Mozilla.
Certaines applications présentent des chatbots dont les descriptions de personnages font état de violence ou de maltraitance de mineurs, tandis que d’autres avertissent que les robots pourraient être dangereux ou hostiles.
La Fondation Mozilla a noté que dans le passé, les applications avaient encouragé des comportements dangereux, notamment le suicide (Chai AI) et une tentative d’assassinat contre feu la reine Elizabeth II (Replika).
Chai AI et CrushOn.AI n’ont pas répondu à la demande de commentaires de Business Insider. Un représentant de Replika a déclaré à BI : « Replika n’a jamais vendu de données utilisateur et ne soutient pas et n’a jamais non plus pris en charge la publicité. La seule utilisation des données utilisateur est d’améliorer les conversations. »
Un porte-parole d’EVA AI a déclaré à BI qu’elle révisait ses politiques de mots de passe pour offrir une meilleure protection des utilisateurs, mais qu’elle s’efforçait de garder un « contrôle méticuleux » de ses modèles linguistiques.
EVA a déclaré qu’elle interdisait la discussion sur un large éventail de sujets, notamment la pédophilie, le suicide, la zoophilie, les opinions politiques et religieuses, la discrimination sexuelle et raciale, et bien d’autres encore.
Pour ceux qui trouvent impossible de résister à la perspective d’une romance avec l’IA, la Fondation Mozilla recommande de prendre plusieurs précautions, notamment de ne pas dire quoi que ce soit que vous ne voudriez pas qu’un collègue ou un membre de votre famille lise, d’utiliser un mot de passe fort, de refuser la formation en IA et de limiter les l’accès de l’application à d’autres fonctionnalités mobiles telles que votre emplacement, votre microphone et votre caméra.
« Vous ne devriez pas avoir à payer pour de nouvelles technologies intéressantes avec votre sécurité ou votre vie privée », conclut le rapport.