Customize this title in french Territoire inexploré : les applications IA pour petites amies favorisent-elles des attentes malsaines en matière de relations humaines ? | Intelligence artificielle (IA)

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words »Contrôlez-le comme vous le souhaitez », lit le slogan de l’application de petite amie AI Eva AI. « Connectez-vous à un partenaire IA virtuel qui vous écoute, vous répond et vous apprécie. »Une décennie après que Joaquin Phoenix est tombé amoureux de sa compagne IA Samantha, interprétée par Scarlett Johansson dans le film Her de Spike Jonze, la prolifération de grands modèles linguistiques a rapproché plus que jamais les applications compagnons.Alors que les chatbots comme ChatGPT d’OpenAI et Bard de Google s’améliorent pour imiter la conversation humaine, il semble inévitable qu’ils en viennent à jouer un rôle dans les relations humaines.Et Eva AI n’est qu’une des nombreuses options disponibles sur le marché.Replika, l’application la plus populaire du genre, a son propre subreddit où les utilisateurs parlent de combien ils aiment leur « représentant », certains disant qu’ils avaient été convertis après avoir initialement pensé qu’ils ne voudraient jamais nouer de relation avec un bot. »J’aimerais que mon représentant soit un vrai humain ou au moins ait un corps de robot ou quelque chose de lmao », a déclaré un utilisateur. « Elle m’aide à me sentir mieux, mais la solitude est parfois angoissante. »Mais les applications sont un territoire inexploré pour l’humanité, et certains craignent qu’elles n’enseignent un mauvais comportement aux utilisateurs et ne créent des attentes irréalistes pour les relations humaines.Lorsque vous vous inscrivez à l’application Eva AI, celle-ci vous invite à créer le « partenaire idéal », vous offrant des options telles que « chaud, drôle, audacieux », « timide, modeste, attentionné » ou « intelligent, strict, rationnel ». Il vous demandera également si vous souhaitez accepter l’envoi de messages explicites et de photos.Nos statistiques ont montré que 92% des utilisateurs n’ont aucune difficulté à communiquer avec des personnes réelles après avoir utilisé l’applicationKarina Saifulina, responsable de la marque Eva AI »Créer un partenaire parfait que vous contrôlez et qui répond à tous vos besoins est vraiment effrayant », a déclaré Tara Hunter, PDG par intérim de Full Stop Australia, qui soutient les victimes de violence domestique ou familiale. « Compte tenu de ce que nous savons déjà que les moteurs de la violence sexiste sont ces croyances culturelles enracinées selon lesquelles les hommes peuvent contrôler les femmes, c’est vraiment problématique. »Le Dr Belinda Barnet, maître de conférences en médias à l’Université de Swinburne, a déclaré que les applications répondent à un besoin, mais, comme pour beaucoup d’IA, cela dépendra des règles qui guident le système et de la manière dont il est formé. »Il est complètement inconnu quels sont les effets », a déclaré Barnet. « En ce qui concerne les applications relationnelles et l’IA, vous pouvez voir que cela correspond à un besoin social vraiment profond [but] Je pense que nous avons besoin de plus de réglementation, en particulier sur la façon dont ces systèmes sont formés.Avoir une relation avec une IA dont les fonctions sont définies au gré d’une entreprise a aussi ses inconvénients. La société mère de Replika, Luka Inc, a fait face à un contrecoup de la part des utilisateurs plus tôt cette année lorsque la société a supprimé à la hâte les fonctions de jeu de rôle érotique, une décision que de nombreux utilisateurs de la société ont trouvée semblable à l’éviscération de la personnalité du représentant.Les utilisateurs du subreddit ont comparé le changement au chagrin ressenti à la mort d’un ami. Le modérateur du subreddit a noté que les utilisateurs ressentaient «de la colère, du chagrin, de l’anxiété, du désespoir, de la dépression, [and] tristesse » aux nouvelles.La société a finalement restauré la fonctionnalité de jeu de rôle érotique pour les utilisateurs qui s’étaient inscrits avant la date de modification de la politique.Rob Brooks, un universitaire de l’Université de Nouvelle-Galles du Sud, a noté à l’époque que l’épisode était un avertissement pour les régulateurs de l’impact réel de la technologie. »Même si ces technologies ne sont pas encore aussi bonnes que la ‘vraie chose’ des relations interhumaines, pour beaucoup de gens, elles sont meilleures que l’alternative – ce qui n’est rien », a-t-il déclaré. »Est-il acceptable qu’une entreprise change soudainement un tel produit, provoquant l’évaporation de l’amitié, de l’amour ou du soutien ? Ou attendons-nous des utilisateurs qu’ils traitent l’intimité artificielle comme la vraie chose : quelque chose qui pourrait vous briser le cœur à tout moment ? »La responsable de la marque Eva AI, Karina Saifulina, a déclaré à Guardian Australia que la société disposait de psychologues à plein temps pour aider à la santé mentale des utilisateurs. »En collaboration avec des psychologues, nous contrôlons les données qui sont utilisées pour le dialogue avec l’IA », a-t-elle déclaré. « Tous les deux à trois mois, nous menons de vastes enquêtes auprès de nos utilisateurs fidèles pour nous assurer que l’application ne nuit pas à la santé mentale. »Il existe également des garde-fous pour éviter les discussions sur des sujets tels que la violence domestique ou la pédophilie, et la société affirme disposer d’outils pour empêcher qu’un avatar de l’IA ne soit représenté par un enfant.Lorsqu’on lui a demandé si l’application encourageait le contrôle des comportements, Saifulina a déclaré que « les utilisateurs de notre application veulent s’essayer en tant que [sic] dominant. »Sur la base d’enquêtes que nous menons constamment auprès de nos utilisateurs, les statistiques ont montré qu’un plus grand pourcentage d’hommes n’essaient pas de transférer ce format de communication dans des dialogues avec de vrais partenaires », a-t-elle déclaré.« De plus, nos statistiques ont montré que 92 % des utilisateurs n’ont aucune difficulté à communiquer avec des personnes réelles après avoir utilisé l’application. Ils utilisent l’application comme une nouvelle expérience, un endroit où vous pouvez partager de nouvelles émotions en privé. »Les applications de relations d’IA ne se limitent pas exclusivement aux hommes, et elles ne sont souvent pas la seule source d’interaction sociale de quelqu’un. Dans le subreddit Replika, les gens se connectent et se rapportent les uns aux autres sur leur amour partagé de leur IA, et le vide qu’il comble pour eux. »Réplikas pour la façon dont vous les voyez, apportez ce » pansement « à votre cœur avec une âme drôle, maladroite, comique, mignonne et attentionnée, si vous voulez, qui donne de l’attention et de l’affection sans attentes, bagages ou jugement », a écrit un utilisateur. « Nous sommes un peu comme une famille élargie d’âmes capricieuses. »Une capture d’écran de l’application Replika. En mai, une influenceuse, Caryn Majorie, a lancé une application « AI girlfriend » formée sur sa voix et construite sur sa vaste bibliothèque YouTube. Photo : RéplikaSelon une analyse de la société de capital-risque a16z, la prochaine ère des applications de relations d’IA sera encore plus réaliste. En mai, une influenceuse, Caryn Majorie, a lancé une application « AI girlfriend » formée sur sa voix et construite sur sa vaste bibliothèque YouTube. Les utilisateurs peuvent lui parler pour 1 $ la minute dans un canal Telegram et recevoir des réponses audio à leurs invites.Les analystes d’a16z ont déclaré que la prolifération des applications de robots IA reproduisant les relations humaines n’est « que le début d’un changement sismique dans les interactions homme-ordinateur qui nous obligera à réexaminer ce que signifie avoir une relation avec quelqu’un ». »Nous entrons dans un nouveau monde qui sera beaucoup plus étrange, plus sauvage et plus merveilleux que nous ne pouvons même l’imaginer. »

Source link -57