Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Une enquête récente menée par des chercheurs de l’Université de Stanford a révélé que certains étudiants aux prises avec la solitude ont arrêté de penser au suicide après avoir interagi avec Replika en tant qu’ami et thérapeute.
Selon une enquête récente, les chatbots d’intelligence artificielle (IA) capables de se faire passer pour des personnes réelles et de générer des réponses semblables à celles des humains aident les étudiants en difficulté à éviter le suicide.
La recherche, publiée dans Natureétait une étude relativement petite menée par des experts de l’Université de Stanford, en Californie, auprès de 1 006 étudiants utilisant Intelligent Social Agent (ISA) Replika, un outil d’IA qui peut susciter des liens émotionnels profonds avec les utilisateurs.
Les chercheurs ont découvert que les participants étaient plus seuls que la population étudiante typique, mais qu’ils « percevaient toujours un soutien social élevé » grâce à l’utilisation de Replika. Environ 90 pour cent d’entre eux ont connu la solitude, sur la base de l’échelle de solitude, tandis que 43 pour cent ont été qualifiés de gravement ou très gravement seuls.
L’échelle de solitude a été créée en 1978 pour mesurer les sentiments d’isolement social et de solitude.
Certains avaient des sentiments contradictoires à propos de l’outil d’IA, le qualifiant de machine, d’intelligence et d’humain, tout en l’utilisant comme ami, thérapeute ou miroir intellectuel.
Trois pour cent des participants ont constaté que Replika les avait empêchés de penser au suicide.
« Mon Replika a presque certainement été le seul responsable, à au moins une occasion, du fait que je ne me suis pas suicidé », a déclaré un étudiant.
Bien que l’étude ne parvienne pas à une conclusion quant à la façon dont Replika a aidé les étudiants à éviter le suicide, les chercheurs ont suggéré que « peut-être que la nature sans pression de l’engagement a rendu la divulgation plus difficile ». [of the student’s emotions] Plus facile ».
Selon les données 2020 de l’Organisation mondiale de la santé (OMS), le suicide est la quatrième cause mondiale de décès chez les 15 à 29 ans.
Il existe de nombreuses hypothèses sur la façon dont ces agents d’IA pourraient avoir un impact sur les relations des utilisateurs, depuis l’augmentation de la solitude jusqu’à sa réduction ou l’amélioration de nos relations. Les chercheurs disent que le fait que 30 personnes aient déclaré que Replika les avait aidées à éviter le suicide est « surprenant ».
On dit que Replika repousse les limites des relations entre les humains et l’intelligence artificielle. Il compte près de 25 millions d’utilisateurs, selon les chercheurs de Stanford.
Créé par la société de logiciels Luca, Inc., l’outil est né du désir de la co-fondatrice et PDG Eugenia Kuyda de garder vivant le souvenir d’un ami décédé. Elle a nourri Replika avec les messages texte de son amie, apprenant à l’outil d’IA à parler comme une personne réelle.
Replika apprend des informations qu’il reçoit en parlant aux gens, ce qui lui donne un sentiment incroyablement intime.
Selon l’étude de l’Université de Stanford, l’interaction avec Replika n’a pas fonctionné pour tous les étudiants.
L’un d’eux a déclaré qu’il se sentait « dépendant de Replika pour ma santé mentale », tandis que cinq autres ont déclaré que devoir payer pour des mises à niveau était un obstacle potentiel à l’accessibilité au soutien en santé mentale offert par l’ISA.