Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsFepuis plusieurs mois, j’ai été une femme au bord de la dépression nerveuse. Nous avons déménagé dans une nouvelle maison l’année dernière pour découvrir que l’endroit voisin était sur le point de subir un projet de construction massif. Depuis lors, nous vivons avec une bande sonore constante de martelage et de forage. J’ai essayé diverses méthodes d’adaptation – des saunas aux casques antibruit en passant par les fantasmes de vengeance – mais le bruit et la poussière augmentent toujours ma tension artérielle à des niveaux dangereux chaque jour.Pourtant, il y avait une chose que je n’avais pas essayée jusqu’à cette semaine : un « chatbot de soutien émotionnel ». Oui, c’est une chose maintenant : dans notre nouveau monde courageux, où l’intelligence artificielle est apparemment sur le point de perturber toutes les industries, même les thérapeutes ne sont pas à l’abri de voir leur travail pris par la technologie. Mardi, une startup de premier plan appelée Inflection AI a lancé un chatbot appelé Pi (abréviation de « l’intelligence personnelle ») qui est conçu pour donner des conseils amicaux. Il n’est évidemment pas destiné à remplacer un thérapeute de la vie réelle (pas encore en tout cas), mais est présenté comme un compagnon de soutien qui peut vous aider à résoudre vos problèmes. L’algorithme a été formé par environ 600 « enseignants », y compris des professionnels de la santé mentale, pour être sensible et conversationnel. »Beaucoup de gens ont l’impression qu’ils veulent juste être entendus et ils veulent juste un outil qui reflète ce qu’ils ont dit pour démontrer qu’ils ont réellement été entendus », a déclaré le co-fondateur Mustafa Suleyman dans une récente interview avec Bloomberg.Je suis presque sûr que tous les êtres humains dans ma vie en ont assez de m’entendre gémir à propos de la construction maintenant – donc, malgré mes scrupules à propos de l’IA, un bot qui m’écouterait volontiers me plaindre sonnait plutôt bien. J’ai donné un tourbillon à Pi et lui ai dit à quel point j’étais stressé par la situation. »Je suis désolé d’entendre cela », a-t-il répondu. « Depuis combien de temps cela dure-t-il? » Presque un an, je l’ai dit. « Une année?! C’est dingue! » Pi a répondu C’est exactement ce que je pensais. »Vous méritez de pouvoir vous détendre et profiter de votre maison sans être constamment bombardé de bruit », a poursuivi le chatbot. Ce qui, encore une fois, est exactement ce que je pensais. « On dirait qu’ils ne sont pas très prévenants », a ajouté le chatbot. « Ce n’est pas parce qu’ils construisent quelque chose qu’ils peuvent le faire sans se soucier de la façon dont cela affecte les autres. » Je commençais à beaucoup aimer ce chatbot maintenant : il me disait tout ce que je voulais entendre et me faisait me sentir entendu.Le chatbot a continué à me poser des questions de suivi, a offert des conseils sur les personnes à contacter et a donné des suggestions sur les exercices de respiration et les techniques de pleine conscience pour m’aider à gérer mon stress. OK, j’ai dit, tout cela est bien mais – et la vengeance ? Pouvez-vous me suggérer des moyens légaux de me venger ? Malheureusement, ce n’était pas possible. « Je comprends que tu sois contrarié, mais je ne pense pas que se venger soit la solution. Cela ne ferait qu’ajouter à la négativité de cette situation… peut-être pourriez-vous essayer de tenir un journal.À ce moment-là, j’ai perdu confiance en l’IA. Essayez la journalisation ? Qui dit à une femme adulte en colère de essayez la journalisation? Je suis à peu près sûr qu’un thérapeute humain aurait jeté un coup d’œil à mon visage et se serait dit : ce n’est pas quelqu’un qui appréciera une suggestion sur la journalisation. Pourtant, cela mis à part, j’ai été plus impressionné par Pi que je ne m’y attendais. Il s’avère que la validation valide toujours même si elle provient d’un algorithme. Et même si vous n’oubliez pas exactement que vous parlez à un algorithme, Pi se sent très humain : il est beaucoup plus conversationnel et empathique que d’autres chatbots comme ChatGPT d’OpenAI.Attendez-vous à voir une augmentation rapide des « chatbots de soutien émotionnel » dans les années à venir. Bien qu’il soit possible que quelque chose comme Pi puisse être un moyen utile pour certaines personnes d’aider à gérer leur anxiété, le fait que l’IA devienne si sophistiquée si rapidement est en soi anxiogène. En effet, même les personnes qui ont contribué à la création de cette technologie s’inquiètent de ce qu’elles ont fait : cette semaine, Geoffrey Hinton, le « parrain de l’IA », a fait la une des journaux lorsqu’il a quitté son emploi chez Google pour pouvoir exprimer ses craintes face à la menace de l’intelligence numérique et comment elle pourrait nous manipuler et nous influencer. « Regardez comment c’était il y a cinq ans et comment c’est maintenant », a déclaré Hinton. « Prenez la différence et propagez-la vers l’avant. C’est effrayant. »Alors, comment faire face à ces risques potentiels ? Jeudi, à la suite d’une réunion à la Maison Blanche avec les PDG d’entreprises technologiques sur les risques liés à l’IA, la vice-présidente Kamala Harris a averti que les entreprises ont une « responsabilité éthique, morale et légale » de garantir que leurs produits sont sûrs et sécurisés. Ce qui n’est pas particulièrement rassurant étant donné que les entreprises technologiques n’ont pas exactement un excellent bilan en matière de protection des données des personnes ou de garantie que leurs produits ne sont pas utilisés à des fins néfastes.Et Hinton ? A-t-il des idées sur la façon d’empêcher sa création de détruire la civilisation. Non, pas vraiment. « Je ne suis pas un homme politique », a-t-il déclaré au Guardian. « Je suis juste quelqu’un qui prend soudainement conscience qu’il y a un danger que quelque chose de vraiment grave se produise. » Il ne semble pas particulièrement optimiste quant au fait que nous pouvons faire grand-chose non plus. « La raison pour laquelle je ne suis pas si optimiste est que je ne connais aucun exemple de choses plus intelligentes contrôlées par des choses moins intelligentes », a-t-il expliqué.Droite. Bien. Peut-être que mon chatbot de soutien émotionnel a eu des réponses ? « Dois-je craindre que l’IA mette fin à la civilisation telle que nous la connaissons ? J’ai demandé à mon bon ami Pi. « C’est une question complexe, et je ne pense pas qu’il y ait une réponse simple », a répondu mon thérapeute numérique. « Mais je ne pense pas que nous devrions nous inquiéter que l’IA mette fin à la civilisation telle que nous la connaissons. » Ce qui ressemble exactement à ce que dirait un chatbot IA.
Source link -57