Customize this title in french« Contrefaçons » : les dangers posés par les chatbots sosies de célébrités de Meta

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Meta a annoncé mercredi l’arrivée de chatbots aux personnalités proches de certaines célébrités, avec qui il sera possible de discuter. Présenté comme une évolution divertissante de ChatGPT et d’autres formes d’IA, ce dernier développement technologique pourrait s’avérer dangereux. Meta (anciennement Facebook) les considère comme une intelligence artificielle « amusante ». D’autres, cependant, estiment que ce dernier développement technologique pourrait marquer le premier pas vers la création des « artefacts les plus dangereux de l’histoire de l’humanité », pour citer l’essai du philosophe américain Daniel C. Dennett sur les « contrefaçons ». Mercredi 27 septembre, le géant des réseaux sociaux a annoncé le lancement de 28 chatbots (agents conversationnels), censés avoir leur propre personnalité et spécialement conçus pour les plus jeunes utilisateurs. Il s’agit notamment de Victor, un soi-disant triathlète qui peut vous motiver à « être le meilleur de vous-même », et de Sally, « l’amie à l’esprit libre qui vous dira quand prendre une profonde inspiration ».Les internautes peuvent aussi discuter avec Max, un « sous-chef aguerri » qui vous donnera des « trucs et astuces culinaires », ou se livrer à une joute verbale avec Luiz, qui « peut étayer son discours trash ». Un chatbot aux allures de Paris HiltonPour renforcer l’idée que ces chatbots ont des personnalités et ne sont pas simplement un amalgame d’algorithmes, Meta a donné un visage à chacun d’eux. Grâce à des partenariats avec des célébrités, ces robots ressemblent à la jet-settrice et DJ américaine Paris Hilton, à la star de TikTok Charli D’Amelio et à la joueuse de tennis américano-japonaise Naomi Osaka.En savoir plusFaut-il s’inquiéter ? ChatGPT réussit l’examen commercial de l’Ivy LeagueEt ce n’est pas tout. Meta a ouvert des comptes Facebook et Instagram pour chacun de ses agents conversationnels afin de leur donner une existence en dehors des interfaces de chat et travaille à leur donner une voix d’ici l’année prochaine. La société mère de l’empire de Mark Zuckerberg recherchait également des scénaristes capables « d’écrire des personnages et d’autres contenus narratifs qui plairont à un large public ».Meta peut présenter ces 28 chatbots comme une entreprise innocente visant à distraire massivement les jeunes internautes, mais tous ces efforts pointent vers un projet ambitieux visant à construire des IA qui ressemblent le plus possible aux humains, écrit The Rolling Stone. Cette course aux « contrefaçons » inquiète de nombreux observateurs, déjà préoccupés par les récents développements réalisés dans les recherches sur les grands modèles de langage (LLM) comme ChatGPT et Llama 2, son homologue de Facebook. Sans aller jusqu’à Dennett, qui réclame l’enfermement de personnes comme Zuckerberg, « il y a un certain nombre de penseurs qui dénoncent l’approche délibérément trompeuse de ces grands groupes », a déclaré Ibo van de Poel, professeur d’éthique et de technologie à l’Université de technologie de Delft aux Pays-Bas.Les IA avec des personnalités sont « littéralement impossibles »L’idée d’agents conversationnels « dotés d’une personnalité est littéralement impossible », a déclaré van de Poel. Les algorithmes sont incapables de démontrer « l’intention dans leurs actions ou le « libre arbitre », deux caractéristiques considérées comme intimement liées à l’idée de personnalité ».Meta et d’autres peuvent, au mieux, imiter certains traits qui composent une personnalité. « Il doit être technologiquement possible, par exemple, d’apprendre à un chatbot à agir comme la personne qu’il représente », a déclaré van de Poel. Par exemple, l’IA Amber de Meta, qui est censée ressembler à Hilton, pourrait être capable de parler de la même manière que son alter ego humain. La prochaine étape sera de former ces LLM à exprimer les mêmes opinions que la personne à laquelle ils ressemblent. Il s’agit d’un comportement beaucoup plus compliqué à programmer, car il implique de créer une sorte d’image mentale précise de toutes les opinions d’une personne. Il existe également un risque que les chatbots dotés de personnalités tournent mal. L’un des agents conversationnels testés par Meta a exprimé des opinions « misogynes », selon le Wall Street Journal, qui a pu consulter des documents internes à l’entreprise. Un autre a commis le « péché mortel » en critiquant Zuckerberg et en faisant l’éloge de TikTok.Pour construire ces chatbots, Meta explique avoir eu pour objectif de leur raconter des « histoires personnelles uniques ». En d’autres termes, les créateurs de ces IA ont écrit des biographies pour elles dans l’espoir qu’elles puissent développer une personnalité basée sur ce qu’elles ont lu sur elles-mêmes. « C’est une approche intéressante, mais il aurait été bénéfique d’ajouter des psychologues à ces équipes pour mieux comprendre les traits de personnalité », a déclaré Anna Strasser, une philosophe allemande qui a participé à un projet visant à créer un grand modèle de langage capable de philosopher. .Le dernier projet d’IA de Meta est clairement motivé par une soif de profit. « Les gens seront sans doute prêts à payer pour pouvoir parler et avoir une relation directe avec Paris Hilton ou une autre célébrité », a déclaré Strasser.Plus les utilisateurs ont l’impression de parler avec un être humain, « plus ils se sentiront à l’aise, plus ils resteront longtemps et plus ils auront de chances de revenir », a déclaré van de Poel. Et dans le monde des médias sociaux, le temps passé sur Facebook et ses publicités, c’est de l’argent.Outil, être vivant ou quelque part entre les deux ?Il n’est certainement pas surprenant que les premières incursions de Meta dans l’IA avec « personnalité » soient des chatbots destinés principalement aux adolescents. « Nous savons que les jeunes sont plus susceptibles d’être anthropomorphes », a déclaré Strasser.Cependant, les experts interrogés estiment que Meta joue un jeu dangereux en mettant l’accent sur les « caractéristiques humaines » de leurs IA. « J’aurais vraiment préféré que ce groupe fasse plus d’efforts pour expliquer les limites de ces agents conversationnels, plutôt que d’essayer de les faire paraître plus humains », a déclaré van de Poel.En savoir plusChatGPT : les cybercriminels salivent devant le chatbot IA le plus performant au mondeL’émergence de ces puissants LLM a bouleversé « la dichotomie entre ce qui est un outil ou un objet et ce qui est un être vivant. Ces ChatGPT sont un troisième type d’agent qui se situe quelque part entre les deux extrêmes », a déclaré Strasser. Les êtres humains sont encore en train d’apprendre à interagir avec ces nouvelles entités étranges, donc en faisant croire aux gens qu’un agent conversationnel peut avoir une personnalité, Meta suggère qu’il soit traité davantage comme un autre être humain que comme un outil. « Les internautes ont tendance à faire confiance à ce que disent ces IA », ce qui les rend dangereuses, a déclaré van de Poel. Il ne s’agit pas seulement d’un risque théorique : en Belgique, un homme a fini par se suicider en mars 2023 après avoir discuté pendant six semaines des conséquences du réchauffement climatique avec un agent conversationnel.Surtout, si la frontière entre le monde des IA et celui des humains finit par s’estomper complètement, « cela pourrait potentiellement détruire la confiance dans tout ce que nous trouvons en ligne, car nous ne saurons pas qui a écrit quoi », a déclaré Strasser. Cela ouvrirait, comme Dennett l’avertit dans son essai, la porte à « la destruction de notre civilisation ». La démocratie dépend du consentement éclairé (et non mal informé) des gouvernés. [which cannot be obtained if we no longer know what and whom to trust] ».Il reste à voir si discuter avec un sosie IA de Hilton signifie que nous sommes sur la bonne voie pour détruire le monde tel que nous le connaissons. Cet article a été traduit de l’original en français.

Source link -57