Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsÊtre vivant et sur Internet en 2023 signifie soudainement voir des images hyperréalistes de personnes célèbres faisant des choses étranges, drôles, choquantes et peut-être dérangeantes qui ne se sont jamais réellement produites. Au cours de la semaine dernière, l’outil d’art AI Midjourney a rendu deux images distinctes convaincantes et photographiques de célébrités qui sont toutes deux devenues virales. La semaine dernière, il a imaginé l’arrestation de Donald Trump et son éventuelle évasion de prison. Au cours du week-end, le pape François a eu son tour dans la gueule de Midjourney lorsqu’une image générée par l’IA du pontife portant une élégante veste bouffante blanche a explosé sur Reddit et Twitter.Mais la fausse arrestation de Trump et les rendus Balenciaga du pape ont une différence significative : alors que la plupart des gens n’ont pas tardé à ne pas croire les images de Trump, la pompe du pape a dupé même les internautes les plus exigeants. Cette distinction clarifie la façon dont les médias synthétiques – déjà traités comme un épouvantail de fausses nouvelles par certains – façonneront et ne façonneront pas nos perceptions de la réalité.La parka rad du pape François a trompé les téléspectateurs avertis parce qu’elle décrivait ce qui aurait été un événement d’actualité à faible enjeu – le type d’histoire tabloïd-y non-news qui, si elle était réelle, serait finalement agrégée par des comptes de médias sociaux populaires, puis par médias bavards, avant peut être devenir viral. C’est une petite pépite d’éphémères internet, comme ces photos qui circulaient autrefois de Vladimir Poutine torse nu.En tant que telle, l’image n’exige pas un examen rigoureux. Quand j’ai vu l’image dans mon flux, je n’y ai pas trop regardé; J’ai supposé soit que c’était réel et un exemple amusant d’une célébrité portant quelque chose d’inattendu, soit que c’était faux et faisait partie d’une blague en ligne dont je n’étais pas au courant. Mon instinct était certainement de ne pas peigner la photo pour les défauts typiques des outils d’IA (je n’ai pas remarqué les mains glitchy du pape, par exemple). J’ai parlé avec un certain nombre de personnes qui ont eu une réponse similaire. Ils ont été momentanément dupés par l’image mais ont décrit leur expérience de la contrefaçon dans un sens plus ambiant – ils défilaient ; j’ai vu l’image et j’ai pensé, Oh, wow, regarde le pape; puis suivi leur journée. Les images de l’arrestation de Trump, en revanche, dépeignaient un événement d’actualité anticipé qui, s’il s’était réellement produit, aurait eu de graves répercussions politiques et culturelles. On ne continue pas à défiler après avoir vu l’ancien président se faire plaquer au sol.Ainsi, les deux ensembles d’images illustrent bien la manière dont de nombreuses personnes évaluent si une information est vraie ou fausse. Nous utilisons tous des heuristiques différentes pour essayer de découvrir la vérité. Lorsque nous recevons de nouvelles informations sur quelque chose dont nous avons déjà connaissance, nous nous appuyons simplement sur des faits que nous avons déjà appris. Mais lorsque nous ne sommes pas sûrs, nous nous appuyons sur des heuristiques moins concrètes comme la plausibilité (cela arriverait-il ?) ou le style (est-ce que quelque chose se sent, se regarde ou se lit de manière authentique ?). Dans le cas de l’arrestation de Trump, les heuristiques de style et de plausibilité étaient erronées.Lis: Les gens ne craquent pas (encore) pour les photos d’AI Trump »Si Trump a été publiquement arrêté, je me demande, Pourquoi est-ce que je vois cette image, mais les sujets tendance de Twitter, les tweets et les journaux et réseaux nationaux ne reflètent pas cela? » Mike Caulfield, chercheur au Center for an Informed Public de l’Université de Washington, me l’a dit. « Mais pour le pape, votre seule heuristique disponible est Le pape porterait-il un manteau cool ? Comme presque tous nous n’avons aucune expertise là-dedans, nous nous rabattons sur l’heuristique du style, et la réponse que nous trouvons est : peut-être.Comme je l’ai écrit la semaine dernière, les images dites hallucinées représentant de grands événements qui n’ont jamais eu lieu fonctionnent différemment des théories du complot, qui sont élaborées, parfois vagues et souvent difficiles à réfuter. Caulfield, qui fait des recherches sur les campagnes de désinformation autour des élections, m’a dit que les tentatives les plus efficaces d’induire en erreur proviennent d’acteurs qui prennent des informations solides des médias traditionnels, puis les déforment.Supposons que vous essayez de susciter l’indignation autour d’une élection locale. Une bonne façon de procéder serait de prendre un reportage sur la sensibilisation des électeurs et de déduire à tort une intention malveillante à propos d’un détail de l’article. Une phrase jetable à propos d’une campagne qui envoie des courriers électoraux à des non-citoyens peut devenir une théorie du complot virale si un propagandiste suggère que ces courriers étaient en fait bulletins de vote. Alléguant la fraude électorale, les conspirateurs peuvent alors construire tout un univers de contrevérités. Ils pourraient examiner les registres des dons et les contributions politiques du secrétaire d’État et imaginer des liens imaginaires avec George Soros ou d’autres militants politiques, créant des intrigues et des insinuations là où il n’y a en fait aucune preuve d’acte répréhensible. « Tout cela crée un sentiment de réalité dense, et tout cela est possible parce qu’il y a un grain de réalité au centre de celui-ci », a déclaré Caulfield.Pour que les médias synthétiques trompent les gens dans des environnements d’actualité à enjeux élevés, les images ou la vidéo en question devront jeter le doute ou mal cadrer des reportages précis sur des événements d’actualité réels. Inventer des scénarios à partir de tissu entier allège le fardeau de la preuve au point que même les scrollers occasionnels peuvent très facilement trouver la vérité. Mais cela ne signifie pas que les contrefaçons générées par l’IA sont inoffensives. Caulfield décrit dans un tweet comment les grands modèles linguistiques, ou LLM – la technologie derrière Midjourney et des programmes similaires – sont passés maîtres dans la manipulation du style, que les gens ont tendance à lier à l’autorité, à l’authenticité et à l’expertise. « Internet a vraiment décortiqué les faits et les connaissances, les LLM pourraient faire de même avec style », a-t-il écrit.Le style, soutient-il, n’a jamais été l’heuristique la plus importante pour aider les gens à évaluer l’information, mais il reste assez influent. Nous utilisons des styles d’écriture et d’expression orale pour évaluer la fiabilité des e-mails, des articles, des discours et des conférences. Nous utilisons également le style visuel pour évaluer l’authenticité – pensez aux logos d’entreprise ou aux images en ligne de produits à vendre. Il n’est pas difficile d’imaginer qu’inonder Internet d’informations à faible coût imitant un style authentique pourrait brouiller nos cerveaux, de la même manière que la démocratisation de l’édition par Internet a rendu plus complexe le processus de simple recherche de faits. Comme le note Caulfield, « Plus la chose est banale, plus le risque est grand ».Parce que nous sommes au tout début d’une ère d’IA générative, il est trop prématuré de suggérer que nous tombons tête la première dans les profondeurs d’un paysage infernal post-vérité. Mais considérez ces outils à travers l’objectif de Caulfield : les technologies successives, des débuts d’Internet aux médias sociaux, en passant par l’intelligence artificielle, ont chacune ciblé différentes heuristiques de traitement de l’information et les ont successivement dépréciées. L’effet cumulatif évoque une image inquiétante des technologies comme une mer agitée, réduisant lentement les outils nécessaires dont nous disposons pour donner un sens au monde et rester résilients. Une lente érosion d’une partie de ce qui fait de nous des êtres humains.
Source link -57