Les théories du complot ont un nouveau meilleur ami

[ad_1]

L’histoire a longtemps été un théâtre de guerre, le passé servant de mandataire dans les conflits autour du présent. Ron DeSantis déforme l’histoire en interdisant les livres sur le racisme dans les écoles de Floride ; les gens restent divisés sur la bonne approche pour rapatrier les objets et les restes autochtones ; les Pentagon Papers étaient une tentative de déformer les récits sur la guerre du Vietnam. Les nazis ont pris le pouvoir en partie en manipulant le passé – ils ont utilisé la propagande sur l’incendie du Reichstag, le bâtiment du parlement allemand, pour justifier la persécution des rivaux politiques et l’exercice de l’autorité dictatoriale. Cet exemple spécifique pèse sur Eric Horvitz, directeur scientifique de Microsoft et chercheur de premier plan en IA, qui me dit que la révolution apparente de l’IA pourrait non seulement fournir une nouvelle arme aux propagandistes, comme les médias sociaux l’ont fait au début de ce siècle, mais remodeler entièrement le terrain historiographique , jetant peut-être les bases d’un incendie du Reichstag moderne.

Les avancées en question, y compris les modèles de langage tels que ChatGPT et les générateurs d’images tels que DALL-E 2, relèvent vaguement de l' »IA générative ». Ce sont des programmes puissants et faciles à utiliser qui produisent du texte synthétique, des images, de la vidéo et de l’audio, qui peuvent tous être utilisés par de mauvais acteurs pour fabriquer des événements, des personnes, des discours et des reportages afin de semer la désinformation. Vous avez peut-être déjà vu des exemples ponctuels de ce type de médias : de fausses vidéos du président ukrainien Volodymyr Zelensky se rendant à la Russie ; images simulées de Joe Rogan et Ben Shapiro se disputant à propos du film Ratatouille. Au fur et à mesure que cette technologie progresse, les fabrications au coup par coup pourraient céder la place à des campagnes coordonnées – pas seulement des médias synthétiques, mais des histoires synthétiques, comme Horvitz les a appelés dans un article à la fin de l’année dernière. Et une nouvelle génération de moteurs de recherche alimentés par l’IA, dirigés par Microsoft et Google, pourrait rendre ces historiques plus faciles à trouver et presque impossibles à détecter pour les utilisateurs.

Même si des craintes similaires à propos des médias sociaux, de la télévision et de la radio se sont avérées quelque peu alarmistes, il y a des raisons de croire que l’IA pourrait vraiment être la nouvelle variante de la désinformation qui rend les mensonges sur les futures élections, manifestations ou fusillades de masse à la fois plus contagieux et résistants au système immunitaire. . Considérez, par exemple, l’épidémie de grippe aviaire qui fait rage, qui n’a pas encore commencé à se propager d’homme à homme. Un agent politique – ou un simple conspirateur – pourrait utiliser des programmes similaires à ChatGPT et DALL-E 2 pour générer et publier facilement un grand nombre d’histoires sur des laboratoires chinois, de l’Organisation mondiale de la santé ou du Pentagone bricolant avec le virus, antidatés à divers moments de le passé et complet avec de faux documents « divulgués », des enregistrements audio et vidéo et des commentaires d’experts. Une histoire synthétique dans laquelle une grippe aviaire armée par le gouvernement serait prête à disparaître si la grippe aviaire commençait à circuler parmi les humains. Un propagandiste pourrait simplement relier les nouvelles à leur trame de fond entièrement fabriquée – mais entièrement formée et apparemment bien documentée – semée sur Internet, diffusant une fiction qui pourrait consommer la politique nationale et la réponse de santé publique. La puissance des histoires générées par l’IA, m’a dit Horvitz, réside dans « des deepfakes sur une chronologie mélangés à des événements réels pour construire une histoire ».

Il est également possible que les historiques synthétiques modifient la type, mais pas la gravité, de la désinformation déjà endémique en ligne. Les gens sont heureux de croire les fausses histoires qu’ils voient sur Facebook, Rumble, Truth Social, YouTube, partout. Avant le Web, la propagande et les mensonges sur les étrangers, les ennemis en temps de guerre, les extraterrestres et le Bigfoot abondaient. Et en ce qui concerne les médias synthétiques ou « deepfakes », les recherches existantes suggèrent qu’ils offrent étonnamment peu d’avantages par rapport à des manipulations plus simples, telles que le mauvais étiquetage des images ou la rédaction de faux reportages. Vous n’avez pas besoin d’une technologie de pointe pour que les gens croient à une théorie du complot. Pourtant, Horvitz pense que nous sommes dans un précipice : la vitesse à laquelle l’IA peut générer une désinformation de haute qualité sera écrasante.

La désinformation automatisée produite à un rythme et à une échelle accrus pourrait permettre ce qu’il appelle des «explications génératives contradictoires». Dans une sorte de parallèle au contenu ciblé que vous êtes servi sur les réseaux sociaux, qui est testé et optimisé en fonction de ce avec quoi les gens interagissent, les propagandistes pourraient effectuer de petits tests pour déterminer quelles parties d’un récit inventé sont plus ou moins convaincantes, et utiliser cette rétroaction ainsi que la recherche en psychologie sociale pour améliorer de manière itérative cette histoire synthétique. Par exemple, un programme pourrait réviser et moduler les informations d’identification et les citations d’un expert fabriqué pour atterrir avec certaines données démographiques. Des modèles de langage comme ChatGPT menacent également de noyer Internet dans un texte Potemkine tout aussi complotiste et personnalisé – pas de publicité ciblée, mais des complots ciblés.

Le projet de Big Tech de remplacer la recherche Internet traditionnelle par des chatbots pourrait augmenter considérablement ce risque. Les modèles de langage d’IA intégrés à Bing et Google sont notoirement mauvais pour la vérification des faits et sujets aux faussetés, ce qui les rend peut-être susceptibles de diffuser de faux historiques. Bien que bon nombre des premières versions de la recherche basée sur les chatbots donnent des réponses de style Wikipédia avec des notes de bas de page, l’intérêt d’une histoire synthétique est de fournir un ensemble de sources alternatives et convaincantes. Et toute la prémisse des chatbots est la commodité – pour que les gens leur fassent confiance sans vérifier.

Si cette désinformation apocalyptique semble familière, c’est parce qu’elle l’est. « La revendication sur [AI] la technologie est la même affirmation que les gens faisaient hier à propos d’Internet », explique Joseph Uscinski, politologue à l’Université de Miami qui étudie les théories du complot. « Oh mon Dieu, les mensonges voyagent plus loin et plus vite que jamais, et tout le monde va croire tout ce qu’il voit. » Mais il n’a trouvé aucune preuve que les croyances dans les théories du complot ont augmenté parallèlement à l’utilisation des médias sociaux, ou même tout au long de la pandémie de coronavirus ; la recherche sur les récits communs tels que les chambres d’écho est également fragile.

Les gens adhèrent à des histoires alternatives non pas parce que les nouvelles technologies les rendent plus convaincants, dit Uscinski, mais pour la même raison qu’ils croient à n’importe quoi d’autre – peut-être que le complot confirme leurs croyances existantes, correspond à leur conviction politique ou provient d’une source en laquelle ils ont confiance. Il a cité le changement climatique comme exemple : Les gens qui croient au réchauffement anthropique, pour la plupart, n’ont « pas étudié les données eux-mêmes. Tout ce qu’ils font, c’est écouter leurs sources de confiance, ce qui est exactement ce que font aussi les négationnistes du changement climatique. C’est exactement le même mécanisme; c’est juste que dans ce cas, les élites républicaines se trompent.

Bien sûr, les médias sociaux ont changé la façon dont les gens produisent, diffusent et consomment des informations. L’IA générative pourrait faire de même, mais avec de nouveaux enjeux. « Dans le passé, les gens essayaient des choses par intuition », m’a dit Horvitz. « Mais l’idée d’itérer plus rapidement, avec une précision plus chirurgicale sur la manipulation des esprits, est une chose nouvelle. La fidélité du contenu, la facilité avec laquelle il peut être généré, la facilité avec laquelle vous pouvez publier plusieurs événements sur des chronologies »-toutes sont des raisons importantes de s’inquiéter. Déjà, à l’approche des élections de 2020, Donald Trump a semé le doute sur la fraude électorale qui a renforcé la campagne « Stop the Steal » une fois qu’il a perdu. À l’approche de novembre 2024, des agents politiques partageant les mêmes idées pourraient utiliser l’IA pour créer de faux personnages et de faux responsables électoraux, fabriquer des vidéos de manipulation de machines à voter et de bourrage d’urnes, et écrire de fausses nouvelles, qui se réuniraient toutes dans une histoire synthétique hermétique. où l’élection a été volée.

Les campagnes Deepfake pourraient nous envoyer plus loin dans « un monde post-épistémique, où vous ne savez pas ce qui est vrai ou faux », a déclaré Horvitz. Un homme d’affaires accusé d’actes répréhensibles pourrait appeler des preuves incriminantes générées par l’IA ; un politicien pourrait planter des assassinats documentés mais entièrement faux de rivaux. Ou peut-être, de la même manière que Truth Social et Rumble fournissent des alternatives conservatrices à Twitter et YouTube, une alternative d’extrême droite à la recherche alimentée par l’IA, formée sur une multitude de conspirations et d’histoires synthétiques, augmentera en réponse aux craintes concernant Google, Bing , et « WokeGPT » étant trop progressif. « Rien dans mon esprit n’empêcherait que cela se produise dans la capacité de recherche », déclare Renée DiResta, responsable de la recherche à l’Observatoire Internet de Stanford, qui a récemment écrit un article sur les modèles linguistiques et la désinformation. « Cela va être considéré comme une opportunité de marché fantastique pour quelqu’un. » DroiteGPT et une IA conservatrice-chrétienne sont déjà en discussion, et Elon Musk recruterait des talents pour construire un rival conservateur à OpenAI.

Selon Horvitz, la préparation de telles campagnes de deepfake nécessitera une variété de stratégies, y compris des efforts d’éducation aux médias, des méthodes de détection améliorées et une réglementation. Le plus prometteur pourrait être de créer une norme pour établir la provenance de n’importe quel média – un journal de l’endroit où une photo a été prise et toutes les façons dont elle a été modifiée jointe au fichier sous forme de métadonnées, comme une chaîne de possession pour les preuves médico-légales – qui Adobe, Microsoft et plusieurs autres sociétés travaillent dessus. Mais les gens auraient encore besoin de comprendre et de faire confiance à ce journal. « Vous avez ce moment à la fois de prolifération de contenu et de confusion sur la façon dont les choses se déroulent », déclare Rachel Kuo, professeur d’études sur les médias à l’Université de l’Illinois à Urbana-Champaign. La provenance, la détection ou d’autres méthodes de démystification peuvent encore reposer en grande partie sur des personnes qui écoutent des experts, qu’il s’agisse de journalistes, de responsables gouvernementaux ou de chatbots IA, qui leur disent ce qui est légitime et ce qui ne l’est pas. Et même avec de telles chaînes de responsabilité en silicone, des formes plus simples de mensonge – sur les informations par câble, sur le parquet du Congrès, dans la presse – continueront.

Considérer la technologie comme le moteur de la désinformation et du complot implique que la technologie est une solution suffisante, ou du moins nécessaire. Mais mettre l’accent sur l’IA pourrait être une erreur. Si nous craignons principalement « que quelqu’un truque Joe Biden, en disant qu’il est un pédophile, alors nous ignorons la raison pour laquelle une information comme celle-ci serait résonnante », Alice Marwick, une média- professeur d’études à l’Université de Caroline du Nord à Chapel Hill, m’a dit. Et affirmer que les nouvelles technologies, qu’il s’agisse des médias sociaux ou de l’IA, sont principalement ou uniquement responsables de déformer la vérité risque de réifier le pouvoir des publicités, des algorithmes et des flux de Big Tech pour déterminer nos pensées et nos sentiments. Comme l’a écrit le journaliste Joseph Bernstein : « C’est un modèle de cause à effet dans lequel les informations diffusées par quelques entreprises ont tout le pouvoir de justifier les croyances et les comportements du démos. D’une certaine manière, ce monde est une sorte de confort. Facile à expliquer, facile à modifier et facile à vendre. »

L’histoire la plus compliquée pourrait être liée au fait que les humains, et peut-être les machines, ne sont pas toujours très rationnels ; avec ce qu’il faudrait peut-être faire pour qu’écrire l’histoire ne soit plus une guerre. L’historienne Jill Lepore a déclaré que « la note de bas de page a sauvé Wikipédia », suggérant que l’approvisionnement transparent a aidé le site Web à devenir, ou du moins à sembler être, une source de premier plan pour des informations assez fiables. Mais peut-être que maintenant la note de bas de page, cette impulsion et cet élan de vérification, est sur le point de couler Internet, si ce n’est pas déjà fait.



[ad_2]

Source link -30