Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Taipei, Taiwan – «Le rêve américain. On dit que c’est pour tous, mais est-ce vraiment le cas ?
Ainsi commence une vidéo d’animation de 65 secondes générée par l’IA qui aborde des questions brûlantes aux États-Unis, allant de la toxicomanie et des taux d’emprisonnement à l’inégalité croissante des richesses.
Alors que les nuages d’orage se rassemblent sur un paysage urbain ressemblant à la ville de New York, les mots « AMERICAN DREAM » sont suspendus dans un ciel qui s’assombrit à la fin de la vidéo.
Le message est clair : malgré leurs promesses d’une vie meilleure pour tous, les États-Unis sont en phase terminale de déclin.
La vidéo, intitulée American Dream ou American Mirage, est l’un des nombreux segments diffusés par la chaîne de télévision publique chinoise CGTN – et largement partagés sur les réseaux sociaux – dans le cadre de sa série animée A Fractured America.
D’autres vidéos de la série contiennent des titres similaires qui évoquent des images d’une société dystopique, comme Les travailleurs américains en tumulte : Le résultat d’un déséquilibre politique et économique, et Démasquer la menace réelle : le complexe militaro-industriel américain.
Outre leur message anti-américain strident, les vidéos partagent toutes la même esthétique hyper-stylisée générée par l’IA et un son étrange généré par ordinateur.
CGTN et l’ambassade de Chine à Washington, DC n’ont pas répondu aux demandes de commentaires.
Les travailleurs américains dans le tumulte : le résultat d’un déséquilibre politique et économique #PremièreVoix pic.twitter.com/JMYTyN8P2O
– CGTN (@CGTNOfficial) 17 mars 2024
La série Fractured America n’est qu’un exemple de la façon dont l’intelligence artificielle (IA), avec sa capacité à générer du multimédia de haute qualité avec un minimum d’effort en quelques secondes, commence à façonner les efforts de propagande de Pékin pour saper la position des États-Unis dans le monde.
Henry Ajder, un expert britannique en IA générative, a déclaré que même si la série CGTN ne tente pas de se faire passer pour une véritable vidéo, elle constitue un exemple clair de la façon dont l’IA a rendu la production de contenu beaucoup plus facile et moins coûteuse.
« La raison pour laquelle ils ont procédé de cette manière est que vous pourriez embaucher un animateur et un artiste voix off pour le faire, mais cela finirait probablement par prendre plus de temps. Cela finirait probablement par coûter plus cher », a déclaré Ajder à Al Jazeera.
« Il s’agit d’un moyen moins coûteux de développer la création de contenu. Lorsque vous pouvez assembler tous ces différents modules, vous pouvez générer des images, vous pouvez animer ces images, vous pouvez générer uniquement une vidéo à partir de zéro. Vous pouvez générer une synthèse vocale assez convaincante et à consonance humaine. Vous disposez donc de tout un pipeline de création de contenu, automatisé ou du moins généré de manière hautement synthétique.
La Chine exploite depuis longtemps l’énorme portée et la nature sans frontières d’Internet pour mener des campagnes d’influence à l’étranger.
L’énorme armée chinoise de trolls sur Internet, connue sous le nom de « wumao », est devenue connue il y a plus de dix ans pour avoir inondé les sites Web de points de discussion du Parti communiste chinois.
Depuis l’avènement des médias sociaux, les efforts de propagande de Pékin se sont tournés vers des plateformes comme X et Facebook et des influenceurs en ligne.
Alors que les manifestations Black Lives Matter ont balayé les États-Unis en 2020 après le meurtre de George Floyd, les comptes de médias sociaux gérés par l’État chinois ont exprimé leur soutien, même si Pékin a limité les critiques sur son bilan de discrimination contre les minorités ethniques comme les musulmans ouïgours dans son pays.
« Je ne peux pas respirer. » pic.twitter.com/UXHgXMT0lk
– Hua Chunying 华春莹 (@SpokespersonCHN) 30 mai 2020
Dans un rapport de l’année dernière, le Centre d’analyse des menaces de Microsoft a déclaré que l’IA avait facilité la production de contenu viral et, dans certains cas, rendu plus difficile l’identification du matériel produit par un acteur étatique.
Les acteurs chinois soutenus par l’État déploient du contenu généré par l’IA depuis au moins mars 2023, a déclaré Microsoft, et un tel « contenu visuel de relativement haute qualité a déjà suscité des niveaux d’engagement plus élevés de la part des utilisateurs authentiques des médias sociaux ».
« Au cours de l’année écoulée, la Chine a perfectionné une nouvelle capacité à générer automatiquement des images qu’elle peut utiliser pour des opérations d’influence destinées à imiter les électeurs américains de tout le spectre politique et à créer des controverses sur des critères raciaux, économiques et idéologiques », indique le rapport.
« Cette nouvelle capacité est alimentée par l’intelligence artificielle qui tente de créer un contenu de haute qualité qui pourrait devenir viral sur les réseaux sociaux aux États-Unis et dans d’autres démocraties. »
Microsoft a également identifié plus de 230 employés des médias d’État se faisant passer pour des influenceurs sur les réseaux sociaux, avec la capacité d’atteindre 103 millions de personnes dans au moins 40 langues.
Leurs arguments suivaient un scénario similaire à celui de la série de vidéos CGTN : la Chine est en plein essor et remporte la compétition pour la suprématie économique et technologique, tandis que les États-Unis se dirigent vers l’effondrement et perdent leurs amis et alliés.
Alors que les modèles Al comme Sora d’OpenAI produisent des vidéos, des images et du son de plus en plus hyperréalistes, le contenu généré par l’IA va devenir plus difficile à identifier et stimuler la prolifération des deepfakes.
L’astroturfing, pratique consistant à créer l’apparence d’un large consensus social sur des questions spécifiques, pourrait connaître une « amélioration révolutionnaire », selon un rapport publié l’année dernière par RAND, un groupe de réflexion en partie financé par le gouvernement américain.
La série de vidéos CGTN, même si elle utilise parfois une grammaire maladroite, fait écho à de nombreuses plaintes partagées par les citoyens américains sur des plateformes telles que X, Facebook, TikTok, Instagram et Reddit – des sites Web qui sont récupérés par des modèles d’IA pour les données de formation.
Microsoft a déclaré dans son rapport que même si l’émergence de l’IA ne rend pas plus ou moins probable la perspective d’une ingérence de Pékin dans l’élection présidentielle américaine de 2024, « elle rend très probablement toute ingérence potentielle dans les élections plus efficace si Pékin décide de s’impliquer ». .
Les États-Unis ne sont pas le seul pays préoccupé par la perspective de contenus générés par l’IA et d’astroturf alors qu’ils se dirigent vers une année électorale tumultueuse.
D’ici fin 2024, plus de 60 pays auront organisé des élections qui auront touché 2 milliards d’électeurs au cours d’une année record pour la démocratie.
Parmi eux se trouve la démocratie taïwanaise, qui a élu un nouveau président, William Lai Ching-te, le 13 janvier.
Taiwan, comme les États-Unis, est une cible fréquente des opérations d’influence de Pékin en raison de son statut politique controversé.
Pékin revendique Taiwan et ses îles périphériques comme faisant partie de son territoire, bien qu’il fonctionne comme un État indépendant de facto.
À l’approche des élections de janvier, plus de 100 vidéos deepfakes de faux présentateurs de nouvelles attaquant la présidente taïwanaise sortante, Tsai Ing-wen, ont été attribuées au ministère chinois de la Sécurité d’État, a rapporté le Taipei Times, citant des sources de sécurité nationale.
Tout comme la série de vidéos CGTN, les vidéos manquaient de sophistication, mais montraient comment l’IA pouvait contribuer à diffuser de la désinformation à grande échelle, a déclaré Chihhao Yu, codirecteur du Centre de recherche sur l’environnement de l’information de Taiwan (IORG).
Yu a déclaré que son organisation avait suivi la diffusion du contenu généré par l’IA sur LINE, Facebook, TikTok et YouTube pendant les élections et avait constaté que le contenu audio généré par l’IA était particulièrement populaire.
« [The clips] sont souvent diffusés via les réseaux sociaux et présentés comme des fuites/enregistrements secrets de personnalités politiques ou de candidats concernant des scandales d’affaires personnelles ou de corruption », a déclaré Yu à Al Jazeera.
L’audio Deepfake est également plus difficile à distinguer pour les humains de la réalité, par rapport aux images falsifiées ou générées par l’IA, a déclaré Ajder, l’expert en IA.
Dans une affaire récente au Royaume-Uni, où des élections générales sont attendues au second semestre 2024, le chef de l’opposition Keir Starmer a été présenté dans un clip audio deepfake semblant le montrer en train d’insulter verbalement des membres du personnel.
Une fausse déclaration aussi convaincante aurait été impossible auparavant sans un « impressionniste impeccable », a déclaré Ajder.
« Les acteurs alignés ou affiliés à l’État qui ont des motivations – ils ont des choses qu’ils essaient potentiellement de réaliser – disposent désormais d’un nouvel outil pour essayer d’y parvenir », a déclaré Ajder.
« Et certains de ces outils les aideront simplement à faire évoluer les choses qu’ils faisaient déjà. Mais dans certains contextes, cela pourrait bien les aider à atteindre ces objectifs, en utilisant des moyens complètement nouveaux, auxquels les gouvernements ont déjà du mal à répondre.