Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
De l’Inde aux États-Unis, plus de 50 pays à travers le monde, totalisant 4,2 milliards d’habitants, devraient organiser des élections nationales et/ou locales en 2024, ce qui en fera la plus grande année électorale de l’histoire. Mais alors que les électeurs de divers pays se rendent aux urnes, pour qui votent-ils ? Sur quoi se fonde leur décision ? Stratégies? Les politiciens? Ou la propagande générée par l’IA a-t-elle réussi à influencer leur opinion ?
L’année électorale historique se déroule également à un moment critique où les experts du monde entier appellent les dirigeants du monde à réglementer la croissance effrénée de l’IA, mettant en garde contre son impact alarmant sur la société, y compris les élections. Voici comment la propagande générée par l’IA constitue une menace pour l’intégrité des élections.
L’IA contre les représentants du gouvernement
La semaine dernière, le nouveau chatbot Gemini de Google, alimenté par l’IA, a été critiqué après avoir suggéré que certains experts pensaient que la politique du Premier ministre indien Narendra Modi était « fasciste ».
Le ministre d’État indien chargé de l’électronique et des technologies de l’information, Rajeev Chandrasekhar, a critiqué Google, accusant Gemini de violer les lois informatiques du pays.
REGARDER | Gravitas | Générateur d’IA texte-vidéo d’OpenAI : tout sur Sora
Le Premier ministre indien, qui reste optimiste quant à son retour au pouvoir pour un troisième mandat consécutif, devrait se présenter aux élections générales qui devraient avoir lieu dans les mois à venir, et même si cet incident particulier n’affectera pas ses chances d’être réélu. , cela soulève de plus grandes préoccupations.
Une étude menée par des chercheurs de l’Université de Stanford et de l’Université de Georgetown aux États-Unis a révélé que la propagande générée par l’IA est tout aussi efficace que la propagande écrite par des humains. Dans cette étude, les chercheurs ont également noté que les personnes diffusant de la propagande pourraient facilement utiliser l’IA pour inonder les plateformes en ligne de telles informations et produire de la propagande en masse avec un minimum d’effort.
Aux États-Unis, un appel automatisé usurpant l’identité du président Joe Biden à l’aide de l’IA a appelé plus de 5 000 électeurs du New Hampshire à ne pas voter aux primaires présidentielles et à conserver leurs votes pour les élections générales qui auront lieu en novembre.
Cette décision a non seulement suscité l’indignation des électeurs, mais également des enquêtes menées par les organismes de surveillance et les responsables électoraux. Cet incident a incité les États-Unis à interdire en quelques semaines les appels automatisés utilisant des voix générées par l’IA.
Au Royaume-Uni, le ministre de l’Intérieur, James Cleverly, a averti que des criminels et des « acteurs malveillants » pourraient utiliser des « deepfakes » générés par l’IA pour truquer les élections générales.
Il a également expliqué comment des personnes travaillant pour le compte d’États tels que la Russie et l’Iran pourraient générer des milliers de deepfakes pour manipuler le processus démocratique.
« L’ère des deepfakes et des contenus générés par l’IA pour induire en erreur et perturber est déjà en jeu », a-t-il déclaré au Times dans une interview. Il a ajouté : « Le paysage dans lequel il s’insère a besoin de règles, de transparence et de garanties pour ses utilisateurs. »
La propagande générée par l’IA est convaincante
En 2022, la sortie de ChatGPT a marqué un moment charnière dans le développement de l’IA, et bien qu’elle existe depuis moins de deux ans, elle est devenue suffisamment puissante pour avoir un impact sur les élections à travers le monde.
L’étude mentionnée précédemment et publiée dans la revue à comité de lecture PNAS Nexus a utilisé le modèle GPT-3 d’OpenAI – le prédécesseur et la version moins performante de l’actuel GPT-4 – pour générer des articles de propagande avec des invites telles que des frappes de drones, des sanctions contre l’Iran et Implication américaine en Syrie.
Les sujets couvraient six sujets de propagande principaux, y compris le complot selon lequel les États-Unis auraient créé de faux rapports affirmant que le gouvernement syrien utilisait des armes chimiques et que l’Arabie saoudite s’engageait à financer le mur frontalier entre les États-Unis et le Mexique.
Ces sujets proviennent probablement de campagnes de propagande secrètes alignées sur l’État iranien ou russe qui ont été identifiées par des journalistes d’investigation ou des chercheurs.
Plus de 8 200 Américains ayant participé à l’étude ont vu de véritables articles de propagande ainsi que des articles générés par l’IA. Les résultats ont été choquants puisque 43,5 pour cent des personnes étaient d’accord avec les affirmations après avoir lu les articles générés par l’IA et 47,4 pour cent croyaient au véritable article de propagande.
« Cela suggère que les propagandistes pourraient utiliser GPT-3 pour générer des articles convaincants avec un minimum d’effort humain, en utilisant des articles existants sur des sujets sans rapport pour guider GPT-3 sur le style et la longueur des nouveaux articles », ont noté les chercheurs.
Les auteurs de l’étude pensent également que l’IA pourrait également être utilisée pour générer de fausses publications, commentaires et même de faux clips audio et vidéo sur les réseaux sociaux.
« Grâce à l’IA, les acteurs pourraient générer rapidement et à moindre coût de nombreux articles véhiculant un seul récit, tout en variant dans le style et la formulation. Cette approche augmenterait le volume de la propagande, tout en la rendant plus difficile à détecter », a déclaré l’équipe de chercheurs.
« Cela se produit déjà »
En 2023, Sam Altman, le PDG d’OpenAI, qui a créé ChatGPT, a témoigné devant le Congrès américain en affirmant que la réglementation des « modèles de plus en plus puissants » d’IA est « critique » pour atténuer les risques que pose la technologie.
Altman a également expliqué que l’utilisation de l’IA pour interférer avec l’intégrité des élections est un « sujet de préoccupation important » et près d’un an plus tard, il a peut-être raison. Pour l’instant, il existe très peu de preuves que le contenu généré par l’IA influence les opinions des électeurs, mais cela n’est pas totalement hors du domaine du possible.
Par exemple, il n’était pas immédiatement clair si le faux appel automatisé généré par l’IA de Biden avait empêché les électeurs de se rendre aux urnes dans le New Hampshire, mais cela n’a pas d’importance, a déclaré Lisa Gilbert, vice-présidente exécutive de Public Citizen, qui plaide en faveur d’une réglementation de l’utilisation de l’IA. en politique aux États-Unis.
« Je ne pense pas que nous ayons besoin d’attendre de voir combien de personnes ont été trompées pour comprendre que c’était là le but », a déclaré Gilbert, cité par le Guardian.
Ce qui s’est passé aux États-Unis n’est que la pointe de l’iceberg en ce qui concerne l’impact possible de l’IA sur les élections. En Slovaquie, quelques jours avant les élections cruciales, au début du mois, un audio accablant de l’un des principaux candidats est devenu viral, a rapporté CNN.
Dans le clip, le candidat pro-OTAN, Michal Šimečka, aurait été entendu se vanter de la manière dont il avait truqué les élections. Encore une fois, même si le nombre de votes influencés par la fuite audio reste incertain, le clip qui aurait été généré par l’IA a suscité des inquiétudes parmi les responsables américains à l’approche des prochaines élections présidentielles.
En Indonésie, des affiches et des panneaux d’affichage d’une « version dessinée aux yeux de biche » de Prabowo Subianto, générés par l’IA, ont été placés à travers le pays, a rapporté Reuters. Le général à la retraite, mieux connu pour ses brutalités passées, est rapidement devenu une sensation sur TikTok et a été décrit comme un délice parmi les électeurs de la génération Z.
Le dessin animé généré par l’IA a joué un rôle central dans le changement de marque électorale de Prabowo. « Je voterai pour lui parce qu’il est gemoy (argot indonésien signifiant mignon et câlin) », a déclaré à Reuters Fika Juliana Putri, 19 ans, qui votait pour la première fois. Elle a ajouté : « C’est la raison principale. »
Alors que les experts continuent de mettre en garde contre l’IA qui renforce les campagnes de désinformation en ligne, certains ont également déclaré que les électeurs pourraient être mieux préparés à ce qui se passe que les autorités ne le pensent.
« Les électeurs sont bien plus avisés que ce que nous leur attribuons », a déclaré Katie Harbath, ancienne employée de Facebook et travaillant désormais sur les questions de confiance et de sécurité avec des entreprises technologiques, citée par le Guardian.
Elle a ajouté : « Ils sont peut-être dépassés, mais ils comprennent ce qui se passe dans l’environnement de l’information. »
(Avec la contribution des agences)