Customize this title in frenchL’IA présente un péril politique pour 2024 avec une menace d’induire les électeurs en erreur

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words WASHINGTON— Les ingénieurs en informatique et les politologues à la pointe de la technologie préviennent depuis des années que des outils d’intelligence artificielle puissants et bon marché permettraient bientôt à quiconque de créer de fausses images, vidéos et audio suffisamment réalistes pour tromper les électeurs et peut-être influencer une élection.Les images synthétiques qui ont émergé étaient souvent brutes, peu convaincantes et coûteuses à produire, surtout lorsque d’autres types de désinformation étaient si peu coûteux et faciles à diffuser sur les réseaux sociaux. La menace posée par l’IA et les soi-disant deepfakes semblait toujours à un an ou deux. Pas plus. Des outils d’IA générative sophistiqués peuvent désormais créer des voix humaines clonées et des images, vidéos et audio hyperréalistes en quelques secondes, à un coût minime. Lorsqu’il est attaché à de puissants algorithmes de médias sociaux, ce faux contenu créé numériquement peut se propager loin et rapidement et cibler des publics très spécifiques, amenant potentiellement les sales tours de la campagne à un nouveau plus bas.Les implications pour les campagnes et les élections de 2024 sont aussi importantes que troublantes : l’IA générative peut non seulement produire rapidement des e-mails, des SMS ou des vidéos de campagne ciblés, mais elle pourrait également être utilisée pour tromper les électeurs, se faire passer pour des candidats et saper les élections à grande échelle et à une vitesse encore inconnue. »Nous ne sommes pas préparés à cela », a averti AJ Nash, vice-président du renseignement de la société de cybersécurité ZeroFox. « Pour moi, le grand bond en avant réside dans les capacités audio et vidéo qui ont émergé. Quand vous pouvez le faire à grande échelle et le distribuer sur les plateformes sociales, eh bien, cela va avoir un impact majeur.Les experts en IA peuvent rapidement évoquer un certain nombre de scénarios alarmants dans lesquels l’IA générative est utilisée pour créer des médias synthétiques dans le but de semer la confusion dans l’esprit des électeurs, de calomnier un candidat ou même d’inciter à la violence.En voici quelques-uns : messages automatisés d’appel automatisé, dans la voix d’un candidat, demandant aux électeurs de voter à la mauvaise date ; des enregistrements audio d’un candidat supposé avoir avoué un crime ou exprimé des opinions racistes ; des séquences vidéo montrant quelqu’un prononçant un discours ou une interview qu’il n’a jamais donné. De fausses images conçues pour ressembler à des reportages locaux, affirmant à tort qu’un candidat a abandonné la course. »Et si Elon Musk vous appelle personnellement et vous dit de voter pour un certain candidat ? » a déclaré Oren Etzioni, PDG fondateur de l’Allen Institute for AI, qui a démissionné l’année dernière pour lancer l’AI2 à but non lucratif. «Beaucoup de gens écouteraient. Mais ce n’est pas lui. »L’ancien président Trump, qui se présente en 2024, a partagé du contenu généré par l’IA avec ses partisans sur les réseaux sociaux. Une vidéo manipulée de l’animateur de CNN Anderson Cooper que Trump a partagée vendredi sur sa plateforme Truth Social, qui a déformé la réaction de Cooper à la mairie de CNN la semaine dernière avec Trump, a été créée à l’aide d’un outil de clonage de voix AI.Une publicité de campagne dystopique publiée le mois dernier par le Comité national républicain offre un autre aperçu de cet avenir manipulé numériquement. L’annonce en ligne, qui est venue après que le président Biden a annoncé sa campagne de réélection, et commence par une image étrange et légèrement déformée de Biden et le texte « Et si le président le plus faible que nous ayons jamais eu était réélu ?Une série d’images générées par l’IA suit : Taiwan sous attaque ; des devantures de magasins fermées aux États-Unis alors que l’économie s’effondre; des soldats et des véhicules militaires blindés patrouillant dans les rues locales alors que des criminels tatoués et des vagues d’immigrants créent la panique. »Un regard généré par l’IA sur l’avenir possible du pays si Joe Biden est réélu en 2024″, lit la description de l’annonce du RNC.Le RNC a reconnu son utilisation de l’IA, mais d’autres, y compris des campagnes politiques infâmes et des adversaires étrangers, ne le feront pas, a déclaré Petko Stoyanov, directeur mondial de la technologie chez Forcepoint, une société de cybersécurité basée à Austin, au Texas. Stoyanov a prédit que les groupes cherchant à se mêler de la démocratie américaine utiliseront l’IA et les médias synthétiques comme moyen d’éroder la confiance. »Que se passe-t-il si une entité internationale – un cybercriminel ou un État-nation – se fait passer pour quelqu’un. Quel est l’impact ? Avons-nous un recours ? dit Stoyanov. « Nous allons voir beaucoup plus de désinformation provenant de sources internationales. »La désinformation politique générée par l’IA est déjà devenue virale en ligne avant les élections de 2024, d’une vidéo trafiquée de Biden semblant prononcer un discours attaquant les personnes transgenres à des images générées par l’IA d’enfants censés apprendre le satanisme dans les bibliothèques.Des images d’IA semblant montrer la photo d’identité de Trump ont également trompé certains utilisateurs de médias sociaux, même si l’ancien président n’en avait pas pris une lorsqu’il a été arrêté et traduit devant un tribunal pénal de Manhattan pour falsification de documents commerciaux. D’autres images générées par l’IA montraient Trump résistant à l’arrestation, bien que leur créateur ait rapidement reconnu leur origine.Une législation qui obligerait les candidats à étiqueter les publicités de campagne créées avec l’IA a été présentée à la Chambre par la représentante Yvette Clarke (DN.Y.), qui a également parrainé une législation qui obligerait toute personne créant des images synthétiques à ajouter un filigrane indiquant le fait. Certains États ont proposé leurs propres propositions pour répondre aux préoccupations concernant les deepfakes.Clarke a déclaré que sa plus grande crainte est que l’IA générative puisse être utilisée avant les élections de 2024 pour créer une vidéo ou un son qui incite à la violence et monte les Américains les uns contre les autres. »Il est important que nous suivions la technologie », a déclaré Clarke à l’Associated Press. « Nous devons mettre en place des garde-corps. Les gens peuvent être trompés, et cela ne prend qu’une fraction de seconde. Les gens sont occupés par leur vie et ils n’ont pas le temps de vérifier chaque élément d’information. L’IA étant militarisée, dans une saison politique, cela pourrait être extrêmement perturbateur.Plus tôt ce mois-ci, une association professionnelle de consultants politiques à Washington a condamné l’utilisation de deepfakes dans la publicité politique, les qualifiant de « tromperie » « n’ayant pas leur place dans des campagnes légitimes et éthiques ». D’autres formes d’intelligence artificielle sont depuis des années une caractéristique des campagnes politiques, utilisant des données et des algorithmes pour automatiser des tâches telles que le ciblage des électeurs sur les réseaux sociaux ou la recherche de donateurs. Les stratèges de campagne et les entrepreneurs technologiques espèrent que les innovations les plus récentes offriront également des avantages en 2024.Mike Nellis, PDG de l’agence numérique progressiste Authentic, a déclaré qu’il utilise ChatGPT « tous les jours » et encourage son personnel à l’utiliser également, tant que tout contenu rédigé avec l’outil est ensuite examiné par des yeux humains.Le dernier projet de Nellis, en partenariat avec Higher Ground Labs, est un outil d’IA appelé Quiller. Il rédigera, enverra et évaluera l’efficacité des e-mails de collecte de fonds – toutes des tâches généralement fastidieuses pour les campagnes. »L’idée est que chaque stratège démocrate, chaque candidat démocrate aura un copilote dans sa poche », a-t-il déclaré.__L’Associated Press reçoit le soutien de plusieurs fondations privées pour améliorer sa couverture explicative des élections et de la démocratie. En savoir plus sur l’initiative démocratique d’AP ici. L’AP est seul responsable de tout le contenu.___Suivez la couverture de l’AP sur la désinformation sur https://apnews.com/hub/misinformation et la couverture de l’intelligence artificielle sur https://apnews.com/hub/artificial-intelligence

Source link -57