Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsWASHINGTON (AP) – Les ingénieurs en informatique et les politologues à la pointe de la technologie ont averti pendant des années que des outils d’intelligence artificielle puissants et bon marché permettraient bientôt à quiconque de créer de fausses images, vidéo et audio suffisamment réalistes pour tromper les électeurs et peut-être influencer une élection.Les images synthétiques qui ont émergé étaient souvent grossièrespeu convaincant et coûteux à produire, surtout lorsque d’autres types de désinformation étaient si peu coûteux et faciles à diffuser sur les réseaux sociaux. La menace posée par l’IA et les soi-disant deepfakes semblait toujours un an ou deux loin. Pas plus. Des outils sophistiqués d’IA générative peuvent désormais créer des voix humaines clonées et des images hyperréalistes, vidéos et audio en quelques secondes, à moindre coût. Lorsqu’il est attaché à de puissants algorithmes de médias sociaux, ce faux contenu créé numériquement peut se propager loin et rapidement et cibler des publics très spécifiques, amenant potentiellement les sales tours de la campagne à un nouveau plus bas.Les implications pour les campagnes et les élections de 2024 sont aussi importantes que troublantes : l’IA générative peut non seulement produire rapidement des e-mails, des SMS ou des vidéos de campagne ciblés, mais elle pourrait également être utilisée pour induire les électeurs en erreur.se faire passer pour des candidats et saper les élections à une échelle et à une vitesse encore jamais vues. »Nous ne sommes pas préparés à cela », a averti AJ Nash, vice-président du renseignement de la société de cybersécurité ZeroFox. « Pour moi, le grand bond en avant réside dans les capacités audio et vidéo qui ont émergé. Quand vous pouvez le faire à grande échelle et le distribuer sur les plateformes sociales, eh bien, cela va avoir un impact majeur.Experts en IA peut rapidement déclencher un certain nombre de scénarios alarmants dans lesquels l’IA générative est utilisée pour créer des médias synthétiques dans le but de semer la confusion dans l’esprit des électeurs, de calomnier un candidat ou même d’inciter à la violence.En voici quelques-uns : messages automatisés d’appel automatisé, dans la voix d’un candidat, demandant aux électeurs de voter à la mauvaise date ; des enregistrements audio d’un candidat supposé avoir avoué un crime ou exprimé des opinions racistes ; séquence vidéo montrant une personne prononçant un discours ou une interview ils n’ont jamais donné. De fausses images conçues pour ressembler à des reportages locaux, affirmant à tort qu’un candidat a abandonné la course. »Et si Elon Musk vous appelle personnellement et vous dit de voter pour un certain candidat ? » a déclaré Oren Etzioni, PDG fondateur de l’Allen Institute for AI, qui a démissionné l’année dernière pour lancer l’AI2 à but non lucratif. «Beaucoup de gens écouteraient. Mais ce n’est pas lui. »L’ancien président Donald Trump, qui se présente en 2024, a partagé du contenu généré par l’IA avec ses abonnés sur les réseaux sociaux. Une vidéo manipulée de l’animateur de CNN Anderson Cooper que Trump a partagée sur sa plateforme Truth Social vendredi, ce qui a déformé la réaction de Cooper à la mairie de CNN la semaine dernière avec Trumpa été créé à l’aide d’un outil de clonage de voix basé sur l’IA.Une publicité de campagne dystopique publiée le mois dernier par le Comité national républicain offre un autre aperçu de cet avenir manipulé numériquement. L’annonce en ligne, qui est intervenue après que le président Joe Biden a annoncé sa campagne de réélectionet commence par une image étrange et légèrement déformée de Biden et du texte « Et si le président le plus faible que nous ayons jamais eu était réélu ?Une série d’images générées par l’IA suit : Taiwan sous attaque ; des devantures de magasins fermées aux États-Unis alors que l’économie s’effondre; des soldats et des véhicules militaires blindés patrouillant dans les rues locales alors que des criminels tatoués et des vagues d’immigrants créent la panique. »Un regard généré par l’IA sur l’avenir possible du pays si Joe Biden est réélu en 2024″, lit la description de l’annonce du RNC.Le RNC a reconnu son utilisation de l’IA, mais d’autres, y compris des campagnes politiques infâmes et des adversaires étrangers, ne le feront pas, a déclaré Petko Stoyanov, directeur mondial de la technologie chez Forcepoint, une société de cybersécurité basée à Austin, au Texas. Stoyanov a prédit que les groupes cherchant à se mêler de la démocratie américaine utiliseront l’IA et les médias synthétiques comme moyen d’éroder la confiance. »Que se passe-t-il si une entité internationale – un cybercriminel ou un État-nation – se fait passer pour quelqu’un. Quel est l’impact ? Avons-nous un recours ? dit Stoyanov. « Nous allons voir beaucoup plus de désinformation provenant de sources internationales. »La désinformation politique générée par l’IA est déjà devenue virale en ligne avant les élections de 2024, à partir d’une vidéo trafiquée de Biden semblant prononcer un discours attaquant les personnes transgenres à des images d’enfants générées par l’IA soi-disant apprendre le satanisme dans les bibliothèques.Des images d’IA semblant montrer la photo d’identité de Trump a également trompé certains utilisateurs de médias sociaux, même si l’ancien président n’en a pas pris lorsqu’il a été arrêté et traduit devant un tribunal pénal de Manhattan pour avoir falsifié des documents commerciaux. D’autres images générées par l’IA ont montré que Trump résistait à son arrestationmême si leur créateur n’a pas tardé à reconnaître leur origine.Une législation qui obligerait les candidats à étiqueter les publicités de campagne créées avec l’IA a été présentée à la Chambre par la représentante Yvette Clarke, DN.Y., qui a également parrainé une législation qui obligerait toute personne créant des images synthétiques à ajouter un filigrane indiquant le fait. Certains États ont proposé leurs propres propositions pour répondre aux préoccupations concernant les deepfakes.Clarke a déclaré que sa plus grande crainte est que l’IA générative puisse être utilisée avant les élections de 2024 pour créer une vidéo ou un son qui incite à la violence et monte les Américains les uns contre les autres. »Il est important que nous suivions la technologie », a déclaré Clarke à l’Associated Press. « Nous devons mettre en place des garde-corps. Les gens peuvent être trompés, et cela ne prend qu’une fraction de seconde. Les gens sont occupés par leur vie et ils n’ont pas le temps de vérifier chaque élément d’information. L’IA étant militarisée, dans une saison politique, cela pourrait être extrêmement perturbateur.Plus tôt ce mois-ci, une association professionnelle de consultants politiques à Washington a condamné l’utilisation de deepfakes dans la publicité politique, les qualifiant de « tromperie » sans « aucune place dans des campagnes légitimes et éthiques ». D’autres formes d’intelligence artificielle sont depuis des années une caractéristique des campagnes politiques, utilisant des données et des algorithmes pour automatiser des tâches telles que le ciblage des électeurs sur les réseaux sociaux ou la recherche de donateurs. Les stratèges de campagne et les entrepreneurs technologiques espèrent que les innovations les plus récentes offriront également des avantages en 2024.Mike Nellis, PDG de l’agence numérique progressiste Authentic, a déclaré qu’il utilise ChatGPT « tous les jours » et encourage son personnel à l’utiliser également, tant que tout contenu rédigé avec l’outil est ensuite examiné par des yeux humains.Le dernier projet de Nellis, en partenariat avec Higher Ground Labs, est un outil d’IA appelé Quiller. Il rédigera, enverra et évaluera l’efficacité des e-mails de collecte de fonds – toutes des tâches généralement fastidieuses sur les campagnes. »L’idée est que chaque stratège démocrate, chaque candidat démocrate aura un copilote dans sa poche », a-t-il déclaré.___Swenson a rapporté de New York.___L’Associated Press reçoit le soutien de plusieurs fondations privées pour améliorer sa couverture explicative des élections et de la démocratie. En savoir plus sur l’initiative démocratique d’AP ici. L’AP est seul responsable de tout le contenu.___Suivez la couverture de la désinformation par l’AP sur https://apnews.com/hub/misinformation et couverture de l’intelligence artificielle sur https://apnews.com/hub/artificial-intelligence
Source link -57