Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
NLa prochaine année sera une année exceptionnelle pour la démocratie dans le monde, avec des élections générales en Inde, au Mexique et au Parlement européen, ainsi que des élections présidentielles aux États-Unis, au Venezuela et à Taïwan. Avec des élections générales au Royaume-Uni qui se tiendront également au plus tard le 28 janvier 2025, une proportion importante de la population mondiale se rendra aux urnes.
Mais ce raz-de-marée d’activité politique marquera également le premier cycle électoral majeur à l’ère de l’IA générative généralisée. Les rangées de « fausses nouvelles » de ces dernières années seront intensifiées et accélérées d’une manière que nous commençons à peine à imaginer.
C’est ma prédiction : la perturbation majeure apportée par cette génération d’IA sera de nuire davantage à la façon dont les citoyens pensent des informations qu’ils voient. Il semble presque inévitable que nous verrons des scandales de candidats politiques accusés d’utiliser l’IA pour générer leur contenu, même s’ils ne l’ont pas fait. Les gens remettront tout en question, feront moins confiance et s’éteindront. Ce modèle, souvent exploité dans des campagnes de désinformation, non seulement trompe mais crée le chaos, de sorte que les gens ne savent pas à quoi se fier. Quand tant de choses sont discutables, ils renoncent simplement à essayer de distinguer les faits de la fiction.
Il y a des choses qui peuvent être faites par d’autres pour s’attaquer à la véracité du contenu, comme la Content Authenticity Initiative, une organisation qui cherche à établir des normes afin que la provenance des informations puisse être vérifiée. Les salles de rédaction élaborent des codes et des politiques sur la manière dont elles utiliseront ou non l’IA générative dans leur propre travail.
Les partis politiques devraient montrer l’exemple et s’engager à faire preuve de transparence sur la manière dont ils utilisent l’IA générative en publiant des politiques ouvertes et accessibles avant les périodes électorales. Il y a déjà eu un tollé aux États-Unis à propos d’une publicité politique républicaine générée par l’IA – et des critiques, notamment du Center for Countering Digital Hate, sur le manque d’engagement des partis politiques à s’attaquer de front au problème.
Cela ne s’est pas encore produit au Royaume-Uni, mais il y a de fortes chances que ce soit le cas. Cela pourrait être des images générées par l’IA de candidats faisant des choses héroïques qui ne se sont jamais produites. Ou il peut s’agir d’annonces d’attaque qui sont simplement inventées. À un moment donné, un candidat politique prononcera un discours écrit avec ChatGPT (un chatbot d’IA) contenant des statistiques « hallucinées ».
Au-delà des partis politiques, les risques persistent : les femmes politiques qui sont déjà quotidiennement confrontées à la haine en ligne verront circuler des images sexualisées manipulées d’elles-mêmes, telles que des deepfakes pornographiques. Ou des acteurs extérieurs cherchant à renverser la démocratie pourraient créer des «fermes de contenu» d’IA, inondant les médias sociaux d’informations fausses ou trompeuses sur les élections.
Les partis au Royaume-Uni devraient en prendre note, se démarquer des acteurs en ligne néfastes et anticiper les scandales inévitables en nous disant comment ils vont déployer l’IA. À tout le moins, l’élaboration de telles politiques leur fera considérer les risques maintenant, avant qu’il ne soit trop tard.
Pour trouver des solutions durables, nous devons comprendre que notre problème est bien plus profond que l’incapacité des citoyens à identifier de manière fiable quelles informations sont correctes. Les mécanismes par lesquels l’information est produite, distribuée et consommée nous sont de plus en plus opaques.
Auparavant, le mécanisme caché en question concernait la manière dont les plateformes de médias sociaux incitent, organisent et distribuent l’information : le fonctionnement mystérieux de « l’algorithme ». Nous retenons tous ces problèmes, et plus encore, avec une adoption massive potentielle de technologies d’IA génératives dont les propriétaires ne sont pas ouverts sur la façon dont elles ont été développées.
Sans transparence sur la façon dont ils ont été conçus, sur quelles données ils ont été formés et comment ils ont été affinés, nous n’avons aucun moyen de savoir ce qui motive les sorties d’informations que ces outils offrent et donc à quel point nous pouvons nous fier à eux. Au lieu de donner aux citoyens les moyens de s’engager de manière critique avec ces outils, nous comptons sur la parole des entreprises technologiques quant aux avantages et aux risques. Les entreprises technologiques détiennent tout le pouvoir et n’ont aucun compte à rendre.
L’Autorité de la concurrence et des marchés au Royaume-Uni examine actuellement le marché de l’IA en tenant compte des dangers de la consommation d’informations fausses ou trompeuses, la Federal Trade Commission aux États-Unis menant un exercice similaire. Les risques sont clairement dans l’esprit des régulateurs et des décideurs, ce qui est un pas dans la bonne direction. Mais nous n’avons pas encore découvert comment mettre en place une réglementation numérique efficace – et la question devient de plus en plus urgente.
Les élections de 2024 offrent un test décisif pour décider qui contrôle : les citoyens et leurs gouvernements démocratiquement élus ou les grandes technologies. Nous devons de toute urgence nous attaquer à l’impact de l’IA sur la politique avant qu’elle ne se produise, plutôt que lorsque les choses tournent mal. Les partis politiques britanniques pourraient jouer leur rôle en s’assurant qu’ils sont transparents quant à leur utilisation de ces outils.