Customize this title in frenchDavos : les leaders technologiques réfléchissent à une solution à la falsification des élections en ligne

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Afin de maintenir l’intégrité en ligne au cours d’une année chargée en élections dans le monde, les dirigeants du secteur technologique réunis à Davos ont débattu mardi soir (16 janvier) de l’essor récent de l’IA et de ses implications en matière de campagnes trompeuses et de contenus trompeurs à l’approche des élections.

Cette semaine, des dirigeants mondiaux, des innovateurs, des entrepreneurs et d’éminents universitaires se réunissent pour discuter des problèmes mondiaux les plus urgents au Forum économique mondial de Davos. Une partie de l’ordre du jour de cette année était un échange sur les implications de l’IA pour la démocratie.

Alors que quatre milliards de personnes se rendront aux urnes cette année, la désinformation et la désinformation sur Internet peuvent avoir un impact significatif sur les résultats des élections dans cinq des plus grandes démocraties du monde.

L’essor de l’intelligence artificielle y joue un rôle important, soit en tant qu’amplificateur de menace, soit en tant qu’outil permettant de vérifier les informations.

Amplificateur de menace ou solution de problème ?

« Lors des cycles électoraux précédents, nous avons vu des appels automatisés. Nous avons vu des campagnes automatisées par SMS qui envoient des informations incorrectes aux électeurs sur leur lieu de vote, sur le fait que leur sondage soit ouvert ou ciblé, des messages manipulés conçus pour influencer leur comportement », a déclaré Alexandra Reeve Givens, PDG de Centre pour la démocratie et la technologie.

« L’IA générative permet de cibler plus facilement cela. […] il est plus facile que jamais de proposer des messages adaptés et personnalisés », a-t-elle ajouté.

Dans le même temps, l’apprentissage automatique peut être appliqué pour prédire de nouvelles menaces. Google est l’une des entreprises technologiques qui voient encore plus de potentiel avec les grands modèles linguistiques (LLM) pour créer des systèmes d’application plus rapides et plus adaptables.

« Nous voulons être dans une position où tout ce qui est produit par notre IA générative peut être filigrané de manière si invisible, même si un extrait de vidéo ou un morceau d’image est utilisé, qu’il sera détectable automatiquement », Matthew Brittin, président. de EMEA Business & Operations pour Google, a déclaré à Euractiv.

Il a fait référence à SynthID, un outil bêta de Google DeepMind intégrant un filigrane numérique dans les images et l’audio générés par l’IA.

Réguler l’IA

On s’attend à ce que l’UE soit également confrontée à des campagnes de désinformation à l’approche des élections européennes. Cependant, le ministre tchèque des Affaires étrangères Jan Lipavský fonde de grands espoirs sur la première réglementation révolutionnaire en matière d’IA au monde, la loi européenne sur l’IA, qui en est actuellement aux dernières étapes législatives.

« Nous verrons de plus en plus de faux contenus être utilisés, ce qui perturbera le processus électoral et la manière dont la société prend ses décisions », a déclaré Lipavský.

« Honnêtement, j’aime la manière européenne. Le règlement européen sur l’IA, par exemple, s’attaquera à certains de ces problèmes », a-t-il ajouté.

Faisant référence aux autocraties qui affaiblissent l’opposition en qualifiant et en supprimant leur contenu de désinformation illégale, Reeve Givens a vu une menace potentielle dans l’abus de pouvoir des États pour réglementer la technologie.

« Je pense qu’il y a de réelles inquiétudes dans notre monde où le gouvernement peut décider si l’IA agit légalement ou non », a-t-elle déclaré.

« Voulez-vous que le PDG d’une entreprise technologique décide si l’information doit être améliorée, ou que le ministre du gouvernement décide si l’information doit être améliorée ? Aucune de ces solutions n’est idéale », a-t-elle demandé.

Qui est responsable?

La réglementation peut répondre aux menaces, mais la technologie peut également les contourner. Les cyberattaques contre un processus électoral peuvent être exécutées de n’importe où.

Pour se préparer à cette asymétrie, André Kudelski, PDG du Groupe Kudelski, a suggéré d’utiliser les technologies pour mettre en œuvre « plus de traçabilité des contenus ».

Alors que les gens recherchent des informations sur les candidats, les délais d’inscription des électeurs et les bureaux de vote locaux, Matthew Prince, PDG de CloudFlare, a fait valoir que les médias jouent un rôle central dans la vérification des faits et du contenu, avec des outils soutenus par des technologues.

Cependant, les moteurs de recherche et les plateformes de médias sociaux partagent également la responsabilité « d’aider à faire apparaître des sources d’information fiables », a ajouté Reeve Givens, critiquant certaines sociétés de médias sociaux qui ont réduit leurs investissements dans la confiance et la sécurité autour des élections.

Google a déclaré qu’il s’était consacré à l’approche des sondages pour afficher les informations gouvernementales en haut des résultats de recherche, indiquer les lieux de vote sur Google Maps, garantir des informations électorales de haute qualité sur YouTube et vérifier l’identité des annonceurs.

Le géant multinational de la technologie a également l’intention de restreindre les requêtes liées aux élections pour lesquelles le Chatbot Bard de Google et le Search Generative Experience (SGE) basé sur l’IA renverront des réponses, en donnant la priorité aux « tests des risques de sécurité allant des vulnérabilités de cybersécurité à la désinformation et à l’équité ».

En août, Bard et SGE ont été décrits pour la dernière fois dans la presse allemande comme étant encore en cours de développement et peu fiables.

Les plateformes multimédias font également partie des stratégies utilisées par les attaquants pour radicaliser la société.

« La guerre de l’information en Russie s’est déroulée en soutenant à la fois des extrémistes de gauche et de droite dans le seul but de diviser les sociétés », a ajouté Lipavský.

Pour le ministre tchèque, les entreprises doivent améliorer leur compréhension de la responsabilité sociale des entreprises afin de garantir « que leurs outils ne soient pas utilisés à mauvais escient ».

[Edited by Luca Bertuzzi/Zoran Radosavljevic]

En savoir plus avec Euractiv



Source link -57