Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
L’ENISA, l’agence européenne de cybersécurité, a averti que de nouveaux modèles d’IA puissants pourraient devenir un facteur perturbateur lors des élections européennes de juin prochain, car des acteurs malveillants pourraient les utiliser pour mener des campagnes de manipulation d’informations à grande échelle.
L’avertissement fait partie du paysage des menaces 2023, dans lequel l’agence de cybersécurité fait chaque année le point sur l’évolution des tendances. L’accent est mis sur d’éventuelles perturbations liées aux chatbots IA, comme le célèbre ChatGPT et toute forme de manipulation d’informations alimentée par l’IA.
« La confiance dans le processus électoral européen dépendra essentiellement de notre capacité à nous appuyer sur des infrastructures cybersécurisées ainsi que sur l’intégrité et la disponibilité des informations. Il nous appartient désormais de veiller à prendre les mesures nécessaires pour atteindre cet objectif sensible mais essentiel pour nos démocraties », a déclaré le directeur exécutif de l’ENISA, Juhan Lepassaar, dans un communiqué.
La crainte que de nouveaux modèles d’IA puissants puissent être utilisés pour perturber les processus électoraux n’est pas propre à l’Europe. À l’approche des élections aux États-Unis et au Royaume-Uni, les experts ont mis en garde contre le risque de voir des images ou des vidéos créées par l’IA devenir virales et contre les robots de propagande alimentés par l’IA.
Les modèles d’IA sont particulièrement pertinents pour la manipulation psychologique, appelée ingénierie sociale, grâce à leur capacité à produire des textes de type humain ou des images et vidéos d’apparence authentique remplaçant l’image d’une personne par une autre, appelées deepfakes.
Le rapport de l’ENISA note que, depuis la publication publique de ChatGPT [the early demo version in November 2022]L’intelligence artificielle a été le principal moteur d’innovation en matière d’ingénierie sociale, notamment grâce à la capacité de la technologie à produire un texte qui imite une source légitime, ainsi qu’à effectuer du clonage de voix et de l’exploration de données alimentée par l’IA.
En mars, Euractiv a rapporté qu’une autre agence européenne, Europol, chargée de l’application de la loi, avait souligné les utilisations criminelles potentielles des systèmes d’IA générative comme ChatGPT pour la fraude en ligne et d’autres cybercrimes.
L’ENISA a écrit que « la tendance suggère que l’IA générative offre aux acteurs de la menace un moyen de créer des attaques sophistiquées et ciblées à grande vitesse et à grande échelle », ajoutant qu’elle anticipe « des attaques d’ingénierie sociale plus ciblées utilisant la technologie basée sur l’IA à l’avenir ».
Le clonage vocal, processus de reproduction synthétique de la voix d’une personne à partir de quelques secondes seulement de vidéos publiées sur les réseaux sociaux, est mentionné comme une menace croissante. Par exemple, cela pourrait être utilisé pour simuler la voix d’un membre de la famille et demander une rançon, ou pour dénigrer publiquement un homme politique.
« L’adoption révolutionnaire de l’IA générative et des chatbots IA modifie rapidement le paysage des menaces, où la capacité de détecter le contenu généré par l’IA ou les interactions basées sur l’IA devient une question urgente », prévient le rapport.
Les chatbots basés sur l’IA, comme ChatGPT d’OpenAI et Bard de Google, pourraient également être soumis à une manipulation des ensembles de données, par exemple pour donner une mauvaise image d’un concurrent commercial ou politique dans les réponses du système.
Pendant ce temps, les décideurs politiques de l’UE ont finalisé la loi sur l’IA, la première réglementation globale au monde sur l’intelligence artificielle. Cependant, la manière de gérer l’IA générative et les deepfakes reste un débat très ouvert.
La question des deepfakes est apparue sur le devant de la scène en Espagne, pays qui assure actuellement la présidence tournante du Conseil de l’UE, après que la technique de manipulation d’images a été utilisée pour produire de fausses photos nues d’adolescentes.
Le premier test d’une élection deepfake s’est produit plus tôt cette année en Turquie, où l’un des principaux candidats à l’élection présidentielle s’est retiré de la course après qu’une sex tape manipulée soit devenue virale.
[Edited by Zoran Radosavljevic]