Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Une enquête publiée mardi 19 septembre a révélé que 71 % des citoyens allemands et 57 % des citoyens français sont préoccupés par les menaces que représentent l’IA et la technologie deepfake pour les élections.
L’enquête menée par Luminate, une organisation philanthropique fondée par Pam et Pierre Omidyar, ancien président du conseil d’administration de la plateforme de vente sur Internet eBay, révèle que plus de la moitié des citoyens allemands et français sont préoccupés par l’IA et les deepfakes qui menacent les résultats des élections.
Avec un échantillon de 1 008 Français, 2 067 Allemands et 2 156 Britanniques, l’enquête a pris en compte divers horizons politiques, régions, sexes et tranches d’âge.
En ce qui concerne la protection des données personnelles, les résultats révèlent que 81 % des citoyens français et 75 % des citoyens allemands considèrent également comme important leur droit de s’opposer au traitement des données personnelles des individus par les plateformes de médias sociaux à des fins publicitaires.
« En lisant les résultats de Luminate, les utilisateurs font preuve d’une profonde compréhension de l’impact des médias sociaux sur la démocratie. Il semble que les utilisateurs ne soient plus aussi naïfs qu’avant », explique Daniel Barredo, chercheur sur l’opinion publique et les médias à l’Université de Malaga, en Espagne.
« Il existe désormais une demande claire de protection des droits individuels », a déclaré Barredo à Euractiv.
Conséquences
Alors que 33 % des Allemands et 44 % des Français estiment que les sociétés de médias sociaux ont un impact négatif sur la démocratie, seuls 18 % et 14 % respectivement considèrent leur impact comme positif.
« Les utilisateurs sont de plus en plus conscients des acteurs et des pratiques négatives, comme la manière dont les cyber-troupes tentent d’orchestrer des campagnes de diffamation à travers des réseaux organisés de robots sociaux et de trolls, entre autres méthodes », a déclaré Barredo.
L’adoption généralisée de l’IA élargit encore l’accès à la création et à la diffusion de contenus, amplifiant potentiellement la propagation de la désinformation, a-t-il averti.
Alaphia Zoyab, directrice des campagnes et des médias chez Luminate, a déclaré : « Chaque dollar que ces riches entreprises technologiques dépensent en panneaux d’affichage nous disant qu’elles protègent les élections est un dollar gaspillé en le faisant réellement ».
Selon l’enquête, 64 % des Français et 63 % des Allemands n’ont pas le sentiment de contrôler leurs données personnelles et leur utilisation par les plateformes de réseaux sociaux.
« Au cours de la dernière décennie, les grandes entreprises technologiques ont lancé un raid à grande échelle sur nos données personnelles, ce qui alimente le boom actuel de l’IA générative. Ils n’ont jamais vraiment eu notre consentement parce qu’ils ne nous ont jamais donné de choix significatif ni de contrôle réel », a ajouté Zoyab.
Dans de nombreux cas, la désinformation est étroitement liée à ses origines institutionnelles ou organisationnelles, des acteurs malveillants propageant activement des contenus favorables à une cause nationale ou politique.
D’un autre côté, les problèmes de ressources liés à la modération peuvent amener les sociétés de médias sociaux à ne pas identifier et à supprimer suffisamment ce contenu, ce qui conduit à la prolifération d’informations trompeuses et à une restriction de la disponibilité des publicités.
Élections européennes et mesures préventives
Pour contrer la menace potentielle et le pouvoir des plateformes de médias sociaux, l’UE a introduit sa législation numérique phare, la loi sur les services numériques (DSA).
Le DSA vise notamment à obliger les plateformes de médias sociaux à lutter contre la désinformation à motivation politique, les discours de haine et les tactiques de manipulation visant à falsifier les résultats des élections afin de protéger les droits individuels et les groupes vulnérables, tels que les mineurs.
L’un des changements décisifs dans le cadre du DSA interviendra le 30 octobre, lorsque les très grandes plateformes en ligne (VLOP) seront obligées de publier les indicateurs publics utilisés dans leur système algorithmique pour détecter les discours de haine et le nombre de vérificateurs de faits par langue nationale de États membres de l’UE, y compris leurs compétences linguistiques et leurs diplômes universitaires.
Ces données internes sont depuis longtemps une question posée par les chercheurs et les organisations de la société civile pour mieux comprendre comment la modération était abordée au sein desdites VLOP.
Les sanctions en cas de non-respect du DSA s’élèvent au plafond global fixé à 6% du chiffre d’affaires annuel global du prestataire de services intermédiaires concerné, suivi d’une interdiction du marché unique de l’UE en cas de récidive.
Lors des prochaines élections, l’UE sera mise au défi de mettre en œuvre certaines des règles approuvées concernant les DSA, qui incluent des périodes de transition, selon Barredo.
Étant donné que la désinformation est souvent liée à des campagnes à la fois transnationales et locales, « je pense que l’UE devrait établir un réseau d’observatoires en collaboration avec la société civile et le monde universitaire pour analyser la prévalence des contenus faux ou offensants sur les réseaux sociaux », a recommandé Barredo.
« Les conclusions coordonnées de ces observatoires pourraient constituer un outil crucial pour évaluer la mise en œuvre efficace du DSA et la transformation des plateformes de médias sociaux en entités plus responsables », a-t-il conclu.
[Edited by Nathalie Weatherald]