Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
Meta affirme avoir travaillé dur pour empêcher une répétition des élections de 2016, lorsque Facebook est devenu un terrain de récolte de désinformation.
Aujourd’hui, les élections au Parlement européen vont mettre la plateforme de réseautage social à l’épreuve.
Meta a publié dimanche une déclaration décrivant un nouveau plan visant à garantir l’intégrité des élections au Parlement européen qui se dérouleront du 6 au 9 juin.
« Bien que chaque élection soit unique, ce travail s’appuie sur les leçons clés que nous avons tirées de plus de 200 élections dans le monde depuis 2016 », a déclaré Marco Pancini, responsable des affaires européennes chez Meta, dans un communiqué.
Pancini a déclaré que Meta se concentre sur trois domaines clés : la désinformation, les opérations d’influence et l’abus de l’IA générative.
La désinformation fait référence à la diffusion d’informations incorrectes et les opérations d’influence font référence aux campagnes trompeuses. La société s’est jusqu’à présent associée à 26 organisations de vérification des faits et publie un rapport trimestriel sur les découvertes de menaces, selon le communiqué.
Plus récemment, l’entreprise peaufine son approche de GenAI. Meta a rejoint le Partenariat sur l’IA, une plateforme conçue pour promouvoir des lignes directrices et des meilleures pratiques. Il a également signé le Tech Accord, qui vise à empêcher les contenus trompeurs d’IA sur les principales plateformes lors des élections de 2024.
Bien que toutes les publications soient soumises aux mêmes directives politiques, Meta prend des mesures supplémentaires pour surveiller le contenu de l’IA, selon le communiqué. Meta s’est associé à des partenaires indépendants de vérification des faits pour examiner le contenu de l’IA. Si le contenu est identifié comme faux, manipulé ou transformé, il sera classé dans les flux des utilisateurs, selon le communiqué.
À mesure que l’IA générative progresse, elle offre un moyen rapide et efficace de produire du matériel pour les campagnes politiques. Mais cela pourrait aussi conduire à davantage de désinformation.
De multiples cas de deepfakes usurpant l’identité de personnalités politiques, telles que le président Joe Biden ou le Premier ministre britannique Rishi Sunak, menacent de diffuser de fausses nouvelles à toute personne ayant accès aux outils d’IA.
Pendant ce temps, un développeur d’OpenAI a construit une « machine de propagande » juste pour démontrer à quel point il était facile et peu coûteux de créer de la propagande alimentée par l’IA. La construction du projet a duré deux mois et son fonctionnement a coûté moins de 400 dollars par mois.
La société travaille également à la création d’outils permettant d’étiqueter le contenu généré par l’IA et provenant d’autres sources. Il étiquette déjà automatiquement les images créées avec Meta AI.
De plus, Meta ajoutera une fonctionnalité qui permettra aux utilisateurs de divulguer si le contenu utilise de la vidéo ou de l’audio généré par l’IA. Meta ajoutera une étiquette distincte si le matériel présente un risque particulièrement élevé et ceux qui ne parviennent pas à étiqueter leur propre contenu pourraient en subir les conséquences.
À l’instar des utilisateurs, les annonceurs devront divulguer s’ils ont utilisé l’IA pour créer le contenu.
Les publicités doivent également afficher une clause de non-responsabilité « payé par » pour indiquer aux utilisateurs qui se cache derrière chaque publicité. Entre juillet et décembre 2023, Meta a supprimé 430 000 publicités dans l’UE parce qu’elles n’incluaient pas de clause de non-responsabilité, selon la déclaration de Meta.
L’entreprise disposera également d’une bibliothèque de publicités qui montre quelles publicités sont diffusées, qui elles ciblent et combien a été dépensé pour elles. Les annonceurs sur Meta devront passer par un processus de vérification pour prouver qu’ils sont bien ceux qu’ils prétendent être et qu’ils vivent dans l’UE.