Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Il faut voir la vidéo publiée par OpenAI pour dévoiler son nouvel outil de conversion texte-vidéo, Sora. Des scènes photoréalistes de mammouths laineux chargeant dans des nuages de neige, un couple marchant à travers des fleurs de cerisier qui tombent et des images aériennes de la ruée vers l’or en Californie.
La manifestation aurait incité le producteur de films Tyler Perry à suspendre un investissement de studio de 800 millions de dollars. Des outils comme Sora promettent de traduire la vision d’un utilisateur en images animées réalistes avec une simple invite de texte, selon la logique, rendant les studios obsolètes.
D’autres craignent que l’intelligence artificielle (IA) comme celle-ci puisse être exploitée par ceux qui ont une imagination plus sombre. Des acteurs malveillants pourraient utiliser ces services pour créer des deepfakes très réalistes, semer la confusion ou induire les électeurs en erreur lors d’une élection ou simplement provoquer le chaos en semant des rumeurs qui divisent.
Les régulateurs, les forces de l’ordre et les plateformes de médias sociaux ont déjà du mal à faire face à la montée de la désinformation générée par l’IA, notamment les faux enregistrements audio de dirigeants politiques qui auraient contribué à fausser les élections en Slovaquie et à décourager les gens de voter aux primaires du New Hampshire.
Les hommes politiques et la société civile craignent qu’à mesure que ces outils deviennent de plus en plus sophistiqués, il soit plus difficile que jamais pour les gens ordinaires de distinguer ce qui est réel de ce qui est faux.
Mais les experts en désinformation politique et en IA affirment que l’utilisation croissante des produits d’IA n’est qu’une nouvelle facette d’un vieux problème. Ces outils ne font que s’ajouter à un arsenal déjà bien fourni de technologies et de techniques utilisées pour manipuler et induire en erreur.
Relever le défi des deepfakes signifie en réalité s’attaquer aux questions non résolues de la manière de réglementer les plateformes de médias sociaux sur lesquelles ils se propagent et de responsabiliser les entreprises Big Tech lorsque leurs produits sont exposés à une utilisation abusive.
« Ces générateurs d’images IA menacent d’aggraver le problème de la désinformation électorale, mais nous devons être très conscients que c’est déjà un problème », a déclaré Callum Hood, responsable de la recherche au Center for Countering Digital Hate (CCDH), un groupe de campagne. « Nous avons déjà besoin de mesures plus strictes de la part des plateformes de médias sociaux pour résoudre ce problème existant. »
Plusieurs entreprises proposant des créateurs d’images génératives à base d’IA, notamment Midjourney, OpenAI et Microsoft, ont des politiques censées empêcher les utilisateurs de générer des images trompeuses. Cependant, le CCDH affirme que ces politiques ne sont pas appliquées.
Dans une étude publiée le 6 mars, le centre a montré qu’il était encore relativement simple de générer des images qui pourraient s’avérer dangereuses dans le contexte hautement partisan des élections américaines, notamment des images photoréalistes truquées du président Joe Biden à l’hôpital ou saluant des migrants sur la route. la frontière mexicaine et les images de type CCTV montrant la falsification des élections.
Ces images reflètent des mensonges courants dans la politique américaine. L’ancien président Donald Trump a régulièrement promu l’idée selon laquelle les résultats des élections de 2020 avaient été manipulés, un mensonge qui a contribué à déclencher de violentes manifestations au Capitole en janvier 2021.
« Ça montre [the companies] Je n’y ai pas suffisamment réfléchi », a déclaré Hood. « La grande vulnérabilité ici réside dans les images qui peuvent être utilisées pour étayer un récit d’élections volées ou de fausses allégations de fraude électorale. »
Les chercheurs ont découvert des différences significatives dans la manière dont les créateurs d’images réagissaient aux invites – certains ne permettaient pas aux utilisateurs de créer des images manifestement partisanes. « Ces différences montrent qu’il est possible de mettre en place des garanties efficaces », a déclaré Hood, ajoutant que cela reflète un choix de la part des entreprises.
« C’est symptomatique d’un déséquilibre plus large entre la recherche du profit et la sécurité des entreprises d’IA », a-t-il déclaré. « Ils ont tout intérêt à agir aussi vite que possible avec le moins de garde-fous en place afin de pouvoir lancer des produits, proposer de nouvelles fonctionnalités et obtenir un peu plus de financement ou d’investissement en capital-risque. Ils ne sont pas incités à ralentir et à faire preuve de sécurité avant tout. »
OpenAI, Microsoft et MidJourney n’ont pas répondu aux demandes de commentaires.
Peu de résultats
Cette incitation ne prendra probablement que la forme d’une réglementation qui oblige les entreprises technologiques à agir et les pénalise si elles ne le font pas. Mais les experts en désinformation sur les réseaux sociaux affirment ressentir un sentiment de déjà-vu. Les discussions qui ont lieu autour de la réglementation de l’IA ressemblent étrangement à celles qui ont eu lieu il y a des années autour de la propagation de la désinformation sur les réseaux sociaux. Les grandes entreprises technologiques se sont engagées à mettre en place des mesures pour lutter contre la propagation de mensonges dangereux, mais le problème persiste.
« C’est comme le jour de la marmotte », a déclaré William Dance, chercheur associé principal à l’Université de Lancaster, qui a conseillé les ministères et les services de sécurité du Royaume-Uni en matière de désinformation. « Et cela vous montre à quel point nous avons vraiment peu de choses accomplies au cours des 10 à 15 dernières années. »
Alors que des élections potentiellement très tendues se déroulent cette année dans l’Union européenne, au Royaume-Uni, en Inde et aux États-Unis, les grandes entreprises technologiques se sont une fois de plus engagées, individuellement et collectivement, à réduire la propagation de ce type de désinformation et de mésinformation sur leurs plateformes.
Fin février, Meta, propriétaire de Facebook et d’Instagram, a annoncé une série de mesures visant à réduire la désinformation et à limiter la portée des opérations d’influence ciblées lors des élections au Parlement européen. Il s’agit notamment de permettre aux partenaires de vérification des faits – des organisations indépendantes que Meta permet d’étiqueter le contenu en son nom – d’étiqueter le contenu généré ou manipulé par l’IA.
Meta faisait partie d’une vingtaine d’entreprises qui ont signé un « Accord technique », qui promet de développer des outils pour repérer, étiqueter et potentiellement démystifier la désinformation générée par l’IA.
« On dirait qu’il existe une sorte de modèle vierge qui dit : ‘Nous ferons tout notre possible pour nous protéger contre le blanc' », a déclaré Dance. « Désinformation, discours de haine, IA, peu importe. »
La confluence de l’IA non réglementée et des médias sociaux non réglementés inquiète de nombreux membres de la société civile, d’autant plus que plusieurs des plus grandes plateformes de médias sociaux ont réduit leurs équipes de « confiance et sécurité » chargées de superviser leur réponse à la désinformation, aux discours de haine et à d’autres contenus préjudiciables. . X – anciennement Twitter – a perdu près d’un tiers de son personnel de confiance et de sécurité après qu’Elon Musk a repris la plateforme en 2022.
« Nous sommes dans une situation doublement préoccupante, dans laquelle les diffuseurs de désinformation électorale disposent de nouveaux outils et capacités, tandis que les sociétés de médias sociaux, dans de nombreux cas, semblent délibérément se limiter en termes de capacités dont elles disposent pour agir contre la désinformation électorale. », a déclaré Hood du CCDH. « Il s’agit donc d’une tendance vraiment significative et inquiétante. »
Avant le début véritable des cycles électoraux, il sera difficile de prédire dans quelle mesure les deepfakes proliféreront sur les réseaux sociaux. Mais une partie du mal est déjà faite, affirment les chercheurs. À mesure que les gens prennent conscience de la possibilité de créer des séquences ou des images truquées et sophistiquées, cela crée un sentiment plus large de méfiance et de malaise. Les images ou vidéos réelles peuvent être considérées comme fausses – un phénomène connu sous le nom de « dividende du menteur ».
« Je vais en ligne, je vois quelque chose, je me dis : « Est-ce réel ? Cette IA est-elle générée ? » Je ne peux pas en dire plus », a déclaré Kaicheng Yang, chercheur à la Northeastern University qui étudie l’IA et la désinformation. « Pour les utilisateurs moyens, je vais simplement supposer que ça va être pire. Peu importe la quantité de contenu authentique en ligne. Tant que les gens croient qu’il y en a beaucoup, nous avons un problème. »