Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsWASHINGTON (AP) — Parmi les images des maisons bombardées et des rues ravagées de Gaza, certaines se sont démarquées par leur horreur totale : des nourrissons abandonnés ensanglantés.Visionnées des millions de fois en ligne depuis le début de la guerre, ces images sont des deepfakes créées grâce à l’intelligence artificielle. Si vous regardez attentivement, vous pouvez voir des indices : des doigts qui s’enroulent bizarrement ou des yeux qui scintillent d’une lumière artificielle – autant de signes révélateurs d’une tromperie numérique.L’indignation que les images ont été créées pour provoquer n’est cependant que trop réelle.Les images de la guerre entre Israël et le Hamas ont illustré de manière vivante et douloureuse le potentiel de l’IA en tant qu’outil de propagande, utilisé pour créer des images réalistes de carnage. Depuis le début de la guerre le mois dernier, des images modifiées numériquement diffusées sur les réseaux sociaux ont été utilisées pour faire de fausses déclarations sur la responsabilité des victimes ou pour tromper les gens sur des atrocités qui n’ont jamais eu lieu.Alors que la plupart des fausses affirmations circulant en ligne à propos de la guerre ne nécessitaient pas la création d’une IA et provenaient de sources plus conventionnelles, les progrès technologiques arrivent de plus en plus fréquemment et sont peu surveillés. Cela a mis en évidence le potentiel de l’IA pour devenir une autre forme d’arme et a offert un aperçu de ce qui se passera lors des futurs conflits, élections et autres grands événements. »La situation va empirer – bien pire – avant de s’améliorer », a déclaré Jean-Claude Goldenstein, PDG de CREOpoint, une entreprise technologique basée à San Francisco et à Paris qui utilise l’IA pour évaluer la validité des réclamations en ligne. La société a créé une base de données des deepfakes les plus viraux provenant de Gaza. « Images, vidéo et audio : avec l’IA générative, cela va être une escalade que vous n’avez pas vue. »Dans certains cas, des photos d’autres conflits ou catastrophes ont été réutilisées et présentées comme neuves. Dans d’autres, des programmes d’IA générative ont été utilisés pour créer des images à partir de zéro, comme celle d’un bébé pleurant au milieu des décombres d’un bombardement, devenue virale dès les premiers jours du conflit.D’autres exemples d’images générées par l’IA incluent des vidéos montrant de prétendues frappes de missiles israéliens, ou des chars traversant des quartiers en ruine, ou des familles fouillant les décombres à la recherche de survivants.Dans de nombreux cas, les contrefaçons semblent conçues pour susciter une forte réaction émotionnelle en incluant les corps de bébés, d’enfants ou de familles. Au cours des premiers jours sanglants de la guerre, les partisans d’Israël et du Hamas ont affirmé que l’autre camp avait victimisé des enfants et des bébés ; de fausses images de nourrissons en pleurs offraient des « preuves » photographiques qui furent rapidement présentées comme preuve.Les propagandistes qui créent de telles images sont habiles à cibler les pulsions et les angoisses les plus profondes des gens, a déclaré Imran Ahmed, PDG du Center for Countering Digital Hate, une organisation à but non lucratif qui a traqué la désinformation issue de la guerre. Qu’il s’agisse d’un bébé deepfake ou d’une image réelle d’un nourrisson issu d’un autre conflit, l’impact émotionnel sur le spectateur est le même.Plus l’image est odieuse, plus l’utilisateur est susceptible de s’en souvenir et de la partager, propageant ainsi involontairement la désinformation. »On dit aux gens en ce moment : regardez cette photo d’un bébé », a déclaré Ahmed. « La désinformation est conçue pour vous inciter à y participer. »De même, des contenus trompeurs générés par l’IA ont commencé à se propager après l’invasion de l’Ukraine par la Russie en 2022. Une vidéo modifiée semblait montrer le président ukrainien Volodymyr Zelenskyy ordonnant aux Ukrainiens de se rendre. De telles affirmations ont continué à circuler pas plus tard que la semaine dernière, montrant à quel point la désinformation, même facilement démystifiée, peut être persistante.Chaque nouveau conflit ou saison électorale offre aux trafiquants de désinformation de nouvelles opportunités de démontrer les dernières avancées de l’IA. Cela amène de nombreux experts en IA et politologues à mettre en garde contre les risques l’année prochaine, lorsque plusieurs pays organiseront des élections majeures, notamment les États-Unis, l’Inde, le Pakistan, l’Ukraine, Taiwan, l’Indonésie et le Mexique.Le risque que l’IA et les médias sociaux soient utilisés pour répandre des mensonges auprès des électeurs américains a alarmé les législateurs des deux partis à Washington. Lors d’une récente audition sur les dangers de la technologie deepfake, le représentant américain Gerry Connolly, démocrate de Virginie, a déclaré que les États-Unis devaient investir dans le financement du développement d’outils d’IA conçus pour contrer d’autres IA.« En tant que nation, nous devons bien faire les choses », a déclaré Connolly.Partout dans le monde, un certain nombre de startups technologiques travaillent sur de nouveaux programmes capables de détecter les deepfakes, d’apposer des filigranes sur les images pour prouver leur origine ou de scanner du texte pour vérifier toute allégation spécieuse qui aurait pu être insérée par l’IA.« La prochaine vague d’IA sera : Comment pouvons-nous vérifier le contenu qui existe. Comment détecter la désinformation, comment analyser un texte pour déterminer s’il est digne de confiance ? » a déclaré Maria Amelie, co-fondatrice de Factiverse, une société norvégienne qui a créé un programme d’IA capable d’analyser le contenu à la recherche d’inexactitudes ou de biais introduits par d’autres programmes d’IA.De tels programmes présenteraient un intérêt immédiat pour les éducateurs, les journalistes, les analystes financiers et tous ceux qui souhaitent éliminer les mensonges, le plagiat ou la fraude. Des programmes similaires sont en cours de conception pour détecter les photos ou vidéos falsifiées.Bien que cette technologie soit prometteuse, ceux qui utilisent l’IA pour mentir ont souvent une longueur d’avance, selon David Doermann, un informaticien qui a dirigé un effort à la Defense Advanced Research Projects Agency pour répondre aux menaces à la sécurité nationale posées par les images manipulées par l’IA.Doermann, qui est maintenant professeur à l’Université de Buffalo, a déclaré que pour répondre efficacement aux défis politiques et sociaux posés par la désinformation sur l’IA, il faudra à la fois une meilleure technologie et de meilleures réglementations, des normes industrielles volontaires et des investissements massifs dans des programmes d’alphabétisation numérique pour aider les utilisateurs d’Internet à comprendre. trouver des moyens de distinguer la vérité de la fantaisie. »Chaque fois que nous publions un outil qui détecte cela, nos adversaires peuvent utiliser l’IA pour dissimuler ces traces », a déclaré Doermann. « La détection et la tentative de supprimer ces éléments ne sont plus la solution. Nous avons besoin d’une solution beaucoup plus vaste.Soutenez le HuffPostLes enjeux n’ont jamais été aussi importantsAu HuffPost, nous pensons que tout le monde a besoin d’un journalisme de haute qualité, mais nous comprenons que tout le monde n’a pas les moyens de payer des abonnements coûteux à l’information. C’est pourquoi nous nous engageons à fournir des informations approfondies, soigneusement vérifiées et librement accessibles à tous.Nos équipes d’information, de politique et de culture investissent du temps et du soin dans des enquêtes percutantes et des analyses approfondies, ainsi que dans des prises de vue quotidiennes rapides mais robustes. Nos bureaux Vie, Santé et Shopping vous fournissent des informations bien documentées et vérifiées par des experts dont vous avez besoin pour vivre votre meilleure vie, tandis que le HuffPost Personnel, Voix et Opinion centre des histoires vraies de vraies personnes.Aidez-nous à garder les informations gratuites pour tout le monde en nous donnant aussi peu que 1 $. Votre contribution ira loin.Au HuffPost, nous pensons que tout le monde a besoin d’un journalisme de haute qualité, mais nous comprenons que tout le monde n’a pas les moyens de payer des abonnements coûteux à l’information. C’est pourquoi nous nous engageons à fournir des informations approfondies, soigneusement vérifiées et librement accessibles à tous.Aidez-nous à garder les informations gratuites pour tout le monde en nous donnant aussi peu que 1 $. Votre contribution ira loin.Alors que la course à la présidentielle de 2024 s’intensifie, les fondements mêmes de notre démocratie sont en jeu. Une démocratie dynamique est impossible sans des citoyens bien informés. C’est pourquoi le journalisme du HuffPost est gratuit pour tous, pas seulement pour ceux qui peuvent se permettre des paywalls coûteux.Nous ne pouvons pas y parvenir sans votre aide. Soutenez notre rédaction en contribuant aussi peu que 1 $ par mois.Alors que la course à la présidentielle de…
Source link -57