Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Almendralejo, dans le sud de l’Espagne, est devenue l’un des premiers exemples mondiaux de la façon dont le harcèlement sexuel peut être alarmant grâce à la technologie AI Deepfake.
C’était un dimanche calme lorsque la journaliste Marian Rosado parcourait son compte Instagram et est soudainement tombée sur une diffusion en direct inhabituelle sur Instagram.
La célèbre gynécologue Miriam Al Adib a révélé une situation très personnelle et choquante : sa fille de 14 ans vient de lui dire que quelqu’un a utilisé une application pour la prendre en photo sur les réseaux sociaux et a fait croire qu’elle était nue.
Ce n’est que le début d’un scandale qui a mis sous les projecteurs une paisible ville du sud de l’Espagne.
Au cours des trois prochains épisodes, l’équipe d’Euronews Tech Talks se plongera dans le monde de la technologie AI Deepfake.
Notre objectif est d’en découvrir la portée, d’aborder les stratégies permettant d’atténuer ses risques et d’explorer des méthodes pour éduquer la société à reconnaître les dangers et à se protéger.
L’impact des faux nus IA
Almendralejo, une ville tranquille de 35 000 habitants nichée dans la région espagnole d’Estrémadure, près de la frontière portugaise, n’est pas le genre d’endroit qui attire généralement l’attention nationale, et encore moins internationale.
Pourtant, en septembre, juste après les vacances scolaires, Almendralejo a fait la une des journaux.
Des dizaines d’adolescents locaux ont déclaré avoir reçu des images nues d’eux-mêmes générées par l’IA sur leurs téléphones portables.
Sur les vraies photos, les adolescents étaient entièrement habillés. Ces images, volées sur leurs comptes Instagram, ont été modifiées grâce à une application d’intelligence artificielle (IA) puis diffusées dans les groupes WhatsApp.
Malgré le caractère artificiel de la nudité, la détresse ressentie par les filles à la vue de ces images était bien réelle, comme le rapportent leurs mères.
Ce qui ajoute au caractère troublant de cette histoire, c’est que les auteurs de ce harcèlement sexuel étaient également des adolescents connus des filles.
« Déshabillez n’importe quelle photo avec l’IA gratuitement »
Tout aussi troublante est la facilité avec laquelle ces images ont été créées.
Les deepfakes, une forme de média synthétique utilisant l’IA, impliquent généralement des processus complexes comme l’apprentissage en profondeur.
Cependant, ces adolescents n’étaient pas des experts en IA. Ils ont simplement déboursé 10 € pour obtenir 25 images nues hyper réalistes de leurs pairs grâce à l’application Clothoff.
Disponible en téléchargement gratuit, l’application permet aux utilisateurs de déshabiller numériquement n’importe quelle personne dans la galerie de photos de leur téléphone avec le slogan « Déshabillez n’importe quelle photo avec l’IA gratuitement ».
Lorsqu’on lui a demandé des éclaircissements sur leurs règles, Clothoff a mis l’accent sur la vérification de l’âge et l’obtention du consentement.
Bien qu’ils prétendent prendre la vérification de l’âge au sérieux, ils n’ont pas divulgué leurs méthodes pour des « raisons de sécurité ».
Concernant le consentement, ils ont affirmé avoir des politiques strictes mais ne les ont pas précisées, comptant sur les utilisateurs pour suivre les directives.
Une étude de Sensity AI a révélé que 96 % des images deepfakes sont constituées d’images sexuellement explicites de femmes non consentantes.
Un rapport d’Europol estime que d’ici trois ans, environ 90 % du contenu en ligne pourrait être généré par l’IA.
Journaliste • Marta Rodríguez Martinez