Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Des applications photo déshabillant numériquement les femmes, des invites de texte à image sexualisées créant des « filles IA » et des images manipulées alimentant des rackets de « sextorsion » – un boom de la pornographie profonde dépasse les efforts américains et européens pour réglementer la technologie.
Les deepfakes activés par l’intelligence artificielle sont généralement associés à de fausses images virales de personnalités bien connues telles que le pape François dans une doudoune ou Donald Trump en état d’arrestation, mais les experts disent qu’ils sont plus largement utilisés pour générer de la pornographie non consensuelle qui peut détruire des vies ordinaires.
Les femmes sont une cible particulière des outils et applications d’intelligence artificielle – largement disponibles gratuitement et ne nécessitant aucune expertise technique – qui permettent aux utilisateurs de retirer numériquement les vêtements de leurs photos ou d’insérer leur visage dans des vidéos sexuellement explicites.
« La montée du porno généré par l’IA et du deepfake porn normalise l’utilisation de l’image ou de la ressemblance d’une femme sans son consentement », a déclaré à l’AFP Sophie Maddocks, chercheuse à l’Université de Pennsylvanie qui suit les abus sexuels basés sur l’image.
« Quel message envoyons-nous sur le consentement en tant que société alors que vous pouvez virtuellement déshabiller n’importe quelle femme? »
Regarder | L’Intelligence Artificielle peut-elle conduire à l’extinction de l’humanité ?
Dans une vidéo en larmes, une streameuse américaine Twitch qui s’appelle QTCinderella a déploré « l’exploitation et l’objectivation constantes » des femmes alors qu’elle devenait victime de deepfake porn. Elle a été harcelée, a-t-elle ajouté, par des personnes lui envoyant des copies des deepfakes la représentant.
Le scandale a éclaté en janvier lors d’une diffusion en direct par un autre streamer Brandon Ewing, qui a été surpris en train de regarder un site Web contenant des images sexuelles truquées de plusieurs femmes, dont QTCinderella.
« Ce n’est pas aussi simple que d’être violée. C’est bien plus que ça », a-t-elle écrit sur Twitter, ajoutant que l’expérience l’avait « ruinée ».
La prolifération des deepfakes en ligne souligne la menace de la désinformation activée par l’IA, qui peut nuire aux réputations et conduire à l’intimidation ou au harcèlement.
Alors que des célébrités telles que la chanteuse Taylor Swift et l’actrice Emma Watson ont été victimes de deepfake porn, des femmes peu connues du public sont également ciblées.
Les médias américains et européens regorgent de témoignages de première main de femmes – des universitaires aux militantes – qui ont été choquées de découvrir leur visage dans le deepfake porn.
Quelque 96% des vidéos deepfake en ligne sont de la pornographie non consensuelle, et la plupart d’entre elles représentent des femmes, selon une étude réalisée en 2019 par la société néerlandaise d’intelligence artificielle Sensity.
« L’acte auparavant privé de fantasme sexuel, qui se déroule dans l’esprit de quelqu’un, est désormais transféré à la technologie et aux créateurs de contenu dans le monde réel », a déclaré à l’AFP Roberta Duffield, directrice du renseignement chez Blackbird.AI.
« La facilité d’accès et le manque de surveillance – parallèlement à la professionnalisation croissante de l’industrie – ancrent ces technologies dans de nouvelles formes d’exploitation et de diminution des femmes. »
Parmi une nouvelle génération de générateurs de texte en art, il y a des applications gratuites qui peuvent créer des « filles IA hyper-réelles » – des avatars à partir de vraies photos, en les personnalisant avec des invites telles que « peau foncée » et « sangle de cuisse ».
De nouvelles technologies telles que Stable Diffusion, un modèle d’IA open source développé par Stability AI, ont permis de créer des images réalistes à partir de descriptions textuelles.
Les progrès technologiques ont donné naissance à ce que Duffield a appelé une « industrie artisanale en expansion » autour de la pornographie améliorée par l’IA, avec de nombreux créateurs de deepfake prenant des demandes payantes pour générer du contenu mettant en vedette une personne du choix du client.
Le mois dernier, le FBI a émis un avertissement concernant les « programmes de sextorsion », dans lesquels les fraudeurs capturent des photos et des vidéos sur les réseaux sociaux pour créer des deepfakes « à thème sexuel » qui sont ensuite utilisés pour extorquer de l’argent.
Les victimes, a ajouté le FBI, comprenaient des enfants mineurs et des adultes non consentants.
La prolifération des outils d’IA a dépassé la réglementation.
« Ce n’est pas un coin sombre d’Internet où ces images sont créées et partagées », a déclaré à l’AFP Dan Purcell, directeur général et fondateur de la société de protection des marques d’IA Ceartas.
« C’est juste sous notre nez. Et oui, la loi doit rattraper son retard. »
En Grande-Bretagne, le gouvernement a proposé un nouveau projet de loi sur la sécurité en ligne qui vise à criminaliser le partage de deepfakes pornographiques.
Quatre États américains, dont la Californie et la Virginie, ont interdit la distribution de deepfake porn, mais les victimes ont souvent peu de recours juridiques si les auteurs vivent en dehors de ces juridictions.
En mai, un législateur américain a présenté le Preventing Deepfakes of Intimate Images Act qui rendrait illégal le partage de pornographie deepfake non consensuelle.
Des espaces en ligne populaires tels que Reddit ont également cherché à réglementer ses communautés pornographiques IA en plein essor.
« Internet est une juridiction sans frontières, et il doit y avoir un droit international unifié pour protéger les personnes contre cette forme d’exploitation », a déclaré Purcell.
Vous pouvez maintenant écrire pour wionews.com et faire partie de la communauté. Partagez vos histoires et opinions avec nous ici.