Customize this title in frenchJe ne devrais pas avoir à accepter d’être dans Deepfake Porn

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsRécemment, une alerte Google m’a informé que je faisais l’objet de pornographie deepfake. Je n’ai pas été choqué. Depuis plus d’un an, je suis la cible d’une vaste campagne de harcèlement en ligne, et le deepfake porn – dont les créateurs, utilisant l’intelligence artificielle, génèrent des clips vidéo explicites qui semblent montrer de vraies personnes dans des situations sexuelles qui ne se sont jamais réellement produites – est devenu un arme précieuse dans l’arsenal que les misogynes utilisent pour tenter de chasser les femmes de la vie publique. La seule émotion que j’ai ressentie lorsque j’ai informé mes avocats de la dernière violation de ma vie privée était une profonde déception face à la technologie – et aux législateurs et régulateurs qui n’ont offert aucune justice aux personnes qui apparaissent dans des clips porno sans leur consentement. De nombreux commentateurs se sont liés par des nœuds potentiel menaces posées par l’intelligence artificielle – vidéos deepfake qui font basculer les élections ou déclenchent des guerres, déploiements destructeurs d’emplois de ChatGPT et d’autres technologies génératives. Pourtant, les décideurs politiques ont pratiquement ignoré un problème urgent d’IA qui affecte déjà de nombreuses vies, y compris la mienne.Lire : Nous n’avons pas vu la pire des fake newsL’année dernière, j’ai démissionné de la tête du Conseil de gouvernance de la désinformation du Département de la sécurité intérieure, un organe de coordination des politiques que l’administration Biden a laissé sombrer au milieu des critiques principalement de la droite. Au cours des mois suivants, au moins trois vidéos générées artificiellement qui semblent me montrer en train de me livrer à des actes sexuels ont été téléchargées sur des sites Web spécialisés dans le deepfake porn. Les images ne me ressemblent pas beaucoup; les modèles d’IA générative qui les ont crachés semblent avoir été entraînés sur mon portrait officiel du gouvernement américain, pris alors que j’étais enceinte de six mois. Celui qui a créé les vidéos a probablement utilisé un outil gratuit de « changement de visage », en collant essentiellement ma photo sur une vidéo porno existante. À certains moments, la bouche de l’artiste original est visible tandis que le deepfake Frankenstein bouge et mon visage scintille. Mais ces vidéos ne sont pas censées être convaincantes – tous les sites Web et les vidéos individuelles qu’ils hébergent sont clairement étiquetés comme faux. Bien qu’ils puissent procurer des frissons bon marché au spectateur, leur objectif plus profond est d’humilier, de faire honte et d’objectiver les femmes, en particulier les femmes qui ont la témérité de s’exprimer. Je suis quelque peu habitué à cet abus, après avoir fait des recherches et écrit à ce sujet pendant des années. Mais pour d’autres femmes, en particulier celles qui vivent dans des environnements plus conservateurs ou patriarcaux, apparaître dans une vidéo porno deepfake pourrait être profondément stigmatisant, voire mettre leur carrière ou leur vie en danger.Comme pour souligner la compulsion des vidéastes à punir les femmes qui s’expriment, l’une des vidéos sur lesquelles Google m’a alerté me représente avec Hillary Clinton et Greta Thunberg. En raison de leur célébrité mondiale, les deepfakes de l’ancien candidat à la présidentielle et de l’activiste du changement climatique sont bien plus nombreux et plus graphiques que ceux de moi. Les utilisateurs peuvent également trouver facilement des vidéos deepfake-porn de la chanteuse Taylor Swift, de l’actrice Emma Watson et de l’ancienne animatrice de Fox News Megyn Kelly ; Des responsables démocrates tels que Kamala Harris, Nancy Pelosi et Alexandria Ocasio-Cortez ; les républicaines Nikki Haley et Elise Stefanik ; et d’innombrables autres femmes éminentes. En existant simplement en tant que femmes dans la vie publique, nous sommes toutes devenues des cibles, dépouillées de nos réalisations, de notre intellect et de notre activisme et réduites à des objets sexuels pour le plaisir de millions d’yeux anonymes.Les hommes, bien sûr, sont beaucoup moins souvent victimes de ces abus. En rapportant cet article, j’ai recherché le nom Donald Trump sur un important site Web de deepfake-porn et a montré une vidéo de l’ancien président et trois pages entières de vidéos représentant sa femme, Melania, et sa fille Ivanka. Une étude réalisée en 2019 par Sensity, une entreprise qui surveille les médias synthétiques, a estimé que plus de 96 % des deepfakes qui existaient alors étaient de la pornographie féminine non consensuelle. Les raisons de cette disproportion sont interconnectées et sont à la fois techniques et motivationnelles : les personnes qui réalisent ces vidéos sont vraisemblablement des hommes hétérosexuels qui accordent plus d’importance à leur propre satisfaction qu’à la personnalité des femmes. Et parce que les systèmes d’intelligence artificielle sont formés sur un Internet qui regorge d’images de corps de femmes, une grande partie de la pornographie non consensuelle générée par ces systèmes est plus crédible que ne le seraient, par exemple, des clips générés par ordinateur d’animaux mignons jouant.Lis: Les deepfakes Trump AI ont eu un effet secondaire involontaireAlors que j’examinais la provenance des vidéos dans lesquelles j’apparais – je suis un chercheur en désinformation, après tout – je suis tombé sur des forums de deepfake-porn où les utilisateurs sont remarquablement nonchalants face à l’invasion de la vie privée qu’ils commettent. Certains semblent croire qu’ils ont le droit de distribuer ces images – que parce qu’ils ont introduit une photo d’une femme accessible au public dans une application conçue pour faire de la pornographie, ils ont créé de l’art ou une œuvre légitime de parodie. D’autres pensent apparemment qu’en qualifiant simplement leurs vidéos et leurs images de fausses, ils peuvent éviter toute conséquence juridique de leurs actions. Ces fournisseurs affirment que leurs vidéos sont uniquement à des fins de divertissement et d’éducation. Mais en utilisant cette description pour des vidéos de femmes bien connues qui se font « humilier » ou « battre » – comme le disent les titres de certains clips – ces hommes révèlent beaucoup de choses sur ce qu’ils trouvent agréable et informatif.Ironiquement, certains créateurs qui publient sur des forums deepfake se préoccupent beaucoup de leur propre sécurité et de leur vie privée – dans un fil de discussion que j’ai trouvé, un homme est ridiculisé pour s’être inscrit avec une application d’échange de visage qui ne protège pas les données des utilisateurs – mais insiste que les femmes qu’ils dépeignent n’ont pas ces mêmes droits, parce qu’elles ont choisi des carrières publiques. La page la plus effrayante que j’ai trouvée répertorie les femmes qui auront 18 ans cette année; ils sont retirés le jour de leur anniversaire des «listes noires» que les hébergeurs de forums deepfake maintiennent afin de ne pas enfreindre les lois contre la pornographie juvénile.Des lois efficaces sont exactement ce dont les victimes de deepfake porn ont besoin. Plusieurs États, dont la Virginie et la Californie, ont interdit la distribution de deepfake porn. Mais pour les victimes vivant en dehors de ces juridictions ou cherchant justice contre des auteurs basés ailleurs, ces lois ont peu d’effet. Dans mon propre cas, découvrir qui a créé ces vidéos ne vaut probablement pas le temps et l’argent. Je pourrais tenter d’assigner à comparaître des plateformes pour obtenir des informations sur les utilisateurs qui ont téléchargé les vidéos, mais même si les sites avaient ces détails et les partageaient avec moi, si mes agresseurs vivent hors de l’État ou dans un autre pays, je ne peux pas faire grand-chose. pour les traduire en justice.Le représentant Joseph Morelle de New York tente de réduire cette lacune juridictionnelle en réintroduisant le Preventing Deepfakes of Intimate Images Act, un amendement proposé à la réautorisation de 2022 du Violence Against Women Act. Le projet de loi de Morelle imposerait une interdiction nationale de la distribution de deepfakes sans le consentement explicite des personnes représentées dans l’image ou la vidéo. La mesure offrirait également aux victimes un recours un peu plus facile lorsqu’elles se retrouvent involontairement en vedette dans de la pornographie non consensuelle.En l’absence d’une législation fédérale forte, les moyens qui s’offrent à moi pour atténuer les dommages causés par mes deepfakes ne sont pas si encourageants. Je peux demander à Google de supprimer les adresses Web des vidéos de ses résultats de recherche et, même si la base juridique de toute demande serait fragile, demander à mes avocats de demander aux plateformes en ligne de supprimer complètement les vidéos. Mais même si ces sites Web sont conformes, la probabilité que les vidéos apparaissent ailleurs est extrêmement élevée.…

Source link -57