Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsNEW YORK (AP) — L’imagerie par intelligence artificielle peut être utilisée pour créer de l’artessayer des vêtements dans des cabines d’essayage virtuelles ou participer à la conception de campagnes publicitaires.Mais les experts craignent le côté obscur des outils facilement accessibles pourraient aggraver quelque chose qui nuit principalement aux femmes : la pornographie deepfake non consensuelle. Les deepfakes sont des vidéos et des images qui ont été créées ou modifiées numériquement avec l’intelligence artificielle ou l’apprentissage automatique. Le porno créé à l’aide de cette technologie a commencé à se répandre sur Internet il y a plusieurs années lorsqu’un utilisateur de Reddit a partagé des clips qui plaçaient les visages de célébrités féminines sur les épaules d’acteurs porno.Depuis lors, les créateurs de deepfake ont diffusé des vidéos et des images similaires ciblant les influenceurs en ligne, les journalistes et autres personnes ayant un profil public. Des milliers de vidéos existent sur une pléthore de sites Web. Et certains ont offert aux utilisateurs la possibilité de créer leurs propres images – permettant essentiellement à quiconque de transformer qui il veut en fantasmes sexuels sans son consentement, ou d’utiliser la technologie pour nuire à d’anciens partenaires.Selon les experts, le problème s’est aggravé à mesure qu’il devenait plus facile de créer des deepfakes sophistiqués et visuellement convaincants. Et ils disent que cela pourrait empirer avec le développement d’outils d’IA génératifs qui sont formés sur des milliards d’images d’Internet et crachent du nouveau contenu en utilisant des données existantes. »La réalité est que la technologie continuera à proliférer, continuera à se développer et continuera à devenir aussi simple que d’appuyer sur le bouton », a déclaré Adam Dodge, le fondateur d’EndTAB, un groupe qui propose des formations sur les abus activés par la technologie. . « Et tant que cela se produira, les gens continueront sans aucun doute à abuser de cette technologie pour nuire aux autres, principalement par le biais de la violence sexuelle en ligne, de la pornographie deepfake et de fausses images nues. »Noelle Martin, de Perth, en Australie, a vécu cette réalité. La jeune femme de 28 ans a découvert du deepfake porn d’elle-même il y a 10 ans lorsque, par curiosité, un jour, elle a utilisé Google pour rechercher une image d’elle-même. À ce jour, Martin dit qu’elle ne sait pas qui a créé les fausses images ou les vidéos d’elle se livrant à des rapports sexuels qu’elle trouvera plus tard. Elle soupçonne que quelqu’un a probablement pris une photo publiée sur sa page de médias sociaux ou ailleurs et l’a transformée en porno.Horrifié, Martin a contacté différents sites Web pendant plusieurs années dans le but de faire retirer les images. Certains n’ont pas répondu. D’autres l’ont enlevé mais elle l’a vite retrouvé. « Vous ne pouvez pas gagner », a déclaré Martin. « C’est quelque chose qui sera toujours là-bas. C’est comme si ça t’avait ruiné pour toujours.Plus elle parlait, dit-elle, plus le problème s’aggravait. Certaines personnes lui ont même dit que la façon dont elle s’habillait et publiait des images sur les réseaux sociaux contribuait au harcèlement – la blâmant essentiellement pour les images au lieu des créateurs. Finalement, Martin a tourné son attention vers la législation, plaidant pour une loi nationale en Australie qui infligerait une amende de 555 000 dollars australiens (370 706 $) aux entreprises si elles ne se conformaient pas aux avis de suppression de ce contenu des régulateurs de sécurité en ligne. Mais gouverner Internet est presque impossible lorsque les pays ont leurs propres lois pour le contenu qui est parfois produit à l’autre bout du monde. Martin, actuellement avocate et chercheuse juridique à l’Université d’Australie-Occidentale, dit qu’elle pense que le problème doit être contrôlé par une sorte de solution globale.En attendant, certains modèles d’IA disent qu’ils limitent déjà l’accès aux images explicites. OpenAI dit avoir supprimé le contenu explicite des données utilisées pour former l’outil de génération d’images DALL-E, ce qui limite la capacité des utilisateurs à créer ces types d’images. La société filtre également les demandes et dit qu’elle empêche les utilisateurs de créer des images AI de célébrités et d’éminents politiciens. Midjourney, un autre modèle, bloque l’utilisation de certains mots-clés et encourage les utilisateurs à signaler les images problématiques aux modérateurs.Pendant ce temps, la startup Stability AI a déployé une mise à jour en novembre qui supprime la possibilité de créer des images explicites à l’aide de son générateur d’images Stable Diffusion. Ces changements sont survenus à la suite de rapports selon lesquels certains utilisateurs créaient des photos de nus inspirées par des célébrités à l’aide de la technologie.Le porte-parole de Stability AI, Motez Bishara, a déclaré que le filtre utilise une combinaison de mots-clés et d’autres techniques comme la reconnaissance d’image pour détecter la nudité et renvoie une image floue. Mais il est possible pour les utilisateurs de manipuler le logiciel et de générer ce qu’ils veulent puisque la société publie son code au public. Bishara a déclaré que la licence de Stability AI « s’étend aux applications tierces construites sur Stable Diffusion » et interdit strictement « toute utilisation abusive à des fins illégales ou immorales ».Certaines entreprises de médias sociaux ont également renforcé leurs règles pour mieux protéger leurs plateformes contre les contenus nocifs.TikTok a déclaré le mois dernier que tous les deepfakes ou contenus manipulés qui montrent des scènes réalistes doivent être étiquetés pour indiquer qu’ils sont faux ou modifiés d’une manière ou d’une autre, et que les deepfakes de personnalités privées et de jeunes ne sont plus autorisés. Auparavant, la société avait interdit le contenu sexuellement explicite et les deepfakes qui induisaient les téléspectateurs en erreur. sur des événements du monde réel et causer des dommages.La plate-forme de jeu Twitch a également récemment mis à jour ses politiques concernant les images deepfake explicites après qu’un streamer populaire nommé Atrioc a été découvert pour avoir un site Web porno deepfake ouvert sur son navigateur lors d’un livestream fin janvier. Le site présentait de fausses images d’autres streamers Twitch.Twitch a déjà interdit les deepfakes explicites, mais montrant maintenant un aperçu de ce contenu – même s’il est destiné à exprimer l’indignation – « sera supprimé et entraînera une application », a écrit la société dans un article de blog. Et la promotion intentionnelle, la création ou le partage du matériel est un motif d’interdiction instantanée.D’autres entreprises ont également tenté d’interdire les deepfakes de leurs plateformes, mais les empêcher nécessite de la diligence. Apple et Google ont récemment déclaré avoir supprimé une application de leurs magasins d’applications qui diffusait des vidéos deepfake sexuellement suggestives d’actrices pour commercialiser le produit. La recherche sur le deepfake porn n’est pas répandue, mais un rapport publié en 2019 par la société d’intelligence artificielle DeepTrace Labs a révélé qu’il était presque entièrement armé contre les femmes et que les personnes les plus ciblées étaient les actrices occidentales, suivies des chanteurs sud-coréens de K-pop. La même application supprimée par Google et Apple avait diffusé des publicités sur la plate-forme de Meta, qui comprend Facebook, Instagram et Messenger. Le porte-parole de Meta, Dani Lever, a déclaré dans un communiqué que la politique de l’entreprise restreignait à la fois le contenu pour adultes généré par l’IA et non-IA et qu’elle avait interdit à la page de l’application de faire de la publicité sur ses plateformes. En février, Meta, ainsi que des sites pour adultes comme OnlyFans et Pornhub, ont commencé à participer à un outil en ligne, appelé Take It Down., qui permet aux adolescents de signaler des images et des vidéos explicites d’eux-mêmes sur Internet. Le site de signalement fonctionne pour des images régulières et du contenu généré par l’IA, ce qui est devenu une préoccupation croissante pour les groupes de sécurité des enfants.« Lorsque les gens demandent à nos hauts dirigeants quels sont les rochers qui descendent de la colline et qui nous inquiètent ? Le premier est le chiffrement de bout en bout et ce que cela signifie pour la protection des enfants. Et ensuite, il y a l’IA et plus particulièrement les deepfakes », a déclaré Gavin Portnoy, porte-parole du National Center for Missing and Exploited Children, qui exploite l’outil Take It Down. « Nous n’avons pas encore été en mesure de formuler une réponse directe », a déclaré Portnoy.
Source link -57