Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsL’imagerie par intelligence artificielle peut être utilisée pour créer de l’art, essayer des vêtements dans des cabines d’essayage virtuelles ou aider à concevoir des campagnes publicitaires.Mais les experts craignent que le côté sombre des outils facilement accessibles puisse aggraver quelque chose qui nuit principalement aux femmes : la pornographie deepfake non consensuelle.Faux faux sont des vidéos et des images qui ont été créées ou modifiées numériquement avec l’intelligence artificielle ou l’apprentissage automatique.L’Australienne Noelle Martin s’est retrouvée il y a 10 ans lorsqu’un jour, par curiosité, elle a utilisé Google pour rechercher une image d’elle-même. (9Nouvelles)Le porno créé à l’aide de cette technologie a commencé à se répandre sur Internet il y a plusieurs années lorsqu’un Reddit l’utilisateur a partagé des clips qui plaçaient les visages de célébrités féminines sur les épaules d’acteurs porno.Depuis lors, les créateurs de deepfake ont diffusé des vidéos et des images similaires ciblant les influenceurs en ligne, les journalistes et autres personnes ayant un profil public.Des milliers de vidéos existent sur une pléthore de sites Web.Et certains ont offert aux utilisateurs la possibilité de créer leurs propres images – permettant essentiellement à quiconque de transformer qui il veut en fantasmes sexuels sans son consentement, ou d’utiliser la technologie pour nuire à d’anciens partenaires.Selon les experts, le problème s’est aggravé à mesure qu’il devenait plus facile de créer des deepfakes sophistiqués et visuellement convaincants.Et ils disent que cela pourrait empirer avec le développement d’outils d’IA génératifs qui sont formés sur des milliards d’images d’Internet et crachent du nouveau contenu en utilisant des données existantes. »La réalité est que la technologie continuera à proliférer, continuera à se développer et continuera à devenir aussi simple que d’appuyer sur le bouton », a déclaré Adam Dodge, le fondateur d’EndTAB, un groupe qui propose des formations sur les abus activés par la technologie. . »Et tant que cela se produira, les gens continueront sans aucun doute à abuser de cette technologie pour nuire aux autres, principalement par le biais de la violence sexuelle en ligne, de la pornographie deepfake et de fausses images de nus. »Noëlle Martin, de PerthAustralie, a connu cette réalité.La jeune femme de 28 ans a découvert du deepfake porn d’elle-même il y a 10 ans lorsque, par curiosité, un jour, elle a utilisé Google pour rechercher une image d’elle-même.À ce jour, Martin dit qu’elle ne sait pas qui a créé les fausses images ou les vidéos d’elle se livrant à des rapports sexuels qu’elle trouvera plus tard.Elle soupçonne que quelqu’un a probablement pris une photo publiée sur sa page de médias sociaux ou ailleurs et l’a transformée en porno.Horrifié, Martin a contacté différents sites Web pendant plusieurs années dans le but de faire retirer les images.Noelle Martin ne sait toujours pas qui a créé la fausse image. (PA)Certains n’ont pas répondu. D’autres l’ont enlevé mais elle l’a vite retrouvé. »Vous ne pouvez pas gagner », a déclaré Martin. »C’est quelque chose qui existera toujours. C’est comme si ça vous ruinait pour toujours. »Plus elle parlait, dit-elle, plus le problème s’aggravait.Martin a tourné son attention vers la législation, plaidant pour une loi nationale en Australie qui infligerait une amende de 370 706 $ aux entreprises si elles ne se conformaient pas aux avis de suppression (9Nouvelles)Certaines personnes lui ont même dit que la façon dont elle s’habillait et publiait des images sur les réseaux sociaux contribuait au harcèlement – la blâmant essentiellement pour les images au lieu des créateurs.Mais gouverner Internet est presque impossible lorsque les pays ont leurs propres lois pour le contenu qui est parfois produit à l’autre bout du monde.Martin, actuellement avocat et chercheur en droit à l’Université de Australie occidentaledit qu’elle pense que le problème doit être contrôlé par une sorte de solution globale.Les plateformes tentent de limiter l’accèsEn attendant, certains modèles d’IA disent qu’ils limitent déjà l’accès aux images explicites.OpenAI dit avoir supprimé le contenu explicite des données utilisées pour former l’outil de génération d’images DALL-E, ce qui limite la capacité des utilisateurs à créer ces types d’images.La société filtre également les demandes et dit qu’elle empêche les utilisateurs de créer des images AI de célébrités et d’éminents politiciens.Midjourney, un autre modèle, bloque l’utilisation de certains mots-clés et encourage les utilisateurs à signaler les images problématiques aux modérateurs.Pendant ce temps, la startup Stability AI a déployé une mise à jour en novembre qui supprime la possibilité de créer des images explicites à l’aide de son générateur d’images Stable Diffusion.Ces changements sont survenus à la suite de rapports selon lesquels certains utilisateurs créaient des photos de nus inspirées par des célébrités à l’aide de la technologie.Le porte-parole de Stability AI, Motez Bishara, a déclaré que le filtre utilise une combinaison de mots-clés et d’autres techniques comme la reconnaissance d’image pour détecter la nudité et renvoie une image floue.Mais il est possible pour les utilisateurs de manipuler le logiciel et de générer ce qu’ils veulent puisque la société publie son code au public.Bishara a déclaré que la licence de Stability AI « s’étend aux applications tierces construites sur Stable Diffusion » et interdit strictement « toute utilisation abusive à des fins illégales ou immorales ».Certaines entreprises de médias sociaux ont également renforcé leurs règles pour mieux protéger leurs plateformes contre les contenus nocifs.Le message texte à surveiller qui pourrait tromper presque tout le monde TIC Tac a déclaré le mois dernier que tous les deepfakes ou contenus manipulés qui montrent des scènes réalistes doivent être étiquetés pour indiquer qu’ils sont faux ou modifiés d’une manière ou d’une autre, et que les deepfakes de personnalités privées et de jeunes ne sont plus autorisés.Auparavant, la société avait interdit les contenus sexuellement explicites et les deepfakes qui induisaient les téléspectateurs en erreur sur les événements du monde réel et causaient des dommages.La plate-forme de jeu Twitch a également récemment mis à jour ses politiques concernant les images deepfake explicites après qu’un streamer populaire nommé Atrioc a été découvert pour avoir un site Web porno deepfake ouvert sur son navigateur lors d’un livestream fin janvier.Le site présentait de fausses images d’autres streamers Twitch.Twitch a déjà interdit les deepfakes explicites, mais montrant maintenant un aperçu de ce contenu – même s’il est destiné à exprimer l’indignation – « sera supprimé et entraînera une application », a écrit la société dans un article de blog.Et la promotion intentionnelle, la création ou le partage du matériel est un motif d’interdiction instantanée.D’autres entreprises ont également tenté d’interdire les deepfakes de leurs plateformes, mais les empêcher nécessite de la diligence.Pomme et Google a déclaré récemment qu’ils avaient supprimé une application de leurs magasins d’applications qui diffusait des vidéos deepfake sexuellement suggestives d’actrices pour commercialiser le produit.La recherche sur le deepfake porn n’est pas répandue, mais un rapport publié en 2019 par la société d’intelligence artificielle DeepTrace Labs a révélé qu’il était presque entièrement armé contre les femmes et que les personnes les plus ciblées étaient les actrices occidentales, suivies des chanteurs sud-coréens de K-pop.La même application supprimée par Google et Apple avait diffusé des publicités sur la plate-forme de Meta, qui comprend Facebook, Instagram et Messenger.Le porte-parole de Meta, Dani Lever, a déclaré dans un communiqué que la politique de l’entreprise restreignait à la fois le contenu pour adultes généré par l’IA et non-IA et qu’elle avait interdit à la page de l’application de faire de la publicité sur ses plateformes.En février, Meta, ainsi que des sites pour adultes comme OnlyFans et Pornhub, ont commencé à participer à un outil en ligne, appelé Take It Down, qui permet aux adolescents de signaler des images et des vidéos explicites d’eux-mêmes sur Internet.Le site de signalement fonctionne pour des images régulières et du contenu généré par l’IA, ce qui est devenu une préoccupation croissante pour les groupes de sécurité des enfants. »Quand les gens demandent à nos hauts dirigeants quels sont les rochers qui descendent de la colline et qui nous inquiètent ? Le premier est le chiffrement de bout en bout et ce que cela signifie pour la protection des enfants. Et le deuxième est l’IA et plus particulièrement les deepfakes », a déclaré Gavin Portnoy, porte-parole du National Center for Missing and Exploited Children, qui exploite l’outil Take It Down. »Nous n’avons pas encore été en mesure de formuler une réponse directe », a déclaré Portnoy.Inscrivez-vous ici pour recevoir nos newsletters quotidiennes et nos alertes d’actualités, envoyées directement dans votre boîte de réception.
Source link -57