Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes deepfakes nus, y compris ceux de mineurs, sont de plus en plus courants en ligne à mesure que les outils permettant de les créer deviennent plus accessibles – mais la loi est encore en retard dans la réglementation de ce type de matériel. Les deepfakes, terme utilisé pour désigner un contenu visuel synthétisé conçu pour échanger ou modifier l’identité des personnes représentées, peuvent être créés à de nombreuses fins, du divertissement à la désinformation. En septembre, une vidéo frauduleuse a circulé montrant le gouverneur de Floride, Ron DeSantis, annonçant qu’il se retirait de la course à la présidentielle de 2024 ; En octobre, l’acteur hollywoodien Tom Hanks a déclaré à ses abonnés sur Instagram qu’il y avait une « vidéo faisant la promotion d’un régime de soins dentaires avec une version IA de moi ». Je n’ai rien à voir avec ça. » Cependant, pour les victimes dont l’identité a été utilisée dans un contenu sexuel sans consentement, l’expérience peut être traumatisante – et changer la vie. En mai dernier, en raison d’une fausse vidéo pornographique, Muharrem Ince, l’un des principaux candidats à la présidentielle en Turquie, a dû retirer sa candidature. La vidéo a été créée à partir d’images provenant d’un site pornographique israélien. Les effets de l’abus de cette technologie sont encore plus aigus lorsqu’il s’agit de mineurs. Le même mois, plus de 20 adolescentes espagnoles ont reçu des images nues d’elles-mêmes générées par l’IA, avec des photos tirées de leurs comptes Instagram, dans lesquelles elles étaient entièrement vêtues. Selon un rapport de recherche publié en octobre par l’Internet Watch Foundation (IWF) du Royaume-Uni, l’intelligence artificielle est de plus en plus utilisée pour créer des deepfakes de matériels pédophiles (CSAM). « Ils sont un peu partout » et sont « relativement faciles à fabriquer pour les gens », a déclaré à Euracitv Matthew Green, professeur agrégé au département d’informatique de la Johns Hopkins Whiting School of Engineering. « Partout » peut inclure des sites Web d’IA qui ne sont pas spécifiquement conçus pour ce type de contenu, a déclaré Green. Susie Hargreaves OBE, directrice générale de l’IWF, a également déclaré que « plus tôt cette année, nous avions averti que les images d’IA pourraient bientôt devenir impossibles à distinguer des images réelles d’enfants victimes d’abus sexuels, et que nous pourrions commencer à voir ces images proliférer en nombre beaucoup plus grand ». . «Nous avons désormais dépassé ce stade», a-t-elle déclaré. Est-ce illégal ? Si la diffusion de contenus pornographiques avec des mineurs est illégale, introduire les caractéristiques d’un mineur dans une image pornographique réalisée par des adultes consentants constitue une zone juridique grise qui met à l’épreuve la flexibilité des codes pénaux nationaux. Dans le code pénal néerlandais, il existe « une terminologie avec laquelle vous pouvez couvrir à la fois la pédopornographie réelle et non réelle », a déclaré à Euractiv Evert Stamhuis, professeur de droit et d’innovation à la faculté de droit Erasmus de Rotterdam. Il s’agit d’une « description large et inclusive du crime », a-t-il déclaré. Stamhuis a déclaré que les tribunaux néerlandais tentent toujours d’interpréter la terminologie d’une manière qui couvre de nouveaux phénomènes, tels que les deepfakes de matériels pédopornographiques, « jusqu’à ce qu’ils éclatent ». Et il y a toujours un moment où ça casse. » Mais d’après son expérience, cela reste rare. Même si une loi peut être dépassée, « le même type de préjudice que les législateurs voulaient combattre avec l’approche traditionnelle se produit également dans les nouvelles circonstances ». En Espagne, certaines des photos générées par l’IA ont été prises par les camarades de classe des filles. Mais, selon Stamhuis, le fait que ce soit un mineur ou un adulte ne fait aucune différence quant au crime commis. Mais cela fait une différence pour le droit de poursuivre. Pourtant, le Code pénal néerlandais pourrait être davantage l’exception que la règle dans sa capacité à résoudre ce problème. Manuel Cancio, professeur de droit pénal à l’Université autonome de Madrid, a déclaré Euronews en septembre que la question n’est pas claire en Espagne et dans de nombreux autres cadres juridiques européens. « Puisqu’il est généré par deepfake, la vie privée réelle de la personne en question n’est pas affectée. L’effet que cela produit (sur la victime) peut être très similaire à une vraie photo de nu, mais la loi est en retard », a déclaré Cancio. Deborah Denis, directrice générale de la Lucy Faithfull Foundation, une organisation caritative britannique qui vise à prévenir les abus sexuels sur les enfants, a déclaré que « certaines personnes pourraient essayer de justifier ce qu’elles font en se disant que les images sexuelles d’enfants générées par l’IA sont moins nocif, mais ce n’est pas vrai ». « Le partage de matériel d’exploitation sexuelle d’enfants généré par l’IA constitue une infraction pénale dans la plupart des États membres », a déclaré à Euractiv l’agence européenne chargée de l’application des lois, Europol, ajoutant qu’elle avait été informée « de l’affaire par les autorités espagnoles, mais qu’il ne nous avait pas été demandé de fournir des informations. soutien ». Au niveau européen, les décideurs politiques discutent actuellement de la loi sur l’IA, qui pourrait inclure des obligations de transparence pour les systèmes générant des deepfakes, comme l’inclusion de filigranes pour indiquer clairement qu’une image est manipulée. Problème d’application Cependant, les forces de l’ordre sont confrontées à une bataille difficile pour détecter le contenu suspect parmi les milliards d’images et de vidéos partagées en ligne chaque jour. « La diffusion d’images nues de mineurs créées avec l’IA est depuis un certain temps une préoccupation pour les forces de l’ordre, et elle deviendra de plus en plus difficile à résoudre », a déclaré Europol. Les forces de l’ordre ont ajouté que le matériel généré par l’IA doit être détecté à l’aide d’outils de classification d’IA. Pourtant, pour le moment, ils ne sont pas autorisés à utiliser des outils de classification à cette fin spécifique. Cependant, le professeur Green a noté que les technologies visant à détecter les contenus pédopornographiques ne sont précises qu’à environ 80 % et que le taux de réussite devrait diminuer avec la montée des deepfakes. Selon Stamhuis, « la force du développement et de la production de logiciels réside dans les grandes entreprises technologiques », qui possèdent également les principales plateformes de médias sociaux, et qui pourraient donc bénéficier indirectement de la propagation virale de ces images. [Edited by Luca Bertuzzi/Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57