Customize this title in french« La société doit être vigilante » : la plupart des gens ignorent que l’IA est utilisée pour créer du contenu pédopornographique

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Selon une organisation caritative britannique, un nombre croissant de rapports font état de matériels pédopornographiques générés par l’IA.

PUBLICITÉ

Même si la majorité des gens sont préoccupés par l’intelligence artificielle (IA), environ 70 % ignorent qu’elle est déjà utilisée pour créer des contenus pédopornographiques, selon une nouvelle enquête.

La Fondation Lucy Faithfull, une organisation caritative de protection de l’enfance basée au Royaume-Uni, a interrogé plus de 2 500 personnes au Royaume-Uni et environ 88 % des personnes interrogées ont convenu que les images sexuelles de moins de 18 ans générées par l’IA devraient être illégales.

Cependant, seulement 40 pour cent des personnes interrogées ne savaient pas que c’était le cas ou pensaient que ce contenu était légal au Royaume-Uni.

Dans l’UE et au Royaume-Uni, il est illégal de créer, visualiser ou partager des images sexuelles de mineurs, y compris du matériel créé à l’aide de la technologie de l’IA.

L’association caritative britannique, qui gère également le Ligne d’assistance Stop It Now un service confidentiel destiné à aider les personnes inquiètes de leurs pensées et de leur comportement à l’égard des enfants ou du comportement d’un autre adulte, tire la sonnette d’alarme.

Donald Findlater, directeur de la ligne d’assistance, a souligné que l’évolution rapide de l’IA est déjà exploitée chaque jour en ligne par des agresseurs sexuels d’enfants.

« Chaque jour, nous sommes appelés par des personnes arrêtées par la police ici au Royaume-Uni pour avoir vu des abus sexuels sur des enfants, y compris un nombre croissant qui regardent des images générées par l’IA », a-t-il déclaré à Euronews Next, expliquant qu’il y avait eu un Augmentation du nombre de rapports sur du matériel pédopornographique généré par l’IA au cours de l’année dernière.

« La société doit être attentive à ce problème », a-t-il déclaré, car il existe « de sérieuses lacunes dans les connaissances du public » sur la manière dont l’IA est utilisée pour créer des contenus préjudiciables.

« Ce n’est pas bien de regarder ces images. C’est une façon de sexualiser les enfants. Ce n’est pas une chose appropriée à faire. Les enfants méritent notre respect. Ils ont des droits. Nous ne devons pas piétiner leurs droits et cela aura des conséquences », a-t-il ajouté, invitant les personnes directement ou indirectement concernées à demander de l’aide.

Plus de 217 000 personnes contactées la ligne d’assistance Stop It Now en 2023, avec environ 80 pour cent d’entre eux s’inquiétant pour eux-mêmes.

Phénomène croissant du contenu sexuel de l’IA

La diffusion de matériels d’abus sexuels sur des enfants générés par l’IA a fait l’objet d’une enquête. rapport alarmant publié l’année dernière par l’Internet Watch Foundation (IWF).

Sur 11 000 images générées par l’IA sur un forum d’abus sexuels sur des enfants sur le Web sombre évaluées par des analystes de l’IWF, plus de 2 500 ont été considérées comme criminelles.

« Nous voyons AI CSAM [child sexual abuse material] des images utilisant les visages de victimes connues et réelles. Nous assistons au « dévieillissement » des célébrités et de l’IA CSAM utilisant l’image d’enfants de célébrités », a déclaré Susie Hargreaves, PDG de l’IWF.

« Nous voyons comment la technologie « nudifie » les enfants dont les images habillées ont été mises en ligne pour des raisons parfaitement légitimes. Et nous voyons comment tout ce contenu est commercialisé.

Findlater a ajouté que les gens « ne devraient pas se leurrer en pensant qu’il n’y a aucune conséquence à faire cela ».

« Là où va la technologie, les abus suivent. Nous sommes confrontés aux impacts des images sexuelles d’enfants générées par l’IA ici et maintenant, dans tout le pays », a déclaré Ian Critchley, responsable du Conseil national des chefs de police (NPCC) pour la protection de l’enfance et les enquêtes sur les abus, dans un communiqué.

« Créer, visionner et partager des images sexuelles d’enfants – y compris celles réalisées par l’IA – n’est jamais sans victimes et est contraire à la loi. Et nous vous trouverons », a ajouté Critchley.

La police britannique a procédé à 1 700 arrestations en un an en faisant appel à des agents infiltrés en ligne, même si toutes n’étaient pas liées à du contenu créé par l’IA.

PUBLICITÉ

Les contenus générés par l’IA créent également de nouvelles difficultés pour les enquêteurs lorsqu’il s’agit d’identifier les victimes à partir de créations virtuelles, avec un article récent du New York Times rapportant que les forces de l’ordre ont du mal à mesure que la technologie de l’IA progresse.

Les plateformes n’en font pas assez

Les experts souhaiteraient également voir davantage de réglementation des entreprises d’IA et des plateformes de médias sociaux sur cette question.

Les chercheurs ont découvert l’année dernière plus de 3 200 imagesd’abus sexuels présumés sur des enfants dans l’ensemble de données créé par LAION, une organisation à but non lucratif, utilisé pour former l’outil d’IA générative Stable Diffusion.

Quelques semaines auparavant, Stable Diffusion avait été souligné comme un « outil privilégié par les producteurs d’images d’abus sexuels sur des enfants » car il « ne peut en pratique empêcher ses modèles de générer des images qui contreviendraient à ses conditions d’utilisation », a déclaré l’Internet Watch Foundation.

« J’aimerais voir une réglementation accrue. J’aimerais voir ce type d’outils développés par les sociétés d’IA développer leur technologie de manière à ce qu’ils ne puissent pas être utilisés à mauvais escient et que, par conséquent, les images d’abus sexuels sur des enfants ne puissent pas être créées et partagées », a déclaré Findlater.

PUBLICITÉ

X (anciennement Twitter) a été condamné à une amende366 742 € par l’Australie en octobre 2023 pour ne pas avoir expliqué pleinement comment elle a combattu les contenus liés à l’exploitation sexuelle des enfants.

Plus récemment, la décision de Meta de déployer le cryptage de bout en bout en décembre 2023 a également suscité des inquiétudes quant au fait que cela offrirait un refuge en ligne aux agresseurs d’enfants.

Reconnaissant que les processus de détection sont insuffisants, l’UE a décidé de prolonger une mesure provisoire visant à lutter contre les contenus pédopornographiques jusqu’au 3 avril 2026.

Il permet aux fournisseurs d’accès Internet de rechercher ce type de contenu dans leurs services et de le signaler aux autorités.

Source link -57