Customize this title in frenchMatériel d’abus sexuel d’enfants : la moitié des téléspectateurs contactent ensuite des enfants, selon une étude

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Une étude portant sur les comportements des personnes qui recherchent et visionnent du matériel d’exploitation sexuelle d’enfants (CSAM) sur le dark web a révélé que près de la moitié des personnes interrogées ont recherché un contact direct avec un enfant après avoir visionné le matériel.

La recherche, menée par l’organisation finlandaise Protect Childen, a recueilli les réponses de plus de 1 000 participants de langue allemande. L’étude a également révélé que 51% ont vu le matériel pour la première fois accidentellement et 70% étaient des mineurs la première fois qu’ils l’ont rencontré.

« Nous avons vu le besoin de souligner l’urgence du problème en Allemagne. Le nombre de CSAM hébergés en Allemagne a considérablement augmenté, presque décuplé entre 2020 et 2022, ce qui en fait l’un des plus grands hébergeurs de CSAM de l’UE », a déclaré Tegan Insoll, responsable de la recherche chez Protect Children, à EURACTIV.

Dans le même temps, selon le gouvernement fédéral allemand, il y a eu une augmentation des cas d’enquête liés au CSAM « en raison d’un taux d’enquête plus élevé et ne reflétant pas un taux également plus élevé de cas réels ».

En mai 2022, la Commission européenne a présenté une législation pour lutter contre la diffusion en ligne et hors ligne de CSAM. La proposition de l’UE a suscité la controverse, car elle introduit la possibilité pour les autorités judiciaires de scanner les messages privés pour détecter les contenus suspects.

L’Allemagne s’est vivement opposée à la mesure qui pourrait compromettre le chiffrement de bout en bout, une technologie qui serait en contradiction avec ces mesures obligatoires.

Dans des commentaires datés du 15 mars, rapportés par EURACTIV, Berlin a catégoriquement demandé qu' »aucune technologie ne soit utilisée qui perturbe, affaiblisse, contourne ou modifie le cryptage ».

Protect Children’s Insoll a reconnu que «l’hésitation» de l’Allemagne était la raison de la recherche sur le pays.

L’analyse a également révélé que près de la moitié des répondants voudraient activement arrêter de regarder CSAM, tandis que 65% ont essayé d’arrêter.

Pour Konstantin Macher de l’ONG Digitalcourage, les décideurs politiques devraient se concentrer sur la prévention et la réhabilitation, à savoir sur les répondants qui ont répondu qu’ils voulaient arrêter de chercher, d’utiliser ou de partager du matériel de CSAM ou de matériel violent illégal.

Macher considère qu’il est vital d’investir dans des mesures de prévention « afin que ces personnes puissent être empêchées de (ré) récidiver », arguant que la proposition de l’UE est insuffisante à cet égard et redirige les ressources dans la mauvaise direction.

En Allemagne, un service de soutien clinique du Projet de prévention Dunkelfeld propose une thérapie gratuite aux personnes ayant des désirs sexuels envers les enfants. L’ONG Protect Children a également publié des recherches soulignant l’importance de l’aspect prévention, même si elles ne ciblaient pas l’Allemagne dans ce cas.

Cependant, pour Emily Slifer, directrice des politiques chez Thorn, l’une des nombreuses organisations de protection de l’enfance qui ont soutenu le dernier rapport, « les conclusions soulignent que la détection, le signalement et la suppression du CSAM non seulement arrêtent la revictimisation, mais aident également à prévenir d’autres abus de jamais arriver ».

De plus, la recherche soutient l’approche obligatoire de la proposition anti-CSAM de l’UE, notant que « les fournisseurs de services Internet doivent être obligés, par la loi, de détecter, signaler et supprimer le matériel d’exploitation sexuelle d’enfants de leurs plateformes ».

Cependant, le député européen Patrick Breyer s’oppose à cet argument, soulignant qu’il n’y a aucune preuve que le balayage aveugle qui a déjà été mis en œuvre dans des environnements non cryptés ait rendu les plates-formes de communication plus sûres.

En outre, la proposition de l’UE ne prévoit pas seulement des ordonnances de détection pour lutter contre le CSAM connu, mais également du nouveau matériel et du toilettage, la pratique par laquelle les pédophiles tentent d’attirer les enfants dans les réunions.

Pour Breyer, il est « non scientifique d’affirmer que le toilettage d’enfants est quelque chose que vous pourriez » scanner «  », ajoutant que la proposition CSAM affecterait de manière disproportionnée les communications privées des gens, tandis que les réseaux pédophiles contourneraient facilement les mesures via le dark web.

[Edited by Luca Bertuzzi/Nathalie Weatherald]



Source link -57