Un projet financé par l’UE teste un dispositif de détection de contenus pédopornographiques

[ad_1]

Un nouveau projet mené par des chercheurs de l’UE et du Royaume-Uni cherchera à développer un outil d’apprentissage automatique pour détecter et bloquer le matériel d’abus sexuel d’enfants (CSAM) sur les appareils en temps réel.

Le projet financé par la Commission européenne, annoncé jeudi 23 février par l’organisation britannique de sécurité des enfants Internet Watch Foundation (IWF), débutera le mois prochain et travaillera pendant deux ans pour développer l’outil.

Le logiciel sera testé sur une base volontaire par ceux qui se considèrent à risque de voir CSAM en ligne. L’outil effectuera une surveillance en temps réel et bloquera l’accès à toutes les images ou vidéos de cette catégorie avant que l’utilisateur ne puisse les visualiser.

« Malheureusement, la demande d’images et de vidéos d’enfants victimes d’abus sexuels est incessante », a déclaré le directeur de la technologie de l’IWF, Dan Sexton.

« Mais nous savons que trouver et supprimer ce contenu horrible ne suffit pas dans la lutte mondiale en cours pour mettre fin aux abus sexuels sur les enfants, c’est pourquoi nous sommes heureux de jouer notre rôle dans ce projet pour former et tester des logiciels qui pourraient s’avérer vitaux. en réduisant la demande de matériel criminel en premier lieu.

Le 2 millions d’euros « Protech » projet, qui doit démarrer en mars, sera porté par le CHU Charité – Universitätsmedizin Berlin (CUB) et réunira des experts de domaines tels que la protection de l’enfance, la psychologie, l’ingénierie logicielle et la santé publique.

Les organisations participantes, issues du Royaume-Uni et de l’UE, comprendront des groupes tels que la Fondation Lucy Faithfull, Stop it Now Pays-Bas et le Centre médico-légal universitaire de l’hôpital universitaire d’Anvers.

Les chercheurs de ces institutions collaboreront pour développer un outil d’apprentissage automatique – intitulé Salus – qui détectera et interceptera le matériel CSAM pour l’empêcher d’apparaître sur les écrans des utilisateurs.

Le logiciel ne nécessitera aucune interaction à moins que le matériel ne soit détecté, mais son installation sur l’appareil sera volontaire. L’outil, selon l’IWF, fournira une intervention aux utilisateurs qui craignent d’être à risque d’offenser des enfants et s’efforcera de réduire les craintes des survivants d’abus sexuels sur des enfants d’être revictimisés par le biais du contenu existant.

Le projet explorera également ce qui se passera une fois qu’un tel contenu sera détecté. Un porte-parole de l’IWF a déclaré à EURACTIV que l’outil n’a pas l’intention de signaler les utilisateurs à la police mais de travailler du côté de la prévention pour réduire la disponibilité de ces contenus illégaux.

« Les volontaires qui utiliseront l’application seront des personnes qui cherchent à s’empêcher de voir du matériel d’exploitation sexuelle d’enfants et seront recrutés par des organisations visant à les aider à contrôler leur comportement », a déclaré le porte-parole.

Au cours de sa phase pilote, l’application sera proposée à au moins 180 utilisateurs dans cinq pays – Allemagne, Pays-Bas, Belgique, Irlande et Royaume-Uni – sur une période de 11 mois. Les membres du projet évalueront ensuite son déploiement et son impact et envisageront son déploiement potentiel en tant que composante d’initiatives de prévention en santé publique.

« Les appareils numériques peuvent jouer un rôle dans la réduction des abus sexuels en ligne en fournissant certaines fonctionnalités et mesures qui améliorent la sécurité des utilisateurs, telles que les paramètres de sécurité et de confidentialité, les options de signalement et de blocage », Stefan Bogaerts, président du département de psychologie du développement de l’Université de Tilburg.

L’année dernière, la Commission a publié sa propre proposition pour lutter contre le CSAM, qui prévoit la possibilité pour les autorités judiciaires de demander aux fournisseurs de services de communication tels que les applications de messagerie et les e-mails de mettre en place des mesures pour détecter les contenus pédopornographiques.

Bien que bien accueillie par les défenseurs de la sécurité des enfants, la mesure a été critiquée pour ne pas être compatible avec le cryptage de bout en bout, une technologie dans laquelle seules les personnes impliquées dans la communication peuvent décrypter les messages.

L’application des ordres de détection peut se faire de deux manières principales, les communications étant envoyées à un serveur de « scannage » supplémentaire et via une analyse sur l’appareil.

Ella Jakubowska, responsable principale des politiques chez European Digital Rights (EDRi), a déclaré à EURACTIV que, bien que le projet semble être orienté vers un fonctionnement sur appareil, des garanties solides seraient nécessaires pour empêcher le « fluage de la portée » et garantir que la technologie ne fonctionne pas. finissent par être utilisés pour la surveillance par des tiers des appareils.

L’implication d’experts en matière de confidentialité, de protection des données et de cybersécurité dans le projet serait également vitale, a déclaré Jakubowska, ajoutant que « bien que l’innovation dans la prévention de la maltraitance des enfants soit cruciale, il y a toujours des limites à ce qu’une approche technologique peut faire ».

« Aucune application ne peut remplacer l’investissement dans l’éducation, dans les services sociaux, dans les soins de santé préventifs et dans la résolution des problèmes structurels qui conduisent à la délinquance », a-t-elle déclaré.

[Edited by Luca Bertuzzi/Alice Taylor]



[ad_2]

Source link -42