Customize this title in frenchLa présidence belge de l’UE présente une nouvelle méthodologie d’évaluation des risques pour la loi sur les abus sexuels sur enfants

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Un nouveau document rédigé par la présidence belge du Conseil de l’UE et consulté par Euractiv présente les détails clés de l’évaluation des risques qui constituera l’épine dorsale d’un projet de loi visant à détecter et supprimer les matériels d’abus sexuels sur des enfants en ligne (CSAM).

Le document fait suite à la dernière approche de la présidence belge concernant le projet de loi sur le CSAM, qui mettait l’accent sur les rôles de l’Autorité de coordination, tels que la catégorisation des risques ou les ordres de détection.

Le nouveau document, daté du 27 mars, a été envoyé au groupe de travail « Application de la loi » (LEWP) du Conseil, chargé des tâches liées à la législation et aux questions opérationnelles liées à la police transfrontalière.

L’autorité coordonnée est un organisme désigné dans chaque pays de l’UE chargé de recevoir des évaluations des risques, de mettre en œuvre des mesures d’atténuation et de coordonner les efforts de détection, de signalement et de suppression des contenus pédopornographiques.

Dans son approche du 13 mars, la présidence belge a demandé aux États membres de faire part de leurs préoccupations techniques concernant les technologies de détection, afin que davantage de garanties puissent être incluses dans la législation finale.

Sur la base des suggestions des États membres et des réunions du LEWP des 1er et 19 mars, la présidence a rédigé le nouveau document, qui donne des détails sur les éventuels critères et méthodologies de catégorisation à utiliser dans la partie pratique de la législation CSAM.

Le document souligne également que rien ne doit contredire les droits fondamentaux, un point qui devrait être explicitement énoncé dans le règlement.

Critères possibles de catégorisation des risques

Le dernier document mentionne que dans le texte précédent, une méthodologie avait déjà été suggérée pour évaluer le risque associé aux services ou à leurs composants, catégorisant les services en trois niveaux de risque, en tenant compte de l’évaluation des risques et des mesures d’atténuation des risques.

Le nouveau document présente une approche pour catégoriser les risques potentiels associés aux services en ligne.

La première catégorisation suggérée est basée sur le type de service offert, comme les plateformes de médias sociaux, les services de messagerie électronique et les plateformes de jeux en ligne, entre autres.

La seconde se penche sur l’évaluation de l’architecture de base de ces services, y compris des facteurs tels que les niveaux d’interaction des utilisateurs, les fonctionnalités d’identification et les méthodes de communication.

La troisième catégorisation concerne l’évaluation de l’efficacité des politiques et des dispositifs de sécurité mis en œuvre par les prestataires de services, en particulier pour protéger les enfants utilisateurs, couvrant des aspects tels que la vérification de l’âge, le contrôle parental et la gestion des abus sexuels potentiels sur des enfants en ligne.

Cette catégorisation examine les tendances des utilisateurs et les modèles statistiques, en tenant compte de facteurs tels que l’utilisation du compte, les risques de sollicitation et les politiques de l’entreprise en matière de sécurité des utilisateurs, y compris les fonctionnalités de pré-modération et les systèmes de suppression de contenu.

La quatrième implique l’analyse des tendances des utilisateurs et des modèles statistiques, y compris les évaluations du comportement des utilisateurs, la popularité selon les tranches d’âge, la cartographie des risques de sollicitation et les facteurs liés aux comptes tels que l’utilisation de comptes anonymes et les modèles indiquant des risques potentiels tels que de faux comptes ou l’obscurcissement de l’identité.

La cinquième catégorisation se concentre sur l’évaluation des politiques de sécurité du service. Cela comprend l’évaluation de l’utilisation des fonctionnalités de prémodération, la mise en œuvre de systèmes de suppression de contenu et l’emploi de techniques de masquage d’image pour améliorer la sécurité et la confidentialité des utilisateurs.

Méthodologies de notation possibles

Le système de catégorisation des risques propose différentes méthodologies de notation à appliquer à un ensemble de paramètres. Ces méthodologies incluent des questions binaires, des critères hiérarchiques ou des méthodes d’échantillonnage. Une combinaison de ces approches peut être intégrée à la procédure si nécessaire.

Deux méthodologies de notation sont proposées pour le système de catégorisation des risques.

La « méthodologie binaire » implique des questions oui/non sur l’architecture du service, chaque réponse impactant le score final divisé en quatre catégories de risque.

La « méthodologie de notation multi-classes avec quatre critères hiérarchiques » évalue l’efficacité des politiques et des caractéristiques dans la prévention des abus sexuels sur les enfants, en les classant comme « absentes », « de base », « efficaces » et « complètes », chaque niveau indiquant un score de risque différent.

La méthodologie d’échantillonnage implique de compartimenter les données à analyser avec des types de données spécifiques échantillonnés, ainsi que de définir des procédures de collecte et d’analyse.

Cela pourrait impliquer l’analyse des données CSAM ou des métadonnées liées aux comptes d’utilisateurs pour évaluer les facteurs de risque tels que l’utilisation de comptes anonymes ou la fréquence des modifications de compte. La collecte, le traitement et l’analyse des tendances des données sont des étapes nécessaires à la mise en œuvre de cette méthodologie, indique le texte.

La prochaine étape, selon le document, consiste à identifier les principaux aspects du contenu et à en extraire les principes clés.

[Edited by Eliza Griktsi/Zoran Radosavljevic]

En savoir plus avec Euractiv



Source link -57