Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Un nouveau texte de compromis sur le projet de loi visant à détecter et supprimer les matériels pédopornographiques en ligne (CSAM) présenté par la présidence belge du Conseil européen, consulté par Euractiv, se concentre sur l’évaluation des risques, les ordonnances de détection et le signalement.
Le nouveau texte de compromis, daté du 27 mars, a été envoyé au groupe de travail « Application de la loi », chargé des tâches liées à la législation et aux questions opérationnelles liées à la police transfrontalière.
Le projet de loi actuellement examiné demandera aux autorités des États membres d’évaluer les risques présentés par les fournisseurs de services en ligne, tels que les plateformes de médias sociaux. Sur la base de cette catégorisation des risques, les autorités devront mettre en œuvre des mesures de surveillance et d’atténuation appropriées, ainsi qu’émettre des ordres de détection.
Les États membres doivent désigner des autorités compétentes pour mettre en œuvre la législation, l’une d’entre elles faisant office d’autorité de coordination. Les autorités compétentes sont les autorités juridiques nationales, tandis que l’autorité de coordination de chaque pays de l’UE supervise les évaluations des risques et les mesures d’atténuation, ainsi que les efforts visant à détecter, signaler et supprimer les contenus pédopornographiques.
Ordres de détection
Le nouveau texte propose d’exclure du règlement les services électroniques non publics, comme ceux destinés à la sécurité nationale. Ces services présentent moins de risques CSAM et de problèmes de protection des données, indique le projet.
Le projet autorise les autorités de coordination à ajuster les mesures de risque pour les fournisseurs d’hébergement et de communication sans entraver leurs pouvoirs d’enquête, éventuellement par le biais d’amendes. Les fournisseurs peuvent informer de manière transparente les utilisateurs de leur conformité.
Un autre document de la présidence belge, rapporté par Euractiv, donne des détails sur les classifications des risques qui guideront les mesures d’atténuation et les ordres de détection.
Un précédent texte de la présidence décrivait les rôles des autorités coordonnées en matière de catégorisation des risques ou d’ordonnances de détection, dont certains étaient désormais inclus dans le texte de compromis.
Dans la dernière version de la législation, les ordres de détection, émis par l’Autorité de coordination, excluent les appels via les services de communication publics.
L’évaluation des risques
Les évaluations des risques doivent être mises à jour régulièrement, les services à faible risque étant examinés tous les trois ans, les services à risque moyen tous les deux ans et les services à risque élevé chaque année. Les autorités peuvent exiger des réévaluations tous les six mois.
Les évaluations doivent identifier les risques spécifiques au sein des services en ligne pour permettre une atténuation ciblée. Les prestataires de services peuvent afficher un panneau « risque réduit » s’ils y sont autorisés, mais il doit être clair pour les utilisateurs que cela n’élimine pas tous les risques. Une disposition antérieure relative à l’étiquetage a été supprimée du règlement.
Si un ordre de détection est annulé, les fournisseurs de services doivent rétablir l’accès dans les plus brefs délais.
Rapports
Un processus de signalement accéléré est proposé pour les cas indiquant un danger imminent, en donnant la priorité aux informations essentielles et à une action rapide de la part du Centre de l’UE, une plaque tournante centrale créée par la législation pour lutter contre le CSAM.
Les prestataires peuvent signaler des situations urgentes utiles aux enquêtes mais ne nécessitant pas d’action immédiate. Les dispositions sur les « rapports d’urgence » ont été supprimées du dernier texte.
Les rapports ciblent les récidivistes, les prestataires divulguant les réponses aux ordres et fournissant des informations volontaires.
Les autorités compétentes désignées par les États membres peuvent demander des ordonnances de retrait, de blocage ou de radiation. Des mesures d’éloignement transfrontalier peuvent également être émises, mais uniquement si l’autorité de coordination le juge nécessaire. et ils peuvent être suspendus sur notification.
Les autorités judiciaires nationales peuvent émettre des ordonnances de radiation des moteurs de recherche, informant ainsi les utilisateurs concernés des recours.
Centre de l’UE et Europol
Le texte propose une collaboration entre Europol, l’agence de coopération répressive de l’UE, et le Centre de l’UE, le Centre de l’UE gérant une base de données de rapports CSAM et Europol intégrant ces rapports à des fins d’enquête.
Le Centre accordera l’accès à sa base de données en cas de besoin et établira un « conseil des victimes » pour fournir assistance et conseils.
Le texte prévoit une période de transition pendant laquelle certaines dispositions ne s’appliqueront pas jusqu’à ce que les mesures soient pleinement mises en œuvre, comme le blocage des commandes sans accès à la base de données du Centre européen.
Protection des données
Le document précise qu’il n’interdit pas le cryptage de bout en bout (E2EE), une méthode de communication sécurisée qui empêche les tiers d’accéder aux données échangées entre utilisateurs.
Les fournisseurs sont autorisés à proposer des services via E2EE, et le projet de loi ne peut pas les obliger à accorder l’accès aux données cryptées. Les fournisseurs doivent analyser et atténuer les risques potentiels de cybersécurité découlant des technologies utilisées pour exécuter les ordres de détection.
La présidence belge suggère que la Commission ait le pouvoir d’approuver les technologies adaptées à l’exécution de telles commandes.
Les mesures de vérification de l’âge doivent donner la priorité à la vie privée et aux intérêts de l’enfant, sans profilage des utilisateurs ni identification biométrique. Le texte met également l’accent sur la protection des données dès la conception, notamment dans la sauvegarde des données des enfants et la promotion d’un espace en ligne sécurisé, tout en garantissant que les procédures sont non discriminatoires et accessibles.
Mesures d’atténuation
Le dernier texte propose d’ajuster les fonctionnalités des plateformes en ligne comme mesure d’atténuation. Cela inclut la mise en œuvre d’outils de reporting simples, de fonctionnalités adaptées à l’âge et de paramètres de confidentialité.
Les plateformes peuvent informer les utilisateurs d’abus potentiels, les diriger vers des services d’assistance et collecter des données statistiques pour l’évaluation des risques.
Si un prestataire ne répond pas aux exigences relatives aux services à risque élevé ou moyen, l’autorité de coordination ordonne les actions nécessaires, telles que la mise à jour des évaluations des risques ou la mise en œuvre de nouvelles mesures.
[Edited by Eliza Gkritsi/Zoran Radosavljevic]