Les eurodéputés sceptiques quant à la proposition de l’UE de lutter contre les abus sexuels d’enfants en ligne


La commissaire aux affaires intérieures, Ylva Johansson, a été confrontée lundi 10 octobre à des questions critiques de la part des législateurs européens sur sa proposition visant à prévenir et à combattre le matériel pédopornographique.

Le projet de règlement a suscité beaucoup d’attention depuis la Commission a proposé d’inclure une obligation de scan généralisée pour les services de messagerie en mailes critiques craignant une surveillance de masse.

Lundi, le commissaire Johansson a présenté la proposition à la commission des libertés civiles, de la justice et des affaires intérieures (LIBE), lançant ainsi les négociations au Parlement européen.

« Depuis plus de dix ans, les entreprises détectent volontairement le matériel d’abus sexuel d’enfants et le toilettage en ligne », a déclaré Johansson dans son discours initial, soulignant que les plateformes ne sont actuellement pas obligées de signaler ce qu’elles détectent.

Alors que tous les orateurs ont reconnu l’aggravation du problème de la maltraitance des enfants en ligne, le débat a de nouveau encerclé les points controversés de la vie privée, de la disproportion et de la question de savoir si cette législation profiterait aux enfants ou submergerait les forces de l’ordre.

La législation temporaire actuellement en place, la dérogation ePrivacy expirera après l’été 2024, c’est pourquoi le commissaire insiste pour qu’une nouvelle législation soit adoptée afin que les sociétés Internet puissent continuer à détecter ce matériel conformément au RGPD.

L’eurodéputé Javier Zarzalejos du groupe PPE leader du dossier a déclaré qu’il aurait aimé voir une telle proposition plus tôt.

Les défenseurs des enfants comme l’Internet Watch Foundation (IWF) soulignent que la « législation proposée ne vise pas à casser le cryptage, mais à protéger les enfants ».

En effet, les abus sexuels sur enfants deviennent de plus en plus fréquents, l’IWF signalant une augmentation de 64 % des notifications d’abus sexuels confirmés sur des enfants en ligne en 2021 par rapport à l’année précédente.

Les règles proposées permettraient aux ordonnances judiciaires d’exiger des fournisseurs de services de communication cryptés de bout en bout, tels que WhatsApp et Signal, qu’ils détectent et signalent la pédopornographie aux forces de l’ordre.

Une question de proportionnalité

Cependant, la proposition de la Commission a été accueillie avec scepticisme quant à savoir si l’approche choisie est la plus efficace pour lutter contre la diffusion de matériel pédopornographique (CSAM) en ligne.

Par exemple, Tutanota, un service de courrier crypté de bout en bout, croit que « la surveillance générale est complètement disproportionnée », arguant qu’il existe de meilleures alternatives que de placer chaque citoyen de l’UE sous surveillance constante, telles que davantage de personnel pour les enquêtes et les poursuites complètes.

En outre, la Commission a également été récemment critiquée pour la base du texte législatif. En ce qui concerne l’exactitude et la précision des outils d’IA pour détecter le CSAM en ligne, la Commission s’est appuyée exclusivement sur les données de Meta et d’une autre entreprise technologique, une demande d’accès aux informations déposée par l’ancien député européen Felix Reda montré La semaine dernière.

Pour Reda, des recherches indépendantes, des tests de contrôle et d’autres détails sur la méthodologie des entreprises technologiques n’ont pas été pris en compte dans l’analyse d’impact du projet de règlement.

Le nombre de faux positifs est important car des messages, chats et photos anodins de personnes innocentes au contenu explicite pourraient se retrouver sur les écrans des enquêteurs. Étant donné l’énorme nombre de messages électroniques, même une petite marge d’erreur conduirait à d’innombrables faux rapports.

« L’effort de vérification humaine pour les forces de l’ordre serait immense, alors que les arriérés et les surcharges de ressources travaillent déjà contre eux », Patrick Breyer, le législateur représentant les Verts dans les négociations du dossier.

Plusieurs députés européens ont exprimé leurs doutes quant au fait que ce règlement ne serait pas soumis à la Cour de justice européenne en raison de cette atteinte « disproportionnée » à la vie privée.

D’autres, comme Hilde Vautmans, eurodéputée libérale et rapporteur fictif, ont exprimé leur soutien à la législation mais ont soulevé des questions sur la simplification des procédures longues et complexes.

Prévention et garanties

Le commissaire a souligné qu’il y avait aussi un fort accent sur la prévention. Selon l’eurodéputée sociale-démocrate Birgit Sippel, la prévention est cependant principalement évoquée dans le cadre de la détection de la communication.

« Je ne vois rien [regarding] comment nous renforçons et autonomisons les enfants et les jeunes [on] comment se comporter dans ce monde numérique », a déclaré Sippel lundi.

En outre, la proposition prévoit la création d’un nouveau centre indépendant de l’UE pour faciliter les efforts des fournisseurs de services et des États membres en agissant comme un pôle d’expertise. Ce centre sera également valider le contenu signalé pour éviter que les faux positifs ne finissent entre les mains des forces de l’ordre.

Le député européen Zarzalejos s’est félicité de la création d’un tel centre. « Il y a quelques questions à clarifier concernant le fonctionnement du centre, mais il ne fait aucun doute qu’il deviendra un instrument clé dans la lutte contre le CSAM », a-t-il déclaré.

« Je suis sûr que les co-législateurs trouveront ensemble le bon équilibre » entre la protection de la vie privée des enfants et celle des autres », a conclu Johansson.

[Edited by Luca Bertuzzi/Alice Taylor]





Source link -42