[ad_1]
Selon des chercheurs de la TU Delft, une université technique néerlandaise de premier plan, la Commission a fait des déclarations fausses ou contradictoires dans le cadre de la promotion de l’initiative de lutte contre le matériel pédopornographique (CSAM).
La proposition CSAM, qui a été présentée en mai 2022 dans le cadre d’un ensemble plus large sur les droits de l’enfant, s’est avérée controversée, attirant les critiques des défenseurs de la vie privée quant à son impact potentiel sur les services cryptés.
TU Delft a constaté que, sur six déclarations publiques faites par la Commission à l’appui de son initiative législative sur les nouvelles mesures, trois étaient incorrectes. Ce n’est pas la première fois que les arguments de la Commission sur cette proposition sont remis en question.
En octobre, des documents obtenus via une demande d’accès à l’information ont révélé qu’un chiffre Johansson a déclaré que la précision des outils de détection des CSAM était une affirmation non vérifiée de deux sociétés privées.
La question du chiffrement
La manière dont les plateformes numériques doivent traiter les contenus illégaux tels que les contenus pédopornographiques est déjà réglementée dans la loi sur les services numériques récemment adoptée.
Concernant le CSAM en particulier, jusqu’à la fin de 2025, un cadre temporaire est en place, la dérogation ePrivacy, qui permet aux fournisseurs de services de mettre en place des mesures volontaires pour détecter ce matériel dans un environnement non crypté.
« Dans moins de deux ans, la base juridique autorisant les efforts volontaires des sociétés Internet pour détecter les abus sexuels sur des enfants en ligne prendra fin dans l’UE », a déclaré un porte-parole de la Commission à EURACTIV. « L’ampleur et la gravité du crime exigent que nous agissions. »
Avec ta nouvelle proposition, l’exécutif européen a fait un pas en avant en introduisant la possibilité pour les juges d’émettre des ordonnances de détection.
En d’autres termes, si une autorité judiciaire considère qu’il existe un risque important qu’un service de messagerie comme WhatsApp ou Signal soit utilisé pour diffuser du CSAM, elle pourrait demander à la plateforme de divulguer les données de communication pertinentes.
Le problème est que ces services de messagerie utilisent un cryptage de bout en bout, une technologie qui permet uniquement aux utilisateurs impliqués dans la communication de lire les messages. Bien que la Commission affirme que la législation est technologiquement neutre, toute solution technique envisagée jusqu’à présent irait à l’encontre de l’objectif du chiffrement de bout en bout.
En juillet, le contrôleur européen de la protection des données et le comité européen de la protection des données ont publié une déclaration commune s’inquiétant de « l’impact des mesures envisagées sur la vie privée et les données personnelles des individus ».
Échelle du problème
Le rapport de la TU Delft a vérifié plusieurs déclarations publiques faites par des responsables de la Commission pour défendre la proposition.
Dans une interview au journal néerlandais TrouwCommissaire Johansson a déclaré que le Conseil de l’Europe (CoE) a estimé qu’un enfant sur cinq est victime d’abus sexuels en ligne.
Les chercheurs ont précisé qu’il s’agissait d’une fausse représentation des conclusions du CdE, à savoir qu’un enfant sur cinq est victime d’abus sexuels, ce qui inclut à la fois les cas en ligne et hors ligne.
La Commission, qui a mis plus de trois semaines à répondre à la demande de commentaires d’EURACTIV, a reconnu que ce chiffre n’était pas spécifique aux abus en ligne, mais a déclaré qu’il existe des preuves indiquant que la majorité de ces abus ont à la fois une composante en ligne et hors ligne.
En particulier, l’exécutif européen a fait référence à une enquête non publiée menée auprès des autorités répressives qui indique que plus de 70 % des cas d’abus sexuels sur des enfants comportent une composante en ligne. La Commission a également cité une autre étude suggérant que le chiffre pourrait être plus élevé.
Lors de la conférence de presse de présentation de la proposition, la Commission a déclaré que les signalements de CSAM ont augmenté de 6 000 % au cours de la dernière décennie, contredisant la fiche d’information publiée à la même époque dans laquelle le chiffre cité est de 4 200 %.
L’exécutif européen considère que le chiffre de 6 000 % est vrai, citant des données du Centre national pour les enfants disparus et exploités (NCMEC) de 2010 à 2020.
Hébergement CSAM
Lors de la même conférence de presse, Johansson a déclaré que les serveurs de l’UE hébergent 90% des CSAM mondiaux. Cependant, dans sa propre fiche d’information, la Commission avance le chiffre à « plus de 60% ».
Une statistique citée par Johansson dans son interview était que 45% du matériel CSAM mondial est hébergé aux Pays-Bas.
TU Delft a conclu que cette affirmation était difficile à vérifier, mais a noté que si les sources répertorient différentes proportions du total mondial comme étant stockées sur des serveurs néerlandais, ce qui est cohérent entre elles est la constatation que les taux aux Pays-Bas sont élevés.
Enfin, la déclaration de la Commission selon laquelle 85 millions de photos et de vidéos de CSAM ont été interceptées tout au long de 2021 s’est avérée vraie et basée sur les chiffres communiqués par le NCMEC américain.
[Edited by Nathalie Weatherald]
[ad_2]
Source link -42