Customize this title in frenchUne étude du Parlement européen dénonce la proposition de matériel en ligne sur la maltraitance des enfants

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

L’évaluation d’impact du Parlement européen sur la proposition de matériel d’exploitation sexuelle d’enfants (CSAM) en ligne, obtenue par EURACTIV, soulève de vives inquiétudes quant à la confidentialité et aux implications techniques du projet de loi.

La proposition de la Commission européenne visant à lutter contre la diffusion de contenus pédopornographiques s’est heurtée à une forte opposition en raison de ses implications pour la vie privée.

En l’état, la proposition habiliterait les autorités judiciaires à délivrer des ordonnances de détection aux applications de messagerie ou aux services de messagerie considérés comme présentant un risque important de diffusion de ce type de contenu illégal.

Dès réception d’un ordre de détection, un fournisseur de services de communication devrait mettre en place des outils automatisés pour détecter les CSAM connus, mais aussi les nouveaux contenus abusifs et tout ce qui peut être lié au grooming.

Le Parlement européen a commandé une analyse d’impact supplémentaire, obtenue par EURACTIV, pour évaluer ces préoccupations concernant la proposition, présentée jeudi 13 avril à la commission des libertés civiles, de la justice et des affaires intérieures du Parlement.

La conclusion la plus pertinente de l’étude est que la technologie actuelle n’est pas suffisamment avancée pour détecter les nouveaux contenus CSAM et le toilettage sans entraîner un taux d’erreur élevé. Le taux d’erreur serait particulièrement important car potentiellement tous les messages sur une plate-forme pourraient être analysés.

Une autre préoccupation liée à la proposition de l’UE est qu’elle serait en contradiction avec le chiffrement de bout en bout. Cette technologie permet uniquement au récepteur de la communication de lire le message.

Selon l’étude commandée par le Parlement, il n’existe actuellement aucune solution technologique qui permettrait de scanner les communications privées demandées par les ordres de détection sans remettre en cause le chiffrement de bout en bout.

L’analyse d’impact indique également qu’il est peu probable que de telles solutions techniques soient développées dans les deux à cinq prochaines années, c’est-à-dire au moment où le nouveau règlement sera en place.

Faux positifs

Le projet de législation confie à un nouveau centre européen le rôle de trier les faux positifs, dans le but d’empêcher que des contenus innocents tels que des échanges liés aux adultes ne se retrouvent entre les mains des forces de l’ordre.

L’analyse d’impact fait valoir qu’il est également peu probable que le centre de l’UE prévu « améliore considérablement la qualité de la détection étant donné que des décennies de recherche et de développement n’ont pas, à ce jour, abouti à des niveaux de précision élevés pour la détection de nouveaux CSAM et le toilettage ».

Même en faisant abstraction du chiffrement de bout en bout, l’analyse d’impact note que « seule la détection de CSAM connus sur les canaux de communication ouverts peut, à ce stade, être effectuée avec des niveaux de précision relativement élevés ».

En d’autres termes, le nouveau matériel serait plus difficile à détecter, et même le matériel connu pourrait être modifié de manière à échapper aux algorithmes de détection.

Alors que le chiffrement de bout en bout est de plus en plus répandu dans les services de communication comme WhatsApp, les auteurs de l’étude considèrent que la législation européenne pourrait freiner le développement de ce type de technologie.

De plus, l’analyse des messages précédemment protégés les rendrait non seulement entièrement accessibles au fournisseur de services, mais en cas d’atteinte à la sécurité ou de piratage, les données des utilisateurs pourraient potentiellement être exposées.

Ross Creelman, responsable des politiques publiques de l’Association européenne des opérateurs de réseaux de télécommunications, a déclaré à EURACTIV qu’ils conviennent que « le risque de cryptage sape la confiance dans ces technologies et les droits fondamentaux – et tout cela à un degré au-delà de ce qui est nécessaire pour l’objectif politique ». .”

Au-delà des problèmes de cryptage, l’étude souligne que les adolescents mineurs pourraient « se sentir mal à l’aise lorsque des images partagées de manière consensuelle pourraient être classées comme CSAM ».

Parmi les autres défis, citons le fait que la détection de matériaux sur le dark web est encore plus complexe et qu’il existe une barrière linguistique, car la plupart des technologies ne fonctionnent qu’en anglais pour l’instant, et qu’à mesure que la technologie progresse, les contournements aussi. L’analyse d’impact, qui a également soulevé ces défis, parle de « course aux armements technologiques ».

Emily Slifer, directrice des politiques de l’organisation de protection de l’enfance Thorn, a déclaré à EURACTIV que l’étude n’accordait pas suffisamment d’attention au « fonctionnement réel de la technologie ».

Slifer et Susie Hargreaves, PDG d’Internet Watch Foundation, ont déclaré qu’ils auraient été ouverts à un échange avec les auteurs de l’étude et à offrir leur expertise.

Selon l’étude, une solution avec plus de potentiel à ce stade serait des analyses du comportement des utilisateurs et des métadonnées, telles que les signaux du réseau. Cette solution est déjà largement utilisée par les grandes plateformes comme WhatsApp.

[Edited by Luca Bertuzzi/Nathalie Weatherald]



Source link -57