Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Certains ont avancé que le projet de loi européen pourrait ouvrir la voie à une surveillance de masse dans le bloc grâce à l’analyse de toutes les communications, y compris les messages cryptés. PUBLICITÉRhiannon n’avait que treize ans lorsqu’elle a été soignée en ligne, contrainte et abusée sexuellement.Son agresseur a été inculpé, mais l’impact de ses crimes est profond. »Je n’ai pas parlé de mes abus pendant très longtemps », a déclaré Rhiannon à Euronews. «J’ai souffert d’anxiété, de crises de panique, de dépression, d’automutilation et de tentatives de suicide.»Aujourd’hui, à 33 ans, elle vit en sachant que des images et des vidéos de ses abus circulent toujours en ligne. Mais elle s’exprime, appelant à une réglementation plus stricte pour réprimer les prédateurs sexuels. Jeudi, les ministres de l’Union européenne discuteront des nouvelles lois radicales proposées par la Commission européenne pour lutter contre les abus sexuels sur enfants en ligne et pour garantir que les crimes, tels que ceux commis contre Rhiannon, ne soient pas revécus jour après jour sur Internet.Rhiannon, citoyenne britannique, estime que le projet de règlement européen ainsi que le projet de loi britannique sur la sécurité en ligne, qui deviendra bientôt une loi, sont essentiels dans la lutte mondiale contre les abus sexuels sur enfants.Les lois prévues par l’UE utiliseraient les technologies émergentes pour détecter les matériels pédopornographiques (CSAM) nouveaux et existants et les activités de manipulation d’enfants, et donneraient aux autorités nationales le pouvoir d’obliger les services numériques à analyser les communications des utilisateurs, y compris les messages cryptés.Mais une âpre dispute a éclaté, opposant les défenseurs de la protection de l’enfance aux lobbies des droits numériques, qui prétendent que cela entraînerait un régime de surveillance de masse et sonnerait le glas de la vie privée numérique telle que nous la connaissons. Les partisans affirment que si le règlement n’est pas adopté, les criminels ne seront pas détectés et les grandes technologies ne seront pas réglementées.Entre les deux camps se trouve une corde raide qui s’avère difficile à parcourir : comment arrêter les agresseurs d’enfants sans porter atteinte à notre vie privée en ligne.Les technologies sont-elles suffisamment matures ?Pour détecter les matériels pédosexuels existants connus des forces de l’ordre, la Commission a proposé d’utiliser la fonction de hachage perceptuel, qui prend une empreinte digitale, ou hachage, de fichiers nuisibles et détecte les réplications sur Internet.Mais les experts universitaires préviennent que les auteurs peuvent facilement manipuler les images pour échapper à la détection, et que des utilisateurs innocents pourraient être accusés à tort : « Le problème est qu’il est très facile de briser le hachage en changeant un pixel ou même en recadrant légèrement l’image », professeur Bart. Preneel, expert en cryptographie à l’université KU Leuven, explique : « Il est également possible qu’une image parfaitement légitime soit signalée comme un faux positif ».La Commission souhaite créer un centre européen sur les abus sexuels sur enfants à La Haye, où du personnel serait embauché pour filtrer manuellement les contenus signalés comme illégaux afin d’éviter d’inonder les services répressifs de faux positifs.Mais l’organisation de la société civile ECPAT International affirme qu’il existe suffisamment de preuves de l’efficacité des technologies de hachage perceptuel.« Ces technologies ne sont pas seulement prometteuses ; ils sont prouvés. Les méthodes basées sur le hachage sont efficaces depuis plus d’une décennie, permettant d’agir plus rapidement contre les contenus illégaux et aidant les forces de l’ordre. Par exemple, plus de 200 entreprises utilisent la technologie PhotoDNA pour empêcher que leurs services soient utilisés pour diffuser du matériel pédopornographique », a déclaré un porte-parole d’ECPAT.La Commission souhaite également utiliser l’intelligence artificielle (IA) pour détecter les CSAM nouvellement créés ainsi que pour signaler les modèles de comportement qui pourraient s’apparenter à du toilettage d’enfants. Preneel a déclaré à Euronews que ces méthodes présenteraient un risque encore plus grand de fausse incrimination. »Même si nous réduisons le taux d’erreur à 1 %, avec des milliards d’images envoyées chaque jour dans l’UE, nous pourrions être confrontés à des dizaines de millions de faux positifs quotidiens », a prévenu Preneel. « Nous pourrions incriminer des innocents, en les accusant des crimes les plus graves. »Preneel prévient également que les adolescents partageant volontairement et légalement des images de nus entre eux pourraient être injustement criminalisés.Mais tout en reconnaissant que les modèles d’IA basés sur le langage pour détecter les comportements de toilettage doivent encore mûrir, ECPAT affirme que l’IA a été déployée avec succès pour détecter les nouveaux CSAM avec de « faibles taux d’erreur ».PUBLICITÉ »Les outils de détection CSAM sont spécifiquement formés pour ne pas trouver d’images légales », a expliqué le porte-parole d’ECPAT. « Ces outils sont formés sur des images CSAM connues, de la pornographie adulte et des images inoffensives, notamment pour les distinguer et pour empêcher que les images inoffensives ne soient interprétées à tort comme du CSAM. »Mié Kohiyama, une autre survivante d’abus sexuels sur enfants en France qui, comme Rhiannon, milite pour une réglementation plus stricte, affirme que la prévalence des images et des vidéos d’abus sexuels sur des enfants en ligne signifie que l’Union européenne a la responsabilité d’agir.« Plus de 60 % de ces images sont hébergées sur des serveurs européens, nous avons donc la responsabilité d’agir en conséquence », a-t-elle expliqué. « La détection est la clé, et la suppression est la clé. »Les nouvelles règles porteraient-elles atteinte à la vie privée ?L’aspect le plus contesté de la proposition de la Commission est l’obligation faite aux entreprises technologiques de déployer une technologie d’analyse côté client (CSS) pour analyser les messages des utilisateurs, y compris les communications cryptées de bout en bout sur des plateformes telles que Whatsapp de Meta, lorsqu’un risque est présent. identifié.Cela signifierait que les messages, photos, e-mails et notes vocales cryptés des utilisateurs pourraient être exploités.PUBLICITÉLes défenseurs de la vie privée préviennent que cela équivaut à une grave violation du droit des personnes à la vie privée en ligne et pourrait être facilement manipulé par des acteurs malveillants. CSS a été brièvement déployé par Apple en 2021 pour analyser les téléchargements iCloud, mais a été supprimé quelques semaines plus tard lorsque le système a été piraté.Mais ECPAT International souligne qu’il est important de se rappeler que CSS fonctionne « avant que les données ne soient cryptées ». »Il le fait en signalant les CSAM avant qu’ils ne soient téléchargés et envoyés via un environnement crypté – de la même manière que WhatsApp, un service crypté de bout en bout, déploie déjà une technologie pour détecter les logiciels malveillants et les virus », a déclaré un porte-parole d’ECPAT.Les critiques préviennent également que porter atteinte au chiffrement pourrait créer un dangereux précédent pour les régimes autoritaires, qui pourraient manipuler la technologie pour détecter les critiques et cibler les dissidents.Mié estime qu’une telle campagne d’alarmisme n’est qu’un moyen de détourner l’attention du véritable problème.PUBLICITÉ « Ce règlement comporterait des garde-fous », a-t-elle déclaré. « L’Europe est une démocratie, pas une dictature. Et ne soyons pas naïfs : dans une dictature, quand vous voulez espionner les citoyens, vous espionnez les citoyens. Vous n’avez pas besoin d’une nouvelle réglementation. »Les ministres européens peuvent-ils trouver un compromis ?Le règlement proposé a déchiré les capitales de l’UE, dont beaucoup s’inquiètent de la maturité des technologies et de la menace pour la vie privée des consommateurs. Les ministres peuvent choisir de donner leur feu vert à certains aspects du texte, tout en suspendant d’autres projets jusqu’à ce que les technologies soient suffisamment mûres.Mié et Rhiannon ont déclaré à Euronews que les ministres devraient éviter de céder à la pression des grands lobbys de la technologie et du numérique. Selon eux, la forte augmentation des contenus abusifs montre que les mesures volontaires prises par les entreprises technologiques pour détecter et supprimer les contenus sont clairement insuffisantes. Une étude publiée mardi par l’Alliance mondiale WeProtect suggère que les matériels d’abus sexuels sur enfants signalés ont augmenté de 87 % depuis 2019. »Les entreprises technologiques conçoivent leurs produits pour attirer les enfants et les impliquer le plus longtemps possible. Si tel est leur modèle, il doit s’agir d’un environnement sûr pour les enfants », a déclaré Rhiannon. »Le modèle d’autorégulation des entreprises technologiques n’a pas fonctionné, comme le montre le nombre d’enfants maltraités. Nous devons légiférer sur cette question, nous devons forcer la main aux entreprises technologiques pour protéger les enfants », a-t-elle ajouté. .PUBLICITÉMié estime également que le bloc a la responsabilité de protéger les survivants d’abus assistés par…
Source link -57