Customize this title in frenchL’avis juridique du Conseil de l’UE donne une gifle à la loi contre les abus sexuels contre les enfants

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLe service juridique du Conseil des ministres de l’UE a critiqué la proposition de l’UE de lutte contre le matériel d’exploitation sexuelle d’enfants (CSAM), critiquant notamment l’ambiguïté des ordonnances de détection et leur impact possible sur le droit à la vie privée. Le projet de loi CSAM a fait l’objet de controverses depuis qu’il a été proposé par la Commission européenne l’année dernière. Elle donne aux autorités judiciaires le pouvoir d’émettre des ordonnances de détection adressées aux fournisseurs de services de communication qu’elles considèrent comme présentant un risque important d’être utilisées pour diffuser ce type de contenus illicites. Suite à la réception d’un ordre de détection, des services comme Gmail ou WhatsApp seraient obligés de mettre en œuvre des outils qui analysent automatiquement les e-mails ou les SMS privés pour détecter les contenus suspects. Cet instrument a été accusé d’affecter de manière disproportionnée la vie privée des personnes, car potentiellement toute personne utilisant le service pourrait être affectée. Ces préoccupations ont été reprises par le Contrôleur européen de la protection des données, une étude commandée par le Parlement européen. Le service juridique du Conseil de l’UE, qui est extrêmement influent dans le processus législatif de l’UE, ajoute maintenant à l’histoire troublée de la proposition, selon des extraits de son avis juridique consultés par EURACTIV. Ordres de détection Dans le texte de la Commission, les ordonnances de détection peuvent être émises par un organe judiciaire national ou administratif indépendant pour détecter le matériel connu, le nouveau matériel et le toilettage, la pratique des prédateurs essayant d’appâter les enfants. Bien que l’intention déclarée soit que la proposition soit technologiquement neutre, l’avis juridique note que « le contenu de toutes les communications doit être consulté et numérisé, et être effectué à l’aide des outils automatisés disponibles ». Sur le papier, le projet de loi se veut également le moins intrusif possible en termes d’impact sur les droits des utilisateurs à la vie privée et à la protection des données. Cependant, l’avis note que lorsque toutes les communications doivent être scannées « avec l’aide d’une opération automatisée », cela interfère « avec le droit à la protection des données, quelle que soit la manière dont ces données sont utilisées par la suite ». L’avis juridique ajoute que l’application des ordonnances ne peut « excéder 24 mois pour la diffusion de CSAM connus ou nouveaux et 12 mois pour la sollicitation d’enfants ». Ambiguïté Selon le document, les ordres de détection ne sont pas « suffisamment clairs, précis et complets ». Par exemple, ce que signifie une technologie « efficace » n’est pas précisé. Ce que cela signifie incombe en définitive aux prestataires de services, ce qui soulève « de sérieux doutes quant à la prévisibilité de l’impact de ces mesures sur les droits fondamentaux en jeu ». L’ampleur de l’ingérence serait déterminée par ceux qui choisissent les technologies utilisées pour mettre en œuvre « l’ordonnance de détection au cas par cas », comme le Centre de l’UE, les autorités nationales, les juges et les fournisseurs de services. « L’étendue du pouvoir discrétionnaire en cause pourrait donner lieu à un très large éventail d’interprétations et de préoccupations différentes possibles en ce qui concerne le respect des droits fondamentaux », indique l’avis juridique, appelant à des limitations plus détaillées. Violation des droits fondamentaux Outre que les ordres de détection ne sont pas assez clairs, le « filtrage des communications interpersonnelles » affecte également « le droit fondamental au respect de la vie privée » car il donne accès aux communications interpersonnelles, telles que les SMS, les e-mails, les conversations audio, les images ou tout autre type d’informations personnelles échangées. Cela peut également avoir un effet dissuasif sur la liberté d’expression, indique le document. De plus, les données sont également traitées, ce qui « affecte le droit à la protection des données personnelles ». L’avis juridique souligne que presque tout le monde utilise les services de communication interpersonnelle, c’est-à-dire les personnes qui visionnent et partagent le CSAM. Cependant, en détectant ces matériaux par le biais d’un filtrage général, les mesures de cybersécurité seraient affaiblies, voire contournées, en particulier en ce qui concerne le chiffrement de bout en bout. De plus, pour détecter ces matériels, sous forme textuelle ou audio, une « évaluation/vérification de l’âge généralisée à tous les utilisateurs du service concerné » serait nécessaire, car « sans établir l’âge précis de tous les utilisateurs, il ne serait pas possible de savoir que la prétendue sollicitation est dirigée vers un enfant », explique le texte. Il existe trois façons d’y parvenir : le profilage de masse des utilisateurs, l’analyse biométrique du visage et/ou de la voix de l’utilisateur ou le système d’identification/certification numérique. N’importe lequel d’entre eux ajouterait « une autre couche d’interférence avec les droits et libertés des utilisateurs ». Abus sexuel d’enfants : un député européen sceptique quant aux limitations techniques Alors que le Parlement européen publiait son projet de rapport sur la proposition de lutte contre le matériel pédopornographique (CSAM), le rapporteur a partagé avec EURACTIV sa vision des principaux aspects du dossier. Javier Zarzalejos est une voix influente au sein du Parlement européen … Problème de proportionnalité Le service juridique s’est également référé à la jurisprudence de la Cour de justice de l’UE, qui s’est prononcée contre la conservation généralisée des données des adresses IP pour lutter contre la criminalité. Comme il est potentiellement beaucoup plus invasif que les adresses IP, l’avis juridique note que le traitement automatique des données de trafic et de localisation « ne peut répondre à l’exigence de proportionnalité que dans les situations où un État membre est confronté à une menace grave pour la sécurité nationale ». L’abus sexuel d’enfants, même s’il s’agit d’un crime « d’une nature particulièrement grave », ne compte pas comme une « menace pour la sécurité nationale », indique l’avis juridique. [Edited by Luca Bertuzzi/Alice Taylor] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57