Customize this title in frenchLe Parlement européen conclut un accord sur la réglementation sur les abus sexuels sur enfants

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes principaux groupes politiques du Parlement européen sont parvenus à un accord sur le projet de loi visant à empêcher la diffusion de matériel pédopornographique en ligne (CSAM), mardi 24 octobre. Le règlement proposé vise à prévenir et combattre le CSAM en exigeant que les plateformes numériques de l’UE détectent et signalent ce type de matériel. Le projet de loi a suscité des critiques car, dans sa forme originale, il autoriserait les autorités judiciaires à demander à des services d’intercommunication comme WhatsApp ou Gmail d’analyser les messages privés des personnes pour rechercher des contenus suspects. Le texte convenu, consulté par Euractiv, se concentre sur le Centre européen et les ordres de détection. La commission des libertés civiles, de la justice et des affaires intérieures du Parlement européen devrait adopter le dossier le 13 novembre, ouvrant ainsi la voie à la dernière étape du processus législatif. Centre de l’UE Le Centre de l’UE constituera un centre d’expertise central pour aider à lutter contre les abus sexuels sur les enfants dans l’UE. Faisant suite à un texte de compromis de septembre axé sur les changements dans les rôles de cet organe, le texte actuel introduit également quelques changements. Le Centre de l’UE bénéficiera de « la capacité juridique la plus étendue accordée aux personnes morales » en vertu du droit de chaque État membre. Les versions précédentes du document suggéraient que le Centre de l’UE devrait être situé à La Haye, aux Pays-Bas, mais cela a fait l’objet de débats dans le dossier. La nouvelle version ne précise pas explicitement où le Centre doit être situé mais précise que l’emplacement ne peut pas affecter les tâches ou le processus de recrutement. De plus, il doit pouvoir être installé dans un endroit sur place après l’entrée en vigueur du règlement. Le site doit garantir « une répartition géographique équilibrée des institutions européennes », ainsi que la durabilité, la sécurité numérique et la connectivité « en ce qui concerne les infrastructures physiques et informatiques et les conditions de travail ». Le Centre pourra également rechercher des CSAM dans des « contenus accessibles au public », à la manière d’un robot d’exploration Web, un robot utilisé, par exemple, par les moteurs de recherche pour collecter des contenus afin qu’ils puissent apparaître dans les résultats de recherche. OpenAI utilise également cette technologie pour ChatGPT. Le Centre de l’UE doit également être indépendant et disposer d’un responsable des droits fondamentaux pour superviser l’exercice de ses tâches. Europol Europol peut demander des informations au Centre qui, si elles sont jugées « nécessaires et proportionnées », doivent passer par « un outil de communication d’échange sécurisé disponible, tel que l’application Secure Information Exchange Network », une plateforme d’échange d’informations déjà utilisée par Europol, membre États et tiers. Si le Centre de l’UE estime qu’un rapport est « infondé », il doit être transmis à Europol « conformément au droit de l’Union ». Les données personnelles traitées dans le système d’information d’Europol ne peuvent être accordées qu’« au cas par cas, sur présentation d’une demande explicite et justifiée, qui documente la finalité spécifique ». Europol ne peut donc transférer ces données au Centre de l’UE que lorsque cela est absolument nécessaire et « proportionné à l’objectif spécifié ». Ces dernières années, Europol a été au centre d’une enquête du Contrôleur européen de la protection des données pour pratiques de traitement des données en dehors de son mandat, qui a ensuite été réorganisée. L’Allemagne suggère de scinder la réglementation sur les contenus pédopornographiques L’Allemagne a suggéré de séparer les parties les plus controversées du projet de règlement visant à prévenir et combattre les contenus pédopornographiques en ligne, selon la prise de position du pays datée de jeudi 12 octobre et consultée par Euractiv. Le règlement proposé vise… Ordres de chiffrement et de détection Le cryptage a peut-être été la partie la plus débattue du projet de loi concernant les ordres de détection, qui seraient émis pour demander aux services de communication de détecter les CSAM suspectés. Les organisations de défense des droits numériques, les experts et les applications de messagerie comme Signal ou WhatsApp ont déclaré que cet outil briserait le cryptage de bout en bout, affaiblissant ainsi la sécurité des données et le droit à la vie privée. Selon le nouveau texte, les technologies utilisées pour détecter les CSAM doivent être « auditées de manière indépendante selon leurs performances », qu’elles soient fournies par le Centre européen ou développées par le fournisseur qui les utilise. Comme le règlement a toujours clairement indiqué qu’il devait être neutre sur le plan technologique, il n’y a pas d’exigences spécifiques quant à la technologie à utiliser. Le document indique également que « le Centre de l’UE décidera de l’étendue de l’audit qui sera rendu public ». Cela ne devrait toutefois pas s’appliquer au chiffrement de bout en bout. Les ordres de détection doivent également cibler un groupe spécifique d’utilisateurs. Par exemple, « abonnés à un canal de communication spécifique ». Néanmoins, il doit exister des « motifs raisonnables de soupçonner » quant à un lien avec des abus sexuels sur des enfants afin que ceux-ci puissent être ciblés. Magasins d’applications et vérification de l’âge Le rôle des magasins d’applications logicielles avec CSAM est également en discussion depuis un certain temps. Les fournisseurs de magasins d’applications désignés en vertu de la loi sur les marchés numériques sont tenus, pour les applications dont l’utilisation n’est pas autorisée aux enfants, de déployer des efforts raisonnables pour garantir que c’est effectivement le cas. Les députés ont détaillé des critères spécifiques pour les systèmes de vérification de l’âge. Des systèmes de vérification de l’âge peuvent également être utilisés mais ne sont pas obligatoires, uniquement dans le cas des plateformes pornographiques. [Edited by Luca Bertuzzi/Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57