Customize this title in frenchAI Act : les députés réfléchissent à des utilisations restreintes de la technologie de reconnaissance faciale en échange d’autres interdictions

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLe Parlement européen pourrait être sur le point d’accepter certaines conditions strictes pour l’utilisation des technologies d’identification biométrique à distance en temps réel dans le cadre d’un accord global élargissant la liste des pratiques interdites. L’identification biométrique à distance (RBI) a été un point de discorde critique dans les négociations sur l’AI Act, un projet de loi de l’UE destiné à réglementer les systèmes d’intelligence artificielle en fonction de leur potentiel à causer des dommages. Le projet de loi sur l’IA en est à la dernière phase du processus législatif européen, appelé trilogues, au cours duquel le Parlement européen, le Conseil et la Commission débattent des dispositions finales. Vendredi 3 novembre, les bureaux des co-rapporteurs du Parlement européen Dragoș Tudorache et Brando Benifei ont fait circuler un texte de compromis abandonnant l’interdiction totale du RBI en temps réel en échange de concessions sur d’autres parties du dossier. Une version similaire de l’accord global a été diffusée dimanche par la présidence espagnole du Conseil des ministres de l’UE. Euractiv a vu les deux documents mais a conservé certains détails pour ne pas compromettre ses sources. Identification biométrique à distance Dans la proposition initiale, la Commission suggérait d’autoriser la technologie RBI en temps réel uniquement dans des cas spécifiques, tels que la recherche d’une personne disparue, la prévention d’une attaque terroriste ou la localisation du suspect d’un crime grave. Au Parlement européen, une majorité de tous les partis a voté en faveur d’une interdiction totale de l’utilisation de ces systèmes en temps réel, par crainte d’une surveillance de masse. En revanche, les gouvernements de l’UE ont tenu à laisser une certaine latitude aux forces de l’ordre pour utiliser cette technologie. Cependant, dans le dernier compromis, les circonstances exceptionnelles sont de retour avec quelques modifications. Pour retrouver un suspect, le texte précise désormais que l’infraction pénale doit relever d’une nouvelle liste et être punie pour une durée maximale d’au moins cinq ans. Ces infractions graves sont répertoriées dans une nouvelle annexe et comprennent le terrorisme, le trafic d’êtres humains, de drogue et d’armes, l’exploitation sexuelle des enfants, le meurtre, l’enlèvement, les crimes couverts par la Cour pénale internationale, la prise d’otages et le viol. De plus, les services répressifs ne peuvent appliquer les utilisations autorisées du RBI en temps réel que s’ils enregistrent le système dans la base de données publique de l’UE et ont réalisé une évaluation d’impact sur les droits fondamentaux. Une autorité judiciaire devrait généralement valider l’utilisation en temps réel des systèmes RBI. Toutefois, dans des cas exceptionnels, l’autorisation peut être demandée ex post dans un délai de 48 heures. Les textes du Parlement et du Conseil mentionnent le rôle des autorités nationales pour superviser l’utilisation du RBI par les autorités répressives, la Commission étant habilitée à lancer des procédures d’infraction contre les pays de l’UE lorsque les dispositions ne sont pas respectées. Les députés concluent un accord sur la loi sur l’intelligence artificielle Après des mois d’intenses négociations, les membres du Parlement européen (MPE) ont surmonté leurs divergences et sont parvenus à un accord politique provisoire sur le premier règlement mondial sur l’intelligence artificielle. Pratiques interdites En échange de concessions sur l’identification biométrique à distance, le Parlement européen a obtenu une extension de la liste des applications d’IA interdites. À la suite du célèbre exemple de ClearviewAI, le libellé a été ajouté pour interdire « les systèmes d’IA qui créent ou étendent des bases de données de reconnaissance faciale grâce à la récupération non ciblée et à grande échelle d’images faciales sur Internet ou de séquences de vidéosurveillance ». De même, les députés ont introduit une interdiction des systèmes utilisant des technologies de catégorisation biométrique pour déduire des informations sensibles sur les personnes, comme l’orientation politique ou les préférences sexuelles. La technologie de reconnaissance des émotions est également interdite sur le lieu de travail et dans les zones éducatives. Des points de vue divergents subsistent sur l’utilisation de l’IA pour la police prédictive, que les députés souhaitent voir interdite, mais les États membres souhaitent la conserver comme une application à haut risque. Exemptions d’application de la loi Le Conseil de l’UE a introduit plusieurs exemptions importantes pour les services répressifs. Les utilisateurs doivent surveiller le fonctionnement des modèles d’IA à haut risque et informer les distributeurs chaque fois qu’ils identifient un incident grave. Les pays de l’UE ont introduit une formulation stipulant que cette obligation ne couvre pas les données opérationnelles sensibles provenant des autorités chargées de l’application de la loi, une précision qui semble avoir été acceptée par le Parlement. En outre, les organismes publics ne devraient pas utiliser de systèmes à haut risque ne figurant pas dans la base de données de l’UE. Dans ce cas, le compromis semble consister à supprimer l’exemption accordée aux autorités chargées de l’application des lois et du contrôle des frontières. Les parlementaires semblent également avoir accepté que les forces de l’ordre et les organismes de protection civile puissent utiliser une application d’IA à haut risque même si elle n’a pas encore fait l’objet d’une évaluation de conformité dans des circonstances exceptionnelles. Des dispositions visant à empêcher la divulgation de données opérationnelles sensibles semblent également convenues, par exemple en ce qui concerne la quantité d’informations qui doivent être fournies à la base de données de l’UE et les enquêtes menées par les autorités de surveillance du marché. Exemption relative à la sécurité nationale Sous la pression de la France, le Conseil a adopté une large exemption du champ d’application de la loi sur l’IA pour les systèmes utilisés ou mis à disposition par toute entité intéressant l’armée, la défense ou la sécurité nationale. Dans un document officieux du mois dernier, la Commission a déclaré que cette formulation allait à l’encontre du traité européen. A l’époque, l’exécutif européen avait également proposé un texte de compromis, largement repris dans le dernier document, mais avec deux modifications significatives. La phrase : « Le présent règlement ne s’applique pas aux systèmes d’IA développés ou utilisés exclusivement à des fins militaires » a été ajoutée. Dans le même temps, la formulation selon laquelle « le présent règlement est sans préjudice des compétences des États membres en ce qui concerne leurs activités militaires, de défense ou de sécurité nationale » a été maintenue. Néanmoins, la référence selon laquelle cela doit être conforme au droit de l’UE a été supprimée. Une formulation alternative pourrait être recherchée, conformément à l’exemption relative à la sécurité nationale prévue par la loi sur les données. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV Les experts anonymes de la Commission européenne derrière sa loi sur les abus sexuels sur enfantsLe Médiateur de l’UE a constaté un cas de mauvaise administration dans le refus de la Commission européenne de fournir la liste des experts, dont elle avait d’abord nié l’existence, et avec lesquels ils ont travaillé ensemble pour rédiger le règlement visant à détecter et supprimer les matériels d’abus sexuels sur des enfants en ligne. !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57