Customize this title in frenchDes députés européens de premier plan présentent une contre-proposition sur le chapitre sur l’application des lois du règlement sur l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes législateurs européens à l’origine de la loi sur l’IA ont fait circuler un possible compromis sur les dispositions liées à l’application de la loi, l’un des domaines les plus sensibles du dossier. La loi sur l’IA est une proposition législative visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuire aux personnes et à leurs droits fondamentaux. Le projet de loi est actuellement négocié entre le Parlement européen, le Conseil et la Commission dans le cadre de ce que l’on appelle des trilogues. Mardi (21 novembre), les députés européens impliqués dans le processus législatif se réunissent pour discuter des trois principales parties du dossier encore ouvertes : les obligations en matière d’IA à usage général, la gouvernance et l’application de la loi. Avant la réunion, les co-rapporteurs du Parlement européen Dragoș Tudorache et Brando Benifei ont fait circuler un texte de compromis, vu par Euractiv, sur le chapitre sensible sur l’application de la loi. Les pays de l’UE ont fait pression pour donner plus de marge de manœuvre à leurs forces de police, tandis que la plupart des députés européens s’y sont opposés au nom de la protection des droits fondamentaux. Exemption relative à la sécurité nationale La France a fait pression en faveur d’une large exemption en matière de sécurité nationale au sein du Conseil de l’UE. Selon la proposition des co-rapporteurs, les groupes politiques sont unanimes en faveur d’une formulation plus restrictive. « Le présent règlement ne s’applique pas aux systèmes d’IA développés ou utilisés exclusivement à des fins militaires. Ce règlement est sans préjudice des compétences des États membres en ce qui concerne leurs activités militaires, de défense ou de sécurité nationale », peut-on lire dans le texte. Identification biométrique à distance Comme Euractiv l’a précédemment rapporté, le Parlement européen semble disposé à abandonner son interdiction d’utiliser des systèmes d’identification biométrique à distance (RBI) dans les espaces accessibles au public en faveur d’exceptions strictes en matière d’application de la loi. Dans leur texte, les principaux députés ont supprimé la référence au « temps réel », ce qui signifie que les exceptions s’appliqueraient également à l’utilisation ex post. Les exceptions incluent la recherche ciblée de victimes spécifiques d’une liste prédéterminée de crimes graves et la localisation d’un suspect de ces crimes. Cette utilisation ne doit « être déployée que pour confirmer l’identité de la personne spécifiquement ciblée, elle ne doit pas inclure la mise en correspondance automatisée de séquences vidéo en temps réel ou ex post avec les bases de données existantes », indique le texte. Par ailleurs, la demande doit être limitée au strict nécessaire en termes de temps, de portée géographique et personnelle et soumise à une autorisation judiciaire préalable. Le législateur a supprimé la possibilité que l’autorisation provienne d’une autorité administrative. Les co-rapporteurs ont supprimé l’exception qui aurait permis aux autorités répressives qui n’ont pas encore réalisé d’analyse d’impact sur les droits fondamentaux de continuer à utiliser les systèmes RBI dans des situations d’urgence justifiées. Les pays de l’UE doivent adopter une législation nationale réglementant l’utilisation des RBI dans les espaces publics et en informer la Commission dans les 30 jours suivant l’adoption. Une autorité de contrôle devrait être informée de chaque utilisation de la technologie. Les autorités de contrôle devraient fournir à la Commission des rapports annuels. À son tour, l’exécutif européen publiera des rapports annuels contenant des données agrégées et exercera une « surveillance et un contrôle systémiques » sur l’utilisation de la RBI. Interdictions supplémentaires En échange de la levée de l’interdiction des systèmes RBI, les députés devraient obtenir l’extension de la liste des applications d’IA interdites. Le Parlement européen fait pression pour interdire les systèmes de catégorisation biométrique qui déduisent des informations sensibles sur les personnes, comme l’orientation politique. Le bureau de Brando Benifei a proposé un nouveau texte destiné à maintenir l’interdiction tout en excluant les services commerciaux. La police prédictive fait encore l’objet d’un débat ouvert, dans la mesure où une version précédente du texte la considérait comme un cas d’utilisation à haut risque. Selon la note, la plupart des groupes politiques ont rejeté ce compromis et ont insisté sur le mandat du Parlement européen pour interdire cette application. En ce qui concerne la reconnaissance des émotions, le Conseil s’est jusqu’à présent montré disposé à accepter une interdiction dans les domaines du lieu de travail et de l’éducation. Les principaux députés européens insistent néanmoins sur l’inclusion des questions d’application de la loi et de migration en échange d’une flexibilité dans d’autres parties du dossier. Cas d’utilisation à haut risque La loi sur l’IA comprend une liste de cas d’utilisation considérés comme présentant un risque important de nuire à la sécurité et aux droits fondamentaux des personnes. Les co-rapporteurs suggèrent d’élargir la catégorie des RBI pour couvrir tous les usages non couverts par l’interdiction, y compris les espaces accessibles à des particuliers. De même, les deux législateurs souhaitent que toutes les applications des technologies de catégorisation biométrique et de reconnaissance des émotions non couvertes par les interdictions soient considérées comme à haut risque. Les députés conviennent d’inscrire les polygraphes basés sur l’IA et les outils similaires sur la liste à haut risque plutôt que de les interdire, mais uniquement s’ils sont utilisés directement par les forces de police et conformément au droit européen et national. Les utilisations des systèmes d’IA par les forces de l’ordre et la migration, telles que l’analyse de la criminalité, la détection des fausses informations, la vérification des documents de voyage et les prévisions des tendances migratoires, ont été supprimées. Toute utilisation de l’IA pour le contrôle des frontières serait considérée comme à haut risque, sauf pour la vérification des documents de voyage. Exemptions d’application de la loi Les gouvernements européens ont demandé une dérogation au principe des quatre yeux, ce qui nécessite qu’une décision basée sur un système à haut risque soit vérifiée par au moins deux personnes. Sur ce point, les co-rapporteurs s’opposent à la plupart des groupes politiques. De même, la plupart des législateurs s’opposent à l’exemption des autorités chargées de l’application des lois de l’obligation d’enregistrer leur système d’IA à haut risque dans la base de données de l’UE. Un compromis possible pourrait consister à les enregistrer dans une section non publique de la base de données, mais certains députés insistent pour qu’au moins certaines informations soient accessibles au public. La dérogation pour la mise en service d’un système d’IA n’ayant pas fait l’objet d’une évaluation de conformité pourrait être acceptée en échange de concessions ailleurs, à condition que l’autorisation soit demandée dans un délai de 48 heures. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57