Customize this title in frenchLe vote en plénière de la loi sur l’IA est incertain alors que l’accord politique s’effondre

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsL’accord entre les groupes dirigeants du Parlement européen sur le règlement IA est mort, ouvrant la porte à des amendements des deux côtés de l’allée. La loi sur l’IA est une législation historique visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. Le Parlement européen devrait voter sur la proposition législative le 14 juin, le délai de dépôt d’amendements ayant été dépassé mercredi (7 juin). Fin avril, les quatre principaux partis politiques se sont mis d’accord pour ne pas déposer d’amendements alternatifs, à l’exception partielle du Parti populaire européen (PPE), qui s’est vu accorder une certaine flexibilité sur la question de l’identification biométrique à distance. Cependant, le PPE a abusé de cette flexibilité pour les autres grands groupes en déposant des amendements séparés en tant que groupe plutôt qu’un vote par division, qui verrait une disposition du texte de compromis votée séparément. « Le PPE a rompu l’accord. Ils doivent en assumer la responsabilité. L’accord n’était pas un amendement de groupe », a déclaré un responsable du Parlement européen, ajoutant que désormais « tout est possible », car les autres groupes pourraient désormais décider de soutenir d’autres amendements. Un responsable parlementaire du groupe de centre-droit a qualifié l’accusation de « fausses nouvelles », affirmant que « nous l’avons dans le procès-verbal que le PPE a obtenu une flexibilité sur RBI [remote biometric identification] en plénière. C’était toujours à notre groupe de décider comment le faire. Les députés scellent l’accord sur la loi sur l’intelligence artificielle Après des mois d’intenses négociations, les membres du Parlement européen (MPE) ont aplani leur différend et sont parvenus à un accord politique provisoire sur le premier livre de règles sur l’intelligence artificielle au monde. Identification biométrique à distance La question de l’identification biométrique à distance dans les espaces publics a été un sujet brûlant dans les discussions parlementaires, les législateurs étant en conflit entre la nécessité d’assurer la sécurité et le risque de surveillance de masse. Le compromis était d’interdire l’utilisation en temps réel de cette technologie tout en lui permettant d’enquêter a posteriori sur des crimes graves, après approbation d’une autorité judiciaire. Le député européen Jeroen Lenaers a coordonné les amendements du PPE et est essentiellement revenu au texte original qui permettait l’utilisation en temps réel de ces systèmes dans trois cas exceptionnels : pour retrouver une personne disparue, prévenir un attentat terroriste ou localiser le suspect d’un crime grave. Le texte précise qu’il s’agit de cas particuliers qui nécessiteraient l’approbation préalable d’une autorité judiciaire ou d’une autorité administrative indépendante et sont soumis à des garanties en termes de nécessité et de proportionnalité. En revanche, la gauche a déposé un amendement qui interdirait entièrement la technologie d’identification biométrique à distance. Cette proposition pourrait trouver un soutien parmi les groupes politiques qui s’estiment lésés par le PPE. Pratiques interdites Le règlement sur l’IA interdit les applications considérées comme présentant un risque inacceptable pour la société. Sous l’impulsion des eurodéputés de gauche à centre, cette liste a été étendue à des applications telles que la police prédictive et la reconnaissance des émotions. Des législateurs individuels ont déposé quelques amendements qui faisaient partie de l’accord politique et augmenteraient encore la liste des applications d’IA interdites. Une coalition multipartite comprenant l’eurodéputé pirate Patrick Breyer, la social-démocrate Birgit Sippel et la libérale Karen Melchior a déposé un amendement visant à interdire à tout système d’IA de détecter, surveiller et analyser le comportement des personnes dans les espaces accessibles au public. « L’analyse comportementale est une forme de surveillance de masse des espaces publics qui alerterait automatiquement les autorités en cas de « comportement anormal ». De telles pratiques éduquent à un comportement conformiste », lit-on dans la justification. Sippel a également déposé deux amendements distincts avec la députée européenne Sylvie Guillaume interdisant aux outils alimentés par l’IA de profiler ou d’évaluer si les migrants pourraient constituer une menace sur la base de données personnelles connues ou prédictives et de prévoir les mouvements individuels ou collectifs autour des passages frontaliers. Les eurodéputés de gauche soutiennent les deux amendements et ont également proposé d’interdire tout système qui pourrait être utilisé pour détecter la présence d’une personne sur les lieux de travail, les établissements d’enseignement et la surveillance des frontières. Systèmes à haut risque Deux groupes politiques qui n’ont pas soutenu l’accord étaient la gauche et les conservateurs et réformistes européens, qui ont respectivement déposé 16 et 9 amendements. Les principaux amendements concernent la classification des systèmes d’IA comme à haut risque de causer des dommages, car dans ces cas, les développeurs devraient se conformer à des obligations plus strictes en matière de gestion des risques, de gouvernance des données et de documentation technique. Dans le texte original, les systèmes d’IA qui relèvent d’une liste de domaines critiques ou de cas d’utilisation seraient automatiquement considérés comme à haut risque. Cet automatisme a été supprimé comme une concession au centre-droit, mais les gauchistes tentent maintenant de le réintroduire. Le texte de compromis a considérablement affiné et élargi cette liste de domaines et de cas d’utilisation à haut risque, y compris les systèmes de recommandation utilisés par les plateformes de médias sociaux désignées comme ayant une pertinence systémique en vertu de la loi sur les services numériques (DSA). Un amendement du groupe conservateur limiterait cette catégorie aux seules plateformes non conformes au DSA, expliquant qu’« il n’y a pas lieu de dupliquer les obligations ». IA générative Pour les modèles de base, notamment pour l’IA générative comme ChatGPT, les eurodéputés ont convenu d’introduire des obligations spécifiques, dont le fait qu’ils devraient publier un résumé suffisamment détaillé des données d’entraînement couvertes par le droit d’auteur. Les eurodéputés conservateurs proposent d’introduire une mise en garde afin qu’un tel résumé fasse l’objet d’exclusions de toute donnée protégée par des droits de protection intellectuelle ou constitue un secret commercial. Droits supplémentaires Les amendements de la gauche introduiraient également le droit pour une personne affectée par un système d’IA de demander une explication du processus décisionnel et de demander à une organisation d’intérêt public de porter plainte auprès des autorités nationales compétentes si elle pense qu’un système d’IA enfreint la loi sur l’IA. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57