Customize this title in frenchLoi sur l’IA : le Parlement européen peaufine le texte avant le vote en commission clé

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes législateurs européens ont finalisé le texte du règlement sur l’IA avant le vote dans les principales commissions parlementaires jeudi 11 mai. La loi sur l’IA est une proposition législative historique visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. Les membres du Parlement européen (MPE) à la tête du dossier ont partagé une version affinée des amendements de compromis vendredi 5 mai. Les compromis, vus par EURACTIV, reflètent un accord politique plus large conclu fin avril, mais incluent également des changements de dernière minute et des détails importants sur la manière dont l’accord a été mis en œuvre. Les députés scellent l’accord sur la loi sur l’intelligence artificielle Après des mois d’intenses négociations, les membres du Parlement européen (MPE) ont aplani leur différend et sont parvenus à un accord politique provisoire sur le premier livre de règles sur l’intelligence artificielle au monde. Modèles de fondation La proposition initiale de la loi sur l’IA ne couvrait pas les systèmes d’IA sans objectif spécifique. Le succès fulgurant de ChatGPT et d’autres modèles d’IA générative a perturbé les discussions, incitant les législateurs à s’interroger davantage sur la meilleure façon de réglementer ces systèmes. L’arrangement a été trouvé en imposant un régime plus strict pour les modèles dits de base, de puissants systèmes d’IA qui peuvent alimenter d’autres applications d’IA. En ce qui concerne spécifiquement l’IA générative, les députés ont convenu qu’ils devraient fournir un résumé des données de formation couvertes par la loi sur le droit d’auteur. Le texte affiné précise que ce résumé doit être « suffisamment détaillé ». De plus, les modèles de base génératifs devraient garantir la transparence que leur contenu est IA plutôt que généré par l’homme. Les amendes pour les fournisseurs de modèles de fondation qui enfreignent les règles de l’IA ont été fixées à 10 millions d’euros ou 2 % du chiffre d’affaires annuel, selon le montant le plus élevé. Systèmes à haut risque La loi sur l’IA établit un régime strict pour les solutions d’IA à haut risque de causer des dommages. À l’origine, la proposition classait automatiquement comme à haut risque tout système relevant de certains domaines critiques ou cas d’utilisation énumérés à l’annexe III. Cependant, les législateurs de l’UE ont ajouté une «couche supplémentaire», ce qui signifie que la catégorisation ne sera pas automatique. Les systèmes devront également présenter un « risque important » pour être considérés comme à haut risque. Un nouveau paragraphe a été introduit pour mieux définir ce qu’est un risque significatif, indiquant qu’il doit être évalué en tenant compte « d’une part de l’effet d’un tel risque par rapport à son niveau de gravité, d’intensité, de probabilité d’occurrence et de durée combinés et d’autre part d’autre part si le risque peut affecter un individu, une pluralité de personnes ou un groupe particulier de personnes. Quelques modifications de dernière minute ont également été apportées à l’annexe III. Les députés ont convenu d’inclure les systèmes de recommandation des très grandes plateformes en ligne comme une catégorie à haut risque en vertu de la loi sur les services numériques. Le dernier compromis limite cette catégorie à haut risque aux réseaux sociaux. Les systèmes d’IA utilisés pour influencer le résultat du comportement électoral sont considérés comme à haut risque. Pourtant, une exception a été introduite pour les modèles d’IA dont la sortie n’est pas directement vue par le grand public, comme des outils pour organiser des campagnes politiques. Une nouvelle a été ajoutée concernant les exigences de ces systèmes, obligeant les systèmes d’IA à haut risque à se conformer aux exigences d’accessibilité. En termes de transparence, le texte précise que « les personnes affectées doivent toujours être informées qu’elles sont soumises à l’utilisation d’un système d’IA à haut risque, lorsque les déployeurs utilisent un système d’IA à haut risque pour aider à la prise de décision ou prendre des décisions liées ». aux personnes physiques ». À la demande du centre-gauche, le texte du Parlement inclut une obligation pour ceux qui déploient un système à haut risque dans l’UE de procéder à une évaluation d’impact sur les droits fondamentaux. Cette analyse d’impact comprend une consultation avec l’autorité compétente et les parties prenantes concernées. Dans un nouvel ajout au texte, les PME ont été exemptées de cette disposition de consultation. Pratiques interdites La loi sur l’IA interdit les applications considérées comme présentant un risque inacceptable. Les législateurs progressistes ont obtenu l’extension de l’interdiction aux systèmes d’identification biométrique pour une utilisation en temps réel et ex post, sauf pour ces derniers en cas de crime grave et d’autorisation préjudicielle. L’interdiction de l’identification biométrique est difficile à digérer pour le Parti populaire européen de centre-droit, qui a une forte faction en faveur de l’application de la loi. Le groupe conservateur a obtenu de voter sur les interdictions biométriques par un vote partagé, séparément du reste des compromis, selon un projet de liste de vote consulté par EURACTIV. De plus, dans l’interdiction de la catégorisation biométrique, une exception a été introduite à des fins thérapeutiques. Gouvernance et application Les députés ont présenté la figure de l’Office AI, un nouvel organe de l’UE chargé de soutenir l’application harmonisée du règlement sur l’IA et les enquêtes transfrontalières. Une formulation a été ajoutée faisant référence à la possibilité de renforcer l’Office à l’avenir pour mieux soutenir l’exécution transfrontalière. La référence est de le transformer en agence, une solution que le budget actuel de l’UE ne permet pas. Dans un ajustement de dernière minute, les législateurs de l’UE ont donné aux autorités nationales le pouvoir de demander l’accès aux modèles formés et de formation des systèmes d’IA, y compris aux modèles de base. L’accès peut avoir lieu sur place ou, dans des circonstances exceptionnelles, à distance. En outre, le document mentionne une proposition visant à ajouter une disposition sur le secret professionnel pour les autorités nationales tirée du règlement général de l’UE sur la protection des données. Examen La liste des éléments que la Commission européenne doit prendre en compte lors de l’évaluation de la loi sur l’IA a été étendue aux exigences de durabilité, au régime juridique des modèles de fondation et aux clauses contractuelles abusives imposées unilatéralement aux PME et aux start-up par les fournisseurs d’IA à usage général. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57