[ad_1]
L’interdiction de la notation sociale a été étendue aux entreprises privées, des bacs à sable réglementaires pourraient être utilisés pour démontrer la conformité, et le rôle du Bureau de l’IA a été réduit dans une nouvelle série d’amendements de compromis à la prochaine loi sur l’IA.
Le 15 février, les législateurs européens se sont réunis pour une session de négociation « marathon » sur la loi, une proposition législative historique visant à réglementer l’intelligence artificielle en fonction de ses risques potentiels. Bien qu’aucun accord politique global n’ait été atteint, les députés européens ont fourni des commentaires détaillés.
Ces réactions se sont traduites par la révision de presque tous les lots d’amendements de compromis que les co-rapporteurs du Parlement européen Brando Benifei et Dragoș Tudorache ont partagés vendredi dernier (24 février) et ont été obtenus par EURACTIV.
Pratiques interdites
La loi sur l’IA interdit les utilisations spécifiques de l’IA qui présentent un trop grand risque. Cette catégorie politiquement sensible comprend la notation sociale, un système de contrôle de la population répandu utilisé dans certaines parties de la Chine. L’interdiction de la notation sociale a été étendue aux entités privées.
Des notes en marge du document anticipent que les interdictions de la catégorisation biométrique et des techniques subliminales seront développées dans le préambule du texte, notamment en cas de manipulation psychologique pour préciser le rapport à la publicité.
Gouvernance et application
Le rôle de l’Office AI, un organe de l’UE proposé pour centraliser l’application du règlement, a été considérablement réduit, peut-être pour répondre aux préoccupations concernant le manque de ressources. Le Bureau AI soutiendra les enquêtes conjointes.
Cependant, dans les cas les plus extrêmes, où un système d’IA non conforme entraîne des risques importants au niveau national, il appartiendra à la Commission de jouer un rôle essentiel en consultant les autorités concernées et en rendant une décision contraignante en cas de désaccord. .
Néanmoins, si l’application AI présente un risque grave malgré le respect du règlement de l’UE sur l’IA, ce rôle serait joué par l’Office AI. Cette incohérence résulte probablement des négociations politiques.
L’Office AI a été chargé de collecter l’expertise et de partager les meilleures pratiques entre les pays de l’UE, notamment en créant un pool européen d’experts, une idée qui trouve son origine dans le domaine de la protection des données et qui a déjà été prise en compte dans le texte du Conseil de l’UE .
Les législateurs de l’UE proposent également de donner la possibilité d’intenter des actions représentatives pour les infractions au règlement sur l’IA.
Bacs à sable réglementaires
Une nouvelle formulation a été ajoutée exigeant que les autorités établissant les bacs à sable guident et supervisent les développeurs de systèmes d’IA à haut risque afin qu’ils puissent être présumés conformes à la loi sur l’IA lorsqu’ils quittent le bac à sable.
Obligations à haut risque
Le test des systèmes d’IA à haut risque doit désormais tenir compte de l’objectif visé et de l’utilisation abusive raisonnablement prévisible. Les catégories qui devraient faire l’objet d’une attention particulière dans l’évaluation des risques ont été limitées aux groupes vulnérables et aux enfants.
La disposition qui obligeait les développeurs d’IA à vérifier que les ensembles de données utilisés pour former leur modèle avaient été obtenus légalement a été supprimée. Cette disposition aurait affecté de grands modèles de langage comme ChatGPT, qui sont formés en grattant d’énormes quantités de données sur Internet.
Néanmoins, une note en marge du texte indique que le préambule du texte précisera que ces processus de collecte de données doivent être conformes aux secrets commerciaux, à la propriété intellectuelle et aux règles de protection des données. La référence aux droits de propriété intellectuelle semble destinée à protéger l’industrie créative, car ses œuvres sont utilisées pour alimenter l’IA générative.
Les références aux principes de minimisation des données et de protection des données dès la conception et par défaut ont été supprimées des exigences de gouvernance des données. La documentation technique à fournir a été légèrement simplifiée.
En ce qui concerne le contrôle de la qualité, les compromis précisent que les développeurs d’IA qui ont déjà mis en place un système de gestion de la qualité conforme aux normes internationales pourraient adapter les systèmes existants aux exigences de la réglementation sur l’IA.
Portée
Le compromis précise que les modèles d’IA open source n’entrent pas dans le champ d’application du règlement, sauf s’ils sont mis sur le marché ou mis en service dans le cadre d’un système à haut risque plus large, d’une pratique interdite ou d’un système produisant des contrefaçons profondes.
Analyse d’impact sur les droits fondamentaux
La proposition des co-rapporteurs d’introduire une analyse d’impact sur les droits fondamentaux pour les utilisations de l’IA relevant des domaines jugés à haut risque a été maintenue. Cependant, les éléments minimaux ont été légèrement réduits et une exclusion pour les systèmes qui géraient une infrastructure critique a été ajoutée.
Reconnaissance de l’évaluation de la conformité
Les solutions d’IA, en particulier celles qui comportent un niveau de risque important, devront faire l’objet d’une procédure d’évaluation de la conformité. Les législateurs européens souhaitent que la Commission établisse des accords de reconnaissance mutuelle avec des pays étrangers ayant des niveaux d’évaluation de la conformité comparables.
Composant de sécurité
Les systèmes d’IA qui agissent en tant que composants de sécurité des produits couverts par la législation de l’UE, comme les jouets et les machines industrielles, sont considérés comme présentant un risque élevé de causer des dommages. La définition des composants de sécurité a été modifiée pour la limiter à la prévention des risques pour la santé et la sécurité des personnes.
Normes techniques
Les principaux députés souhaitent que la Commission publie des spécifications communes concernant les exigences des systèmes à haut risque liés à la protection des droits fondamentaux. Ces spécifications communes seraient abrogées une fois incluses dans les normes techniques pertinentes.
[Edited by Alice Taylor]
[ad_2]
Source link -42