Loi IA : les co-rapporteurs réclament la clôture du classement à haut risque, des bacs à sable


Les législateurs européens à la tête des travaux sur la loi sur l’IA ont diffusé de nouveaux amendements de compromis pour finaliser la classification des systèmes d’IA qui présentent des risques importants et les mesures de promotion de l’innovation.

La loi sur l’IA est une législation européenne historique visant à réglementer l’intelligence artificielle en fonction de sa capacité à nuire aux personnes. Les nouveaux lots de compromis, vus par EURACTIV, ont été au centre d’une réunion technique jeudi 26 janvier.

Classement à haut risque

Les dispositions classant un système à haut risque de nuisance ont été considérablement modifiées. L’une des façons pour qu’une IA tombe dans la catégorie à haut risque est si elle est utilisée dans l’un des secteurs énumérés à l’annexe III, tels que la santé ou l’emploi.

Toutefois, la catégorisation des systèmes relevant de cette liste de cas d’utilisation ne sera pas automatique, car ils devraient « présenter un risque d’atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques d’une manière qui produit des effets juridiques les concernant ou a un effet tout aussi significatif ».

Les fournisseurs d’IA pourraient ensuite s’adresser à un bac à sable – un système de test sécurisé – pour déterminer si leur système appartient à la catégorie à haut risque. S’ils ne l’estiment pas, ils devront introduire une demande motivée auprès de l’autorité nationale compétente pour être exemptés des obligations correspondantes.

Si le système doit être utilisé dans plus d’un État membre, la demande serait transmise au Bureau de l’IA, un organe de l’UE dont les députés ont discuté pour rationaliser l’application au niveau européen.

De plus, dans le compromis précédent, les co-rapporteurs proposaient d’exclure l’IA à usage général, des modèles de langage adaptables à diverses tâches comme ChatGPT, en vue d’aborder ultérieurement ce type de système particulier. L’exclusion a été maintenue dans le nouveau texte.

Comme il n’y avait pas de temps pour discuter de cette partie du texte jeudi, elle sera reprise lors d’une réunion technique lundi prochain.

Obligations pour les systèmes à haut risque

Le nouveau texte de compromis aborde également les obligations des développeurs d’IA de systèmes considérés à haut risque.

Dans les systèmes de gestion des risques, parmi les éléments que les prestataires à haut risque devraient prendre en compte lors de l’évaluation raisonnable des risques prévisibles, la démocratie et l’État de droit ont été inclus plutôt que la référence plus vague aux «valeurs de l’UE».

Lorsqu’ils testent des systèmes d’IA à haut risque, les législateurs souhaitent que les développeurs d’IA tiennent compte non seulement de l’utilisation, mais aussi des abus raisonnablement prévisibles et de tout impact négatif sur les groupes vulnérables comme les enfants.

En ce qui concerne les ensembles de données informant les algorithmes, les développeurs d’IA seraient responsables de l’ensemble du cycle de vie du système pour disposer de mesures de gouvernance des données et de gestion des risques en rapport avec ses pratiques de collecte de données, y compris la vérification de la légalité de la source des données.

De plus, les développeurs d’IA devraient se demander si les ensembles de données pourraient conduire à des biais susceptibles d’avoir un impact sur la santé, la sécurité ou les droits fondamentaux d’une personne, par exemple en conduisant à une discrimination illégale. Le contexte et l’objectif visé par le système devraient également être pris en considération.

Les articles et l’annexe respective concernant la documentation technique et la tenue de registres pour les systèmes à haut risque n’ont pas été modifiés de manière significative depuis le compromis précédent et ont été largement approuvés lors de la réunion technique de jeudi.

Mesures d’innovation

En ce qui concerne les mesures de soutien à l’innovation, l’obligation pour chaque pays de l’UE de mettre en place au moins un bac à sable réglementaire, un environnement contrôlé où la technologie de l’IA pourrait être testée, a été maintenue dans le nouveau compromis.

Cependant, les législateurs sont sur le point d’inclure la possibilité pour les États membres d’établir le bac à sable conjointement avec d’autres pays.

Les objectifs de ces bacs à sable ont également été réécrits pour se concentrer sur l’orientation des développeurs et des fournisseurs d’IA sur la manière de se conformer à la loi sur l’IA et de faciliter le test et le développement de solutions innovantes et d’éventuelles adaptations à cette réglementation.

L’autorité publique établissant le bac à sable devrait remettre à l’Office AI et à la Commission européenne un rapport annuel qui serait publié avec toutes les informations pertinentes sur un site web géré par l’exécutif européen.

Les députés veulent également charger la Commission d’adopter un acte délégué pour définir comment les bacs à sable devraient être établis et supervisés dans un délai d’un an à compter de l’entrée en vigueur du règlement.

Les critères d’accès aux bacs à sable devraient être transparents et compétitifs, et les autorités devraient faciliter la participation des petites et moyennes entreprises (PME) et d’autres acteurs innovants. L’idée d’imposer le fonctionnement des bacs à sable réglementaires dans une annexe détaillée a été abandonnée.

La partie sur les bacs à sable réglementaires est pour la plupart non controversée, à l’exception du traitement ultérieur des données personnelles et des données couvertes par les droits de propriété intellectuelle pour développer des systèmes d’IA dans l’intérêt public.

Ce traitement supplémentaire permettrait à des cas comme le développement de l’IA de détecter des maladies ou de s’adapter au changement climatique. De même, un nouvel article a été introduit pour promouvoir la recherche sur l’IA à l’appui de résultats bénéfiques sur le plan social et environnemental.

Les principaux députés européens recherchent un large consensus sur les bacs à sable réglementaires dans la loi sur l’IA

Les législateurs codirigeants du règlement sur l’intelligence artificielle (IA) ont fait circuler un nouveau compromis qui intègre largement des éléments proposés par d’autres groupes politiques dans la partie innovation de la proposition.

Les co-rapporteurs pour la loi AI, Brando Benifei et Dragoș Tudorache, …

[Edited by Nathalie Weatherald]





Source link -42