Les principaux eurodéputés excluent l’IA à usage général des catégories à haut risque – pour l’instant


Les co-rapporteurs du Parlement européen ont fait circuler un nouveau lot d’amendements de compromis à la loi sur l’IA sur la classification des systèmes d’IA à haut risque, laissant de côté l’IA à usage général pour les discussions futures.

Le règlement proposé est conçu pour réglementer l’intelligence artificielle (IA) en fonction de son potentiel de nuisance. Ainsi, un élément crucial de la législation sur l’IA est de savoir quels cas d’utilisation de l’IA doivent être considérés comme à haut risque, car ceux-ci doivent respecter des obligations plus strictes.

Les principaux députés européens Brando Benifei et Dragoș Tudorache ont fait circuler le dixième lot d’amendements de compromis proposant une refonte importante de cette partie du règlement de l’IA. Le document, daté du 8 décembre et vu par EURACTIV, devrait être discuté au niveau politique mercredi 14 décembre.

Catégorisation à haut risque

La classification à haut risque se produit sur la base de deux possibilités. La première est que le système d’IA est, ou fait partie, du composant de sécurité pour les produits couverts par la législation d’harmonisation de l’UE, tels que les machines et les jouets.

Dans ce cas, le texte précise qu’un système d’IA est à considérer à haut risque si sa défaillance ou son dysfonctionnement est susceptible de mettre en danger la santé, la sécurité ou les droits fondamentaux des personnes.

Deuxièmement, les applications d’IA seraient considérées comme à haut risque si elles relèvent des domaines et des cas d’utilisation énumérés à l’annexe III.

À cet égard, les principaux députés européens ont ajouté une exigence supplémentaire selon laquelle cette liste à haut risque ne fait référence qu’aux systèmes à usage prévu, une formulation destinée à exclure l’IA à usage général de la classification.

« Dans l’attente des discussions, GPAI [general-purpose AI] seront traités séparément », indique une note en marge du texte.

De plus, si un système est utilisé dans les domaines énumérés à l’annexe III, il ne sera plus automatique qu’il soit considéré comme à haut risque, car le législateur a ajouté deux scénarios possibles.

Notamment, le système relèvera de la catégorie la plus stricte soit s’il reçoit des données personnelles ou biométriques en entrée, soit s’il est destiné à prendre ou à faciliter des décisions affectant la santé, la sécurité ou les droits fondamentaux des personnes.

Le premier critère est particulièrement large, car la plupart des systèmes d’IA sont formés avec des ensembles de données mélangeant des données personnelles et non personnelles. Le libellé pourrait être considéré comme un mouvement pour changer cette tendance en décourageant l’utilisation de données personnelles comme entrées d’IA.

Pouvoirs de révision

Les amendements de compromis habilitent la Commission européenne à modifier la liste de l’annexe III en ajoutant ou en supprimant des zones à haut risque ou des cas d’utilisation spécifiques à condition que le système d’IA « présente un risque grave d’atteinte à la santé et à la sécurité, d’impact négatif sur droits fondamentaux, à l’environnement ou à la démocratie et à l’État de droit ».

Dans le texte original, l’exécutif européen ne pouvait ajouter que des cas d’utilisation dans les domaines à haut risque existants, sans modifier les domaines ni les supprimer.

Les conditions d’évaluation de ces nouveaux risques ont été considérablement remaniées pour inclure également les fonctionnalités du système qui vont au-delà de sa destination, le potentiel d’abus, la nature et la quantité de données traitées, le niveau d’autonomie du système, les risques de discrimination, les mesures d’atténuation disponibles, les avantages potentiels du système et l’efficacité de la surveillance humaine.

Au cours de cette évaluation, la Commission devrait consulter l’Office AI, qui, dans la version du texte du Parlement, jouerait un rôle centralisateur dans l’architecture de gouvernance, et les partenaires sociaux des groupes susceptibles d’être touchés par le système.

L’Office AI et les autorités nationales pourraient contester la catégorisation de la Commission, à la suite de quoi l’exécutif européen devrait réévaluer sa décision et publier son raisonnement. La procédure applicable à ces cas doit être détaillée dans un acte délégué.

« Dans un souci de clarté et de compatibilité entre les différents amendements, ils [the-rapporteurs] proposent un texte de compromis qui rend compte des intentions politiques derrière les différentes propositions de réorganisation du texte, tout en respectant autant que possible le texte original afin de faciliter à la fois les négociations internes et les trilogues », lit-on dans une note au compromis.

Les considérants ci-joints, destinés à clarifier les dispositions des articles respectifs, n’ont pas été modifiés.

[Edited by Nathalie Weatherald]





Source link -42