Les députés avancent sur l’évaluation de la conformité de l’IA pour les utilisations à haut risque


*Cet article a été mis à jour pour préciser le périmètre de la procédure d’évaluation de la conformité.

Les législateurs européens à la tête de la loi sur l’IA ont diffusé des amendements de compromis révisés sur la manière dont les systèmes d’IA qui pourraient présenter des risques importants devraient se conformer aux exigences du règlement.

La loi sur l’IA est une proposition législative phare visant à réglementer l’intelligence artificielle (IA) en fonction de son potentiel de nuisance. Un élément fondamental du projet de loi est la catégorie des applications à haut risque, auxquelles il sera demandé de se conformer à des exigences plus strictes.

La manière dont les fournisseurs d’IA de ces systèmes devront se conformer aux règles énoncées dans la loi sur l’IA a fait l’objet d’une réunion technique qui s’est tenue lundi 6 février. Avant la réunion, les co-rapporteurs Brando Benifei et Dragoș Tudorache ont partagé des documents de compromis obtenus par EURACTIV avec d’autres législateurs.

Procédure d’évaluation de la conformité

La loi IA permet aux fournisseurs de systèmes d’identification et de catégorisation biométriques de démontrer leur conformité à deux procédures alternatives ; une évaluation par un tiers de leur système de gestion de la qualité et de leur documentation technique ou basée sur le contrôle interne.

Pour le législateur, les fournisseurs de systèmes d’identification et de catégorisation biométriques ne pourront utiliser le contrôle interne que s’ils utilisent intégralement les normes harmonisées. Si les normes n’existent pas, existent mais sont limitées, ou si les développeurs d’IA décident de ne pas les utiliser, un audit externe est alors nécessaire.

Les développeurs d’IA peuvent également demander une évaluation par un tiers s’ils le jugent nécessaire, quel que soit le niveau de risque du système. Les fournisseurs d’IA de tous les autres cas à haut risque pourront effectuer le contrôle en interne sans audit externe.

Des représentants de PME comme l’Alliance européenne des PME DIGITAL ont averti que ces cabinets d’audit seraient incités à gonfler les coûts de mise en conformité, ce qui désavantagerait les petits acteurs.

Pour atténuer ces inquiétudes, les membres du Parlement européen (MPE) ont introduit un article obligeant les organismes tiers à prendre en compte les intérêts et les besoins spécifiques des petits fournisseurs d’IA lors du calcul de leurs frais, « en réduisant ces frais proportionnellement à leur taille et à leur part de marché ».

La Commission européenne pourra modifier les dispositions des procédures d’évaluation de la conformité. Selon le compromis, l’exécutif européen pourra le faire après une consultation avec l’Office AI et les parties prenantes concernées et seulement après avoir fourni des « preuves substantielles ».

La notion de preuve substantielle n’est pas définie.

Dérogation à l’évaluation de la conformité

Dans un premier temps, les co-rapporteurs ont proposé de supprimer tout l’article qui permettait à une autorité de surveillance du marché de déroger à la procédure d’évaluation de la conformité pour mettre en service un système d’IA à haut risque sur son territoire national pour des raisons exceptionnelles comme la protection des personnes.

L’ensemble de l’article a été rétabli, mais l’autorité de surveillance du marché aurait désormais besoin d’une autorisation d’une autorité judiciaire pour la dérogation. Tant les demandes que les autorisations devraient être notifiées aux autres États membres et à la Commission.

Il est important de noter que la sécurité publique a été retirée des besoins exceptionnels pour lesquels une dérogation pourrait être demandée.

Les discussions techniques et politiques sont actuellement en cours au Parlement européen, en vue de parvenir à une position commune dans les prochaines semaines.

[Edited by Alice Taylor]





Source link -42