Le Conseil de l’UE s’approche d’une position commune sur la loi sur l’IA dans un texte en demi-finale


La présidence tchèque du Conseil de l’UE a fait circuler mercredi 19 octobre un nouveau compromis sur la loi sur l’intelligence artificielle (IA), qui devrait servir de base à un accord le mois prochain.

La loi sur l’IA est une législation historique qui vise à réglementer le secteur en fonction de ses risques potentiels. La présidence tchèque a donné la priorité au dossier, visant une approche générale lors d’une réunion ministérielle le 6 décembre.

Le nouveau compromis, le quatrième au total, sera discuté lors du groupe de travail Télécom du Conseil de l’UE mardi prochain (25 octobre). Si aucun problème important ne se pose, les ambassadeurs auprès de l’UE pourraient donner leur feu vert au texte d’ici la mi-novembre.

Portée

En termes de champ d’application, le nouveau texte précise que l’exemption militaire, de défense et de sécurité nationale s’applique également à toute utilisation de systèmes d’IA, et pas seulement à la mise sur le marché.

Une autre exemption a été ajoutée pour les personnes utilisant l’IA à des fins non professionnelles, ce qui ne relèverait pas du champ d’application du règlement sur l’IA, à l’exception des obligations de transparence.

Reconnaissance biométrique

Concernant la question controversée des systèmes d’identification biométriques, logiciels capables de reconnaître les personnes par leur visage ou d’autres traits, la notion de télécommande a été réintroduite. L’année dernière, la Présidence slovène a supprimé cet adjectif jugé déroutant.

Cependant, depuis lors, les États membres ont commencé à craindre que les empreintes digitales ne relèvent également du champ d’application. Par conséquent, la définition de la télécommande inclut désormais deux conditions : que le système soit utilisé à distance et que l’identification se produise sans l’implication active de la personne.

IA polyvalente

Les systèmes d’IA à usage général sont de grands modèles qui peuvent être adaptés pour exécuter diverses tâches ; par conséquent, leur appliquer les nouvelles règles de l’IA était considéré comme problématique. La solution de la présidence tchèque a été de charger la Commission d’adapter les obligations dans un acte d’exécution.

Cette approche a été largement maintenue, confirmant qu’elle a reçu le soutien des pays de l’UE. Dans le même temps, le texte précise désormais que les fournisseurs d’IA à usage général peuvent toujours participer à des bacs à sable réglementaires et appliquer des codes de conduite avant même que la Commission ne publie ses règles ciblées.

Systèmes d’IA à haut risque

Une nouvelle obligation de transparence a été ajoutée, demandant aux fournisseurs de systèmes susceptibles de causer des dommages importants d’inclure le résultat attendu dans les instructions d’utilisation, le cas échéant.

Pour les systèmes de gestion de la qualité que les fournisseurs d’IA à haut risque devront mettre en œuvre, une nouvelle formulation a été introduite pour les aligner sur des systèmes similaires mandatés par la législation sectorielle.

Les systèmes de contrôle de la pollution ont été retirés de la liste des cas d’utilisation à haut risque, tandis que les systèmes de calcul des risques et de tarification des assurances ont été ajoutés, sauf si le fournisseur est une PME.

Forces de l’ordre

Dans les compromis précédents, le Conseil de l’UE s’était déjà engagé à réduire une marge de manœuvre importante pour les forces de l’ordre. Le nouveau texte étend l’exemption au principe des quatre yeux, qui requiert au moins deux personnes pour vérifier une décision d’un système à haut risque.

En outre, les autorités publiques utilisant des systèmes à haut risque dans les domaines de l’application de la loi, de la migration, de l’asile et du contrôle des frontières, ainsi que des infrastructures critiques ont été dispensées de s’inscrire dans la base de données de l’UE.

Pour l’utilisation de systèmes à haut risque dans ce domaine, les États membres pourraient décider de désigner des forces de police ou des autorités judiciaires comme autorités de surveillance du marché. Le texte précise désormais que ces activités de surveillance du marché ne doivent pas porter atteinte à l’indépendance des tribunaux.

Innovation

Une autre partie importante de la discussion au sein du Conseil de l’UE a porté sur les bacs à sable réglementaires, des environnements contrôlés où les entreprises peuvent expérimenter sous la supervision d’un régulateur.

L’apprentissage réglementaire fondé sur des preuves a été ajouté aux objectifs des bacs à sable, car leurs résultats pourraient être utilisés pour éclairer la législation secondaire et les mesures d’application.

L’autorité de contrôle est désormais tenue de fournir un «rapport de sortie» contenant les principales conclusions, qui devrait être rendu public si toutes les parties sont d’accord. Dans le même temps, la formulation a été modifiée pour donner aux autorités nationales plus de flexibilité dans la mise en place des bacs à sable de l’IA.

Gouvernance

Selon la nouvelle rédaction, le AI Board, qui réunira des représentants des États membres, devra soutenir la surveillance du marché « notamment en ce qui concerne l’émergence de risques de nature systémique pouvant découler des systèmes d’IA ».

Dans un précédent compromis, la présidence a introduit la possibilité de créer un groupe d’experts pour soutenir le comité de l’IA, sur le modèle du comité européen de la protection des données. Le pool d’experts est devenu obligatoire.

Obligation de transparence

Les obligations de transparence pour des applications d’IA spécifiques telles que les deep fakes ont été modifiées pour « ne pas entraver le droit à la liberté des arts, en particulier lorsque le contenu fait partie d’une œuvre ou d’un programme manifestement créatif, satirique, artistique ou fictif ».

Pénalités

La violation des obligations de transparence et des exigences relatives à l’IA à usage général a été ajoutée à la liste des violations pouvant entraîner des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel.

D’autres points ont été ajoutés pour être pris en compte lors du calcul de la sanction, y compris la nature intentionnelle ou négligente de l’infraction, les tentatives d’atténuation et si des infractions similaires ont déjà été sanctionnées.

Spécifications communes

La définition et l’approche suivies pour les spécifications communes étaient alignées sur le règlement sur les machines. En particulier, les spécifications communes seraient abrogées une fois les normes harmonisées adoptées.

[Edited by Alice Taylor]





Source link -42