AI Act : toutes les questions politiques ouvertes au Parlement européen

[ad_1]

Les rapporteurs du Parlement européen sur la loi sur l’IA ont diffusé lundi 13 février un ordre du jour pour une réunion politique clé qui comprend de nouveaux compromis sur la définition, la portée, les pratiques interdites et les catégories à haut risque de l’IA.

Samedi, Brando Benifei et Dragoș Tudorache ont partagé une nouvelle série d’amendements de compromis, obtenus par EURACTIV, à l’ordre du jour d’une réunion parallèle mercredi en raison du règlement de certaines des questions les plus critiques encore ouvertes sur le projet de loi sur l’IA – une proposition visant à réglementer L’Intelligence Artificielle basée sur sa capacité à causer du tort.

Définition de l’IA

La définition de l’intelligence artificielle est une question fondamentale car elle détermine l’application du livre de règles de l’IA. Les principaux législateurs de l’UE ont proposé d’utiliser la définition de l’Institut national américain des normes et de la technologie.

L’IA est ainsi définie comme « un système d’ingénierie ou basé sur une machine qui peut, pour un ensemble donné d’objectifs, générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner avec différents niveaux d’autonomie ».

Le préambule du texte précise que l’IA doit être capable d’agir avec un niveau minimum d’indépendance par rapport au contrôle humain, peut posséder des capacités d’apprentissage (c’est-à-dire l’apprentissage automatique) et ne couvre pas les systèmes entièrement traçables et prévisibles.

Une clarification critique concerne les «objectifs» du modèle d’IA, car les grands modèles de langage connus sous le nom d’IA à usage général peuvent être adaptés pour effectuer diverses tâches.

« La référence à un ensemble donné d’objectifs n’est pas liée à l’objectif final ou au but du système, mais plutôt au processus d’optimisation des paramètres au sein du modèle. Ces objectifs peuvent être à la fois explicites et implicites », indique le compromis.

De plus, le texte précise désormais que chaque fois qu’une solution d’IA est intégrée dans un système plus étendu, tous les composants interagissant avec la nouvelle solution doivent être considérés comme faisant partie du système.

La définition de l’IA a été déplacée de l’annexe au corps de la loi, ce qui signifie qu’il ne sera pas possible pour la Commission européenne de la modifier ultérieurement.

Portée

En ce qui concerne le champ d’application, les co-rapporteurs veulent savoir si le règlement sur l’IA devrait empêcher les fournisseurs de l’UE de déployer des solutions d’IA interdites comme les systèmes de notation sociale dans le marché unique, mais aussi de les exporter à l’étranger.

Une exemption partielle a été proposée sur les systèmes d’IA open source.

« Jusqu’à ce que ces systèmes soient mis en service ou mis à disposition sur le marché moyennant paiement, que ce paiement concerne le système d’IA lui-même, la fourniture du système d’IA en tant que service ou la fourniture d’un support technique pour l’IA système en tant que service.

Pratiques interdites

Les systèmes d’IA utilisant des traits biométriques pour catégoriser les personnes utilisant ou inférant des attributs sensibles ou protégés ont été ajoutés à la liste des pratiques interdites. En vertu du règlement général sur la protection des données, les informations protégées incluent la race, l’orientation sexuelle et religieuse.

Les principaux députés européens souhaitent également interdire les modèles d’IA qui remplissent les bases de données de reconnaissance faciale en supprimant sans discernement les images de visage des images de profil des réseaux sociaux, des CCTV et de tout autre cas d’utilisation répertorié dans la liste des zones à haut risque.

Catégorisation à haut risque

La loi sur l’IA définit certains systèmes d’IA comme présentant un risque élevé de causer des dommages, une catégorie qui devra se conformer à des exigences plus strictes. L’annexe III du règlement répertorie les zones à haut risque et les cas d’utilisation.

La proposition initiale stipulait que les modèles d’IA dont l’objectif visé relevait de ces domaines et cas d’utilisation devaient être considérés comme à haut risque. Cette notion de « finalité prévue » ne s’applique pas à certains cas d’utilisation, comme les systèmes d’IA utilisés par les partis politiques, dans le processus démocratique et pour la recherche scientifique.

Si les développeurs d’IA considèrent que leur système n’est pas à haut risque, même s’il relève de l’annexe III, ils pourraient notifier l’autorité nationale ou le bureau d’IA si plus d’un pays de l’UE est impliqué.

Le compromis initial imposait à l’autorité compétente de répondre dans un délai d’un mois. Dans la nouvelle version, les co-rapporteurs ont proposé une clause de consentement tacite, ce qui signifie que l’exemption sera justifiée si l’autorité ne répond pas dans les trois mois.

Base de données de l’UE

La proposition initiale exigeait que les fournisseurs de systèmes d’IA à haut risque s’enregistrent dans une base de données à l’échelle de l’UE. Les législateurs proposent d’étendre cette obligation aux déployeurs d’IA qui sont des organismes publics ou des entreprises privées désignés comme gardiens en vertu de la loi sur les marchés numériques.

Principes généraux

Un nouvel article contenant des principes généraux applicables à tous les systèmes d’IA a été introduit sur une base volontaire pour tous les algorithmes n’entrant pas dans la catégorie à haut risque. La Commission et l’Office AI devraient émettre des recommandations sur la manière de se conformer à ces principes.

Les principes incluent la surveillance humaine, la robustesse technique, le respect des règles de protection des données, une explicabilité appropriée, la non-discrimination et l’équité, ainsi que le bien-être social et environnemental.

Littératie en IA

Une nouvelle mesure a été ajoutée obligeant l’UE et ses États membres à promouvoir l’éducation aux médias auprès du grand public. Les fournisseurs et les déployeurs d’IA devront assurer la maîtrise de l’IA pour leur personnel, y compris la manière de se conformer au règlement sur l’IA.



[ad_2]

Source link -42