[ad_1]
Le Parlement européen a accepté de clore un point litigieux critique de la loi sur l’IA en adoptant la définition utilisée par l’Organisation de coopération et de développement économiques (OCDE). La plupart des autres définitions ont également été convenues, avec de nouvelles mesures comme un droit à l’explication également sur la table des législateurs de l’UE.
Vendredi dernier (3 mars), les représentants des groupes politiques du Parlement européen travaillant sur la loi sur l’IA sont parvenus à un accord politique sur l’une des parties les plus politiquement sensibles du dossier, la définition même de l’intelligence artificielle, selon deux fonctionnaires du Parlement européen.
La loi sur l’IA est une proposition législative phare visant à réglementer cette technologie émergente en fonction de sa capacité à causer des dommages. Ce qui est défini comme l’intelligence artificielle sera très important car il définira également la portée du règlement de l’UE sur l’IA.
« »Système d’intelligence artificielle » (système d’IA) désigne un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions influençant des éléments physiques ou virtuels. environnements », lit le texte, vu par EURACTIV, qui a été discuté vendredi.
Définition de l’IA
Selon un responsable de l’UE présent à la réunion, l’accord visait à supprimer la notion de système « machine-based » du libellé. Un texte révisé est désormais attendu du bureau des co-rapporteurs, Brando Benifei et Dragoș Tudorache.
La définition recoupe largement celle de l’OCDE, une organisation internationale souvent considérée comme un club de pays riches.
De même, un ajout au préambule du texte demande que la définition de l’IA soit « étroitement alignée sur les travaux des organisations internationales travaillant sur l’intelligence artificielle pour garantir la sécurité juridique, l’harmonisation et une large acceptation ».
La reconnaissance internationale est la ligne poussée par le Parti populaire européen conservateur, qui souhaitait également restreindre la définition aux systèmes basés sur l’apprentissage automatique, tandis que les législateurs de gauche au centre demandaient une approche plus large ciblant la prise de décision automatisée.
En outre, un libellé a été inclus indiquant que la référence aux prédictions inclut le contenu, une mesure destinée à garantir que les modèles d’IA générative comme ChatGPT ne passent pas entre les mailles du règlement.
« Mais la question suivante est, bien sûr, de savoir s’ils relèvent du risque élevé et du chapitre 2 [related obligations] ou peut compter sur un gros GPAI [General Purpose Artificial Intelligence] exemption », a déclaré un responsable parlementaire, soulignant une question controversée que les députés européens ont à peine commencé à aborder.
Le texte d’accompagnement précise également que l’IA doit se distinguer par des systèmes logiciels ou des approches de programmation plus simples et que les objectifs fixés pourraient être différents de la finalité prévue du système d’IA dans un contexte spécifique.
Remarquablement, le compromis note que lorsqu’un modèle d’IA est intégré dans un système plus étendu entièrement dépendant du composant d’IA, l’ensemble du système est considéré comme faisant partie d’une seule solution d’IA.
Autres définitions
Lundi 6 mars, un accord a été trouvé lors d’une réunion technique sur la plupart des autres définitions du règlement sur l’IA. Dans ce cas, l’ajout le plus important aux amendements de compromis vu par EURACTIV concerne les définitions de risque significatif, d’authentification biométrique et d’identification.
« »Risque significatif » signifie un risque qui est significatif en termes de gravité, d’intensité, de probabilité d’occurrence, de durée de ses effets et de sa capacité à affecter un individu, une pluralité de personnes ou à affecter un groupe particulier de personnes. » précise le document.
Les systèmes de vérification biométrique à distance ont été définis comme des systèmes d’IA utilisés pour vérifier l’identité des personnes en comparant leurs données biométriques à une base de données de référence avec leur consentement préalable. Cela se distingue par un système d’authentification, où les personnes elles-mêmes demandent à être authentifiées.
Concernant la catégorisation biométrique, une pratique récemment ajoutée à la liste des cas d’utilisation interdits, une référence a été ajoutée pour déduire des caractéristiques personnelles et des attributs comme le sexe ou la santé.
Une référence a été introduite à la directive relative à l’application de la loi pour le profilage par les autorités chargées de l’application de la loi.
Articles autonomes
Jeudi, une autre réunion technique est prévue pour discuter des articles dits autonomes, des dispositions qui ne sont pas nécessairement liées au reste du projet de loi.
Un nouvel article a été introduit avec le droit à une explication de la prise de décision individuelle qui s’applique dans les cas où l’IA informe une décision qui produit des effets juridiques ou des effets similaires sur quelqu’un.
Une explication significative doit inclure le rôle joué par la solution d’IA dans la prise de décision, la logique et les principaux paramètres utilisés, ainsi que les données d’entrée. Pour rendre cette disposition efficace, les autorités répressives et judiciaires ne sont pas autorisées à utiliser des systèmes d’IA couverts par des droits de propriété.
D’autres nouvelles mesures comprennent des exigences d’accessibilité pour les fournisseurs et les utilisateurs d’IA, le droit de ne pas être soumis à des modèles d’IA non conformes et l’obligation pour les systèmes d’IA à haut risque d’être conçus et développés de manière à minimiser l’impact environnemental.
Les articles sur les principes généraux applicables à tous les systèmes d’IA et à la littératie en IA ont été largement maintenus puisqu’ils ont été initialement proposés lors d’une réunion politique à la mi-février, mais le temps n’a pas été disponible pour en discuter.
[Edited by Zoran Radosavljevic]
[ad_2]
Source link -42