Les députés débattront du dialogue réglementaire sur la classification des IA à haut risque


Les législateurs de l’UE doivent délibérer sur la manière dont les systèmes d’intelligence artificielle (IA) devraient être classés en termes de risques réels ou potentiels qu’ils présentent sous les auspices de la nouvelle loi sur l’IA.

La loi sur l’IA est une proposition phare de l’UE visant à réglementer la technologie de l’IA en fonction de ses risques potentiels. Au cœur de la proposition se trouve la catégorie à haut risque, qui implique des exigences plus strictes en termes de robustesse et de gestion des risques de la part du développeur d’IA.

Les députés européens impliqués dans le dossier discuteront de cet aspect critique de la proposition lors d’une réunion politique mercredi 1er février. Selon un agenda obtenu par EURACTIV, la disposition définissant le processus de classification des risques IA sera au centre du débat.

L’ordre du jour comprend un éventuel compromis des co-rapporteurs Brando Benifei et Dragos Tudorache. Les principaux députés européens ont déjà proposé un texte de compromis la semaine dernière, mais la nouvelle version comprend des changements importants qui pourraient ouvrir la voie à un terrain d’entente.

Lors de la même réunion, les législateurs devraient formellement approuver les compromis sur les exigences des systèmes d’IA à haut risque et les mesures favorisant l’innovation.

Classement à haut risque

Le projet initial de règlement classait l’IA à haut risque sur la base d’une liste de domaines critiques où la technologie est appliquée, y compris des secteurs tels que l’application de la loi ou les soins de santé. Dans le compromis de la semaine dernière, les co-rapporteurs ont proposé de rendre le processus moins automatique.

En d’autres termes, les développeurs d’IA auraient la possibilité d’auto-évaluer si leur système présente un risque « significatif » de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes. Le mot significatif a été ajouté à partir du texte précédent avec une définition.

« Risque significatif », un risque d’atteinte à la santé et à la sécurité, aux droits fondamentaux des personnes physiques potentiellement impactées, qui est significatif en termes de gravité, d’intensité, de probabilité d’occurrence/probabilité de survenir, de durée de ses effets et de sa capacité à affecter un individu, une pluralité de personnes ou pour affecter un groupe particulier de personnes », lit-on dans le texte.

Si les développeurs d’IA considèrent qu’il n’y a pas de risque significatif, ils devraient demander une exemption à l’autorité de surveillance nationale du pays concerné ou à l’Office de l’UE si le système doit être lancé sur plus d’un marché européen.

L’autorité compétente engagerait alors un dialogue réglementaire avec le prestataire, et devrait rendre une décision motivée dans un délai de trois mois.

Quoi qu’il en soit, le système d’IA serait toujours classé comme présentant un risque élevé s’il s’agit d’un composant de sécurité de produits couverts par la législation sectorielle de l’UE qui exige que le produit soit soumis à un contrôle d’évaluation de la conformité par une tierce partie. Par exemple, si le système d’IA est utilisé pour assurer la sécurité d’un jouet ou d’un ascenseur.

Remarquablement, la définition du composant de sécurité a été modifiée pour ne faire référence qu’au risque lié à la défaillance ou au dysfonctionnement potentiel du système d’IA pour la santé et la sécurité des personnes, tandis que la sécurité des biens était exclue.

Modification de la liste à haut risque

La liste des domaines critiques pour les applications d’IA à haut risque a été incluse dans l’annexe III, dans le but d’habiliter la Commission européenne à la mettre à jour en fonction des évolutions technologiques et du marché. En dessous de chaque domaine à haut risque, il existe des cas d’utilisation spécifiques, par exemple, des systèmes qui sont utilisés pour accepter des étudiants à l’université pour le secteur de l’éducation.

Pour le dernier compromis, l’exécutif européen devrait avoir le pouvoir d’ajouter ou de modifier la liste des domaines et des cas d’utilisation via des actes délégués. De même, la Commission pourrait supprimer des cas d’utilisation de la liste, mais pas des domaines critiques, s’ils pensent qu’ils ne s’appliquent plus.

[Edited by Alice Taylor]





Source link -42