Customize this title in frenchLoi sur l’IA : le bureau juridique du Parlement européen donne un avis accablant sur les « filtres » de classification à haut risque

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les décideurs politiques de l’UE ont discuté de certaines conditions de filtrage qui permettraient aux développeurs d’IA d’éviter de se conformer au régime plus strict de la loi européenne sur l’intelligence artificielle. Mais ce compromis politique se heurte à d’importants problèmes juridiques.

La loi sur l’IA est une législation européenne historique visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. En tant que telle, la loi suit une approche basée sur les risques selon laquelle les modèles d’IA présentant un risque important pour la santé, la sécurité et les droits fondamentaux des personnes doivent se conformer à un régime plus strict sur des aspects tels que la gouvernance des données et la gestion des risques.

La proposition initiale de la Commission désignait comme à haut risque tous les systèmes d’IA qui entraient dans une liste prédéterminée de domaines et de cas d’utilisation critiques, tels que l’emploi et le contrôle des migrations. Le Parlement européen et le Conseil, les co-législateurs de l’UE, ont supprimé cet automatisme et introduit une couche supplémentaire pour éviter que les solutions d’IA présentant un risque minimal ne soient capturées par un régime plus strict.

Conditions de filtrage

Lors de la dernière session de négociation du 2 octobre, les décideurs politiques de l’UE ont discuté d’un texte de compromis introduisant trois conditions de filtrage, auxquelles les fournisseurs d’IA pourraient considérer leur système exempté de la catégorie à haut risque.

Les conditions concernent les systèmes d’IA destinés à une tâche procédurale étroite, simplement pour confirmer ou améliorer un facteur accessoire d’une évaluation humaine, ou pour effectuer une tâche préparatoire.

Certaines garanties supplémentaires ont été ajoutées, à savoir que tout modèle d’IA effectuant un profilage serait toujours considéré comme à haut risque et que les autorités nationales seraient toujours habilitées à surveiller les systèmes enregistrés comme ne présentant pas de risque élevé.

De profonds doutes

Les députés ont toutefois demandé au service juridique du Parlement européen de fournir un avis juridique. L’avis, consulté par Euractiv et daté du 13 octobre, jette de profonds doutes sur le bien-fondé juridique des conditions de filtrage.

Remarquablement, les experts juridiques ont noté qu’il appartiendrait aux développeurs d’IA de décider si le système remplit l’une des conditions de filtrage, introduisant un degré élevé de subjectivité qui « ne semble pas suffisamment encadré pour permettre aux individus de déterminer sans équivoque ce qui se passe ». leurs obligations ».

Alors que le texte de compromis charge la Commission européenne d’élaborer des lignes directrices sur l’application des filtres, le bureau juridique note que les lignes directrices sont par nature non contraignantes ; ils ne peuvent donc pas modifier le contenu de la loi.

Plus important encore, pour le service juridique du Parlement, laisser ce niveau d’autonomie aux fournisseurs d’IA est qualifié de « contraire à l’objectif général de la loi sur l’IA de répondre au risque de préjudice posé par les systèmes d’IA à haut risque ». Cette contradiction est considérée comme source d’insécurité juridique.

De même, l’avis estime que le système de filtrage est contraire au principe d’égalité de traitement, car il pourrait conduire à des situations dans lesquelles les modèles à haut risque sont traités comme ne présentant pas de risque élevé et vice versa, et à la proportionnalité, car il est jugé incapable d’atteindre l’objectif réglementaire de la loi sur l’IA.

Les experts juridiques posent deux conditions pour qu’une approche filtrée soit juridiquement valable. Premièrement, les conditions d’exonération devraient être suffisamment précises pour ne laisser aucune marge d’erreur dans la classification des modèles d’IA. Deuxièmement, il devrait appartenir au législateur d’évaluer si une application d’IA présente ou non un risque élevé.

En d’autres termes, au lieu de conditions d’exemption horizontales qui s’appliquent à tous les cas d’utilisation, les décideurs politiques de l’UE sont invités à adopter une approche au cas par cas et à définir dans quelles conditions les solutions d’IA dans un certain domaine critique ne présentent pas de risque significatif.

Enfin, les juristes de l’UE ont visé les pouvoirs que le texte de compromis attribue à la Commission européenne, chargée de mettre à jour les conditions de filtrage via un acte délégué. Pour le service juridique du Parlement, cela ne devrait pas être le cas car les conditions de filtrage « constituent des éléments essentiels de la loi ».

Les avis juridiques peuvent avoir une grande influence sur l’élaboration de la législation européenne. Les décideurs politiques de l’UE devraient désormais produire une version révisée de cet aspect critique de la loi sur l’IA.

[Edited by Nathalie Weatherald]

En savoir plus avec EURACTIV



Source link -57