[ad_1]
La présidence tchèque du Conseil de l’UE a partagé jeudi 3 novembre avec les autres pays de l’UE la version finale de la loi sur l’IA, une initiative législative phare de l’UE, qui devrait être approuvée au niveau des ambassadeurs d’ici la mi-novembre.
La loi sur l’IA vise à introduire le premier ensemble complet de règles pour l’intelligence artificielle basées sur le potentiel de préjudice. La présidence tchèque a placé le dossier en tête de son agenda numérique et est en bonne voie de finaliser la position du Conseil de l’UE.
Comme prévu par EURACTIV, le dernier texte n’a introduit que des modifications mineures par rapport à une version d’il y a deux semaines. La loi sur l’IA devrait recevoir l’approbation du Comité des représentants permanents le 18 novembre et l’adoption finale par les ministres de l’UE lors de la réunion du Conseil Télécom du 6 décembre.
IA à usage général
Le texte final confirme la solution de la présidence tchèque d’appliquer le livre de règles de l’IA à l’IA à usage général, de grands modèles pouvant être adaptés pour exécuter diverses tâches. La plupart des pays de l’UE ont convenu de charger la Commission européenne d’adapter les obligations de ces systèmes via un acte d’exécution.
Le nouveau compromis précise que les dispositions relatives aux obligations des fournisseurs d’IA à haut risque, à la désignation d’un représentant légal dans l’Union, à la déclaration de conformité avec le droit de l’UE et à la surveillance après commercialisation ne s’appliqueront qu’aux fournisseurs d’IA à usage général dès l’entrée en vigueur de l’acte d’exécution.
Forces de l’ordre
À la demande des États membres, la présidence tchèque a introduit d’importantes exclusions pour les autorités répressives.
L’une des plus importantes autorise les forces de police à demander à l’autorité nationale compétente de mettre en service un système à haut risque qui n’a pas passé avec succès la procédure d’évaluation de la conformité.
Cette autorisation peut être contournée dans des circonstances exceptionnelles telles qu’une menace imminente pour la vie d’une personne.
Cependant, une nouvelle formulation a été ajoutée dans le cas où l’autorité rejette la demande, obligeant l’agence d’application de la loi à rejeter tous les résultats et sorties résultant de ce système.
Prestations d’aide publique
Le préambule du règlement a été modifié pour préciser que le système déterminant la légitimité du droit aux prestations d’assistance publique et aux services du secteur public doit être considéré comme à haut risque.
Cette formulation rappelle un énorme scandale aux Pays-Bas, où les autorités fiscales ont suspecté à tort des milliers de citoyens de fraude aux prestations en raison d’un algorithme défectueux.
Le texte était également aligné sur l’inclusion de certains services d’assurance comme l’assurance vie et maladie sur la liste des systèmes à haut risque.
Infrastructure critique
En matière d’infrastructures critiques, les éléments purement dédiés à la cybersécurité ont été exclus du classement à haut risque.
Seuls les composants de sécurité qui « pourraient entraîner directement des risques pour l’intégrité physique des infrastructures critiques et donc des risques pour la santé et la sécurité des personnes et des biens » ont été inclus dans la catégorie à haut risque.
Transparence
La loi sur l’IA exige que des systèmes d’IA spécifiques, tels que les deep fakes, se conforment aux obligations de transparence, sauf s’il est raisonnablement évident qu’il s’agit de contenu manipulé.
À cet égard, le nouveau texte précise que les personnes appartenant à un groupe vulnérable en termes d’âge ou de handicap doivent être prises en compte lors du respect de ces dispositions afin d’éviter toute discrimination.
[Edited by Zoran Radosavljevic]
[ad_2]
Source link -42