[ad_1]
*Cet article a été mis à jour pour clarifier l’exemption des micro et petites entreprises.
La position du Conseil de l’UE sur la législation phare visant à réglementer l’intelligence artificielle a été partagée vendredi 11 novembre, avec quelques derniers ajustements de dernière minute apportés par la présidence tchèque.
Le texte a été envoyé aux autres États membres pour obtenir le feu vert des ambassadeurs auprès de l’UE, vendredi 18 novembre.
« Le Comité des représentants permanents est invité à examiner et à approuver le texte figurant en annexe à la présente note, dans la perspective d’une orientation générale ; recommandent que le Conseil, lors de la réunion du Conseil TTE (Télécommunications) du 6 décembre 2022, parvienne à une approche générale », lit-on dans le document.
Solvabilité et assurance
Au Conseil de l’UE, un sujet brûlant était de savoir quelles applications d’IA dans le domaine de l’assurance devraient être considérées comme risquant de causer des dommages considérables. Dans une dernière modification du texte, seuls les algorithmes utilisés pour l’évaluation des risques et la tarification des assurances santé et vie sont considérés comme à haut risque. En revanche, le reste reste couvert par la législation sectorielle.
Les algorithmes utilisés pour évaluer les cotes de crédit, la solvabilité ou les primes d’assurance des individus ont été placés dans le panier à haut risque, considérant qu’il s’agit d’un moyen vital pour les gens d’accéder aux services essentiels. Cependant, les micro ou petites entreprises mettant en service ces systèmes pour leur propre usage ont été exemptées.
Le dernier texte précise ce que signifie « leur propre utilisation », à savoir que les micro et petites entreprises « mettent en service un système d’IA dans le but de vendre leurs propres produits d’assurance » en cas d’utilisation à haut risque d’assurance. Les mêmes règles s’appliqueraient respectivement aux établissements de crédit.
La clarification vise à éviter que les petits opérateurs puissent fournir une échappatoire aux grandes entreprises pour contourner les règles plus strictes pour les systèmes à haut risque.
Gouvernance
Un paragraphe supplémentaire dans le préambule du texte stipule que la loi IA n’affecte pas les compétences, les tâches, les pouvoirs et l’indépendance des autorités nationales chargées de surveiller la protection des droits fondamentaux, y compris les organismes de promotion de l’égalité et les autorités de protection des données.
En outre, parmi les différentes questions sur lesquelles la Commission européenne devra fournir des orientations sur l’application des dispositions de la loi sur l’IA, les États membres souhaitent que l’exécutif européen publie également des lignes directrices sur la manière d’assurer la cohérence de l’application du règlement dans toute l’UE.
Infrastructure critique
Concernant les infrastructures critiques, dans le précédent texte de compromis, la présidence indiquait que seuls ses composants de sécurité qui assurent son intégrité physique sont à considérer comme à haut risque, excluant les systèmes de cybersécurité qui utilisent l’IA des obligations plus strictes.
Une nouvelle formulation a été introduite pour préciser que les composants de sécurité ne sont pas ceux nécessaires au fonctionnement du système, mais simplement pour assurer le maintien de son intégrité. Selon la note d’accompagnement, il s’agit d’aligner le texte sur le règlement de l’UE sur les machines.
[Edited by Alice Taylor]
[ad_2]
Source link -42