Customize this title in frenchLoi sur l’IA : la présidence espagnole présente des options sur les principaux sujets de négociation

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes sujets de la définition de l’IA, de la classification à haut risque, de la liste des cas d’utilisation à haut risque et de l’évaluation de l’impact sur les droits fondamentaux seront sur la table du Conseil cette semaine alors que la présidence espagnole se prépare à plonger tête première dans les négociations. L’Espagne a pris la présidence tournante du Conseil des ministres de l’UE le 1er juillet. En plus de ses priorités numériques, Madrid cherche à parvenir à un accord politique sur la loi sur l’IA, une législation historique visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. La présidence espagnole a diffusé un document, daté du 29 juin et vu par EURACTIV, pour informer un échange de vues sur quatre points critiques du règlement sur l’IA, mercredi 5 juillet, au sein du groupe de travail Télécom, un organe technique du Conseil. La discussion éclairera la position de la présidence lors de la prochaine session de négociation avec le Conseil de l’UE, le Parlement et la Commission, appelées trilogues, le 18 juillet. La loi sur l’IA entre dans la phase finale du processus législatif de l’UE Le Parlement européen a adopté sa position sur le règlement sur l’IA à une majorité écrasante mercredi 14 juin, ouvrant la voie aux négociations interinstitutionnelles destinées à finaliser la première loi globale sur l’intelligence artificielle au monde. Définition de l’IA La définition de l’intelligence artificielle du Parlement européen s’aligne sur l’Organisation de coopération et de développement économiques (OCDE), en essayant d’anticiper les futurs ajustements en cours de discussion au sein de l’organisation internationale. « système d’intelligence artificielle » (système d’IA), un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions influençant des environnements physiques ou virtuels », lit-on dans le texte du Parlement. En revanche, bien que le Conseil ait également adopté certains éléments de la définition de l’OCDE, il l’a encore restreinte aux approches d’apprentissage automatique et aux approches basées sur la logique et les connaissances pour éviter que les logiciels traditionnels ne soient pris dans la définition. « Ce [the OECD’s] la définition semble couvrir les logiciels qui ne devraient pas être classés comme IA », lit-on dans la note de la présidence, exposant trois options possibles : s’en tenir au texte du Conseil, se diriger vers le Parlement ou attendre le trilogue de septembre pour évaluer la direction que prend l’OCDE. Classement à haut risque La loi IA oblige les développeurs de systèmes à haut risque d’atteinte à la sécurité et aux droits fondamentaux des personnes à se conformer à un régime plus strict en matière de gestion des risques, de gouvernance des données et de documentation technique. La façon dont les systèmes devaient entrer dans cette catégorie a fait l’objet de modifications importantes. Initialement, le projet de loi classait automatiquement les applications d’IA à haut risque qui figuraient dans une liste de cas d’utilisation à l’annexe III. Les deux colégislateurs ont supprimé cet automatisme et introduit une «couche supplémentaire». Pour le Conseil, cette couche concerne l’importance de la sortie du système d’IA dans le processus de prise de décision, les sorties purement accessoires étant exclues du champ d’application. Les députés ont introduit un système dans lequel les développeurs d’IA devraient auto-évaluer si l’application couverte par l’annexe III présentait un risque élevé sur la base des orientations fournies par la Commission européenne. Si les entreprises considèrent que leur système n’est pas à haut risque, elles devront en informer l’autorité compétente, qui devra répondre dans les trois mois si elles estiment qu’il y a eu erreur de classification. Là encore, les options consistent à maintenir l’orientation générale du Conseil ou à s’orienter vers le Parlement, mais plusieurs solutions médianes sont également envisagées dans ce cas. Une option consiste à adopter la version des députés mais sans notification aux autorités compétentes. Alternativement, cette version pourrait être encore affinée, en introduisant des critères clairs pour que les fournisseurs d’IA s’auto-évaluent en tant que règles contraignantes plutôt qu’en tant que conseils « souples ». La proposition finale est le système du Parlement sans notification et avec des critères contraignants, en plus d’explorer « d’autres options pour fournir des orientations supplémentaires aux fournisseurs, par exemple, en utilisant un référentiel d’exemples de systèmes d’IA couverts par l’annexe III qui ne devraient pas être considérés comme à haut risque. ” Liste des cas d’utilisation à haut risque Les deux colégislateurs ont fortement modifié la liste de l’annexe III. Les pays de l’UE ont supprimé la détection approfondie des faux par les autorités chargées de l’application de la loi, l’analyse de la criminalité et la vérification de l’authenticité des documents de voyage, tout en ajoutant une infrastructure numérique essentielle et une assurance vie et maladie. Les députés ont considérablement élargi la liste, en introduisant la biométrie, les infrastructures critiques, les systèmes de recommandation des plus grands médias sociaux, les systèmes susceptibles d’influencer les résultats électoraux, l’IA utilisée dans le règlement des différends et la gestion des frontières. « Les délégations sont invitées à donner leur avis sur les ajouts et modifications décrits ci-dessus », poursuit la note. Analyse d’impact sur les droits fondamentaux Les législateurs de gauche à centre veulent obliger les utilisateurs de systèmes d’IA à haut risque à mener une évaluation d’impact sur les droits fondamentaux avant la mise en service de l’outil, qui devrait tenir compte de l’utilisation prévue, de la portée temporelle et des catégories de personnes des groupes susceptibles d’être affectés. En outre, une consultation de six semaines avec les parties prenantes concernées devrait être lancée pour éclairer l’analyse d’impact. « Le texte du Conseil ne comporte pas une telle obligation, et il est important de rappeler que le RGPD [General Data Protection Regulation] oblige déjà les entreprises et les organismes publics à examiner si des risques élevés sont susceptibles de se produire pour les droits et libertés lors de leur traitement de données à caractère personnel », ajoute le document. La présidence espagnole n’a même pas donné la possibilité d’accepter le texte du Parlement sans restreindre la mesure aux seules utilisations du secteur public. D’autres options incluent la suppression de la période de consultation de six semaines ou l’obligation d’informer les autorités de l’évaluation. Questions supplémentaires La présidence a également posé deux questions supplémentaires. Premièrement, le mandat du Parlement européen touche à des concepts tels que la démocratie, l’État de droit et la durabilité. Par conséquent, il est demandé aux pays de l’UE s’ils pensent que la loi sur l’IA est le bon endroit pour résoudre ces problèmes. Deuxièmement, les États membres sont invités à donner leur avis sur l’opportunité d’introduire le terme « déployeur » afin d’éviter toute confusion. [Edited by Alice Taylor] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57