Customize this title in frenchLes décideurs politiques de l’UE abordent la dernière étape du règlement sur l’intelligence artificielle

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa première loi globale sur l’IA au monde entre dans ce qui pourrait être ses dernières semaines de négociations intenses. Cependant, les institutions européennes doivent encore définir leur approche des modèles de « fondations » les plus puissants et des dispositions dans les domaines répressifs. Aucune fumée blanche ne s’est dégagée de la réunion de haut niveau entre le Conseil, le Parlement et la Commission de l’UE. Les négociations interinstitutionnelles – ou trilogue, comme on l’appelle dans le jargon européen – ont débuté mardi soir (24 octobre) et se sont poursuivies jusqu’aux petites heures de mercredi. Les décideurs politiques de l’UE se sont mis d’accord sur les dispositions concernant la classification des applications d’IA à haut risque et ont fourni des orientations générales sur la gestion des modèles de fondation puissants et sur qui devrait les superviser, mais n’ont à peine effleuré la partie concernant les interdictions et l’application de la loi. Tous les regards sont désormais tournés vers le prochain trilogue du 6 décembre, où un accord politique est attendu mais pas garanti. Entre-temps, neuf réunions techniques ont été programmées pour finaliser le texte sur certains des aspects les plus complexes et les plus conséquents de la loi sur l’IA. Règles de classification pour les systèmes d’IA à haut risque La loi sur l’IA suit une approche basée sur les risques selon laquelle les modèles d’IA qui peuvent présenter un risque important pour la santé, la sécurité et les droits fondamentaux des personnes doivent se conformer à des obligations strictes, telles que la gestion des risques et la gouvernance des données. Dans la proposition initiale, toutes les solutions d’IA entrant dans une liste prédéterminée de cas d’utilisation critiques étaient classées comme à haut risque. Cependant, lors du précédent trilogue du 2 octobre, un éventuel système de filtrage avait été évoqué, permettant aux développeurs d’IA d’être exemptés de ce régime plus strict. Les critères ont fait l’objet d’un affinement important et d’un examen juridique négatif de la part du bureau du Parlement européen. Néanmoins, le texte convenu est pour l’essentiel conforme à celui rapporté précédemment par Euractiv. La seule condition d’exemption qui a été modifiée est celle qui fait référence à la détection d’écarts par rapport aux modèles de prise de décision, avec la précision que le système d’IA ne doit pas être « destiné à remplacer ou influencer l’évaluation humaine précédemment réalisée, sans un examen humain approprié ». » Dans le texte issu du dernier trilogue, la Commission est chargée d’élaborer une liste complète d’exemples pratiques de cas d’utilisation à haut risque et non à haut risque. Les juristes-linguistes sont encore en train d’affiner les conditions permettant à l’exécutif européen de modifier les conditions d’exonération. Dans un projet consulté par Euractiv, la Commission ne pourra ajouter de nouveaux filtres que lorsqu’il existe des preuves concrètes et fiables que les systèmes d’IA entrent dans la catégorie à haut risque sans présenter de risque significatif pour les personnes. A l’inverse, l’exécutif européen ne pourra supprimer les critères que si cela est nécessaire pour maintenir le même niveau de protection dans l’UE. Modèles de fondation La diffusion capillaire de ChatGPT, un chatbot alimenté par les GPT-3.5 et GPT-4 d’OpenAI, a perturbé les négociations sur la loi sur l’IA, obligeant les décideurs politiques à trouver comment gérer ces modèles puissants. La semaine dernière, Euractiv a rapporté que l’approche reposait sur plusieurs niveaux. L’idée est d’avoir des obligations horizontales pour tous les modèles fondamentaux, à savoir la transparence et le soutien aux opérateurs économiques en aval pour qu’ils se conforment au règlement sur l’IA. L’approche par niveaux semble bénéficier d’un large soutien, mais la principale question est de savoir comment définir le niveau supérieur des modèles de fondation « très performants », comme le GPT-4, qui sera soumis à un contrôle ex ante et à des mesures d’atténuation des risques. La terminologie pourrait évoluer vers les modèles « à fort impact » pour mettre en évidence l’accent mis sur les risques systémiques que ces modèles peuvent poser. L’accord global consiste à développer plusieurs critères sur la base desquels un modèle de fondation pourrait être considéré comme « à fort impact ». Les critères possibles qui ont été évoqués concernent la puissance de calcul, la quantité de données de formation et les ressources économiques des fournisseurs d’IA, mais les préoccupations portent principalement sur la manière de rendre cette approche pérenne pour un marché qui évolue à une vitesse vertigineuse. Des chercheurs d’universités de premier plan comme Stanford donnent également des conseils sur le sujet. Dans les prochains jours, les négociateurs de l’UE devraient élaborer de nouveaux projets, mettant cette approche noir sur blanc. En termes de gouvernance, il existe un consensus croissant selon lequel, tout comme dans la loi sur les services numériques (DSA), l’application des modèles d’IA qui présentent des risques systémiques devrait être centralisée. Ce sera l’une des tâches principales de l’Office d’IA, qui relèvera de la Commission mais jouira d’une « indépendance fonctionnelle ». Toujours à la suite du DSA, la Commission a proposé d’introduire des frais de gestion pour financer les nouveaux besoins en personnel. Cependant, les députés sont sceptiques quant aux frais de gestion et ne considèrent pas que le parallélisme avec le DSA, axé sur les services – alors que la loi sur l’IA suit la législation sur la sécurité des produits – soit applicable dans ce cas. Interdictions et application de la loi Le chapitre sur les applications de l’IA qui devraient être interdites et sur les exceptions qui devraient être laissées aux forces de l’ordre est celui où les pays de l’UE et les députés européens sont les plus éloignés et pourrait se transformer en un obstacle majeur, car les deux institutions sont extrêmement rigides dans leurs positions. La seule chose qui est ressortie clairement du dernier trilogue est que les négociateurs examinent différents aspects pour former un accord global qui regroupera les interdictions, les exceptions en matière d’application de la loi, l’évaluation de l’impact sur les droits fondamentaux et les dispositions environnementales. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57