Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsAprès 22 heures d’intenses négociations, les décideurs politiques de l’UE ont trouvé un accord provisoire sur les règles applicables aux modèles d’IA les plus puissants, mais de profonds désaccords sur le chapitre sur l’application de la loi ont contraint les responsables épuisés à demander une suspension. L’AI Act est un projet de loi historique visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. Le dossier en est à la dernière étape du processus législatif alors que la Commission européenne, le Conseil et le Parlement se réunissent dans ce qu’on appelle des trilogues pour élaborer les dispositions finales. Le trilogue final a débuté mercredi (6 décembre) et a duré presque sans interruption pendant une journée entière jusqu’à ce qu’une pause soit demandée vendredi matin. Dans cette première partie des négociations, un accord a été trouvé sur la régulation des modèles d’IA puissants. Portée La définition de l’IA donnée par le règlement reprend tous les principaux éléments de la définition de l’OCDE, même si elle ne les reprend pas mot pour mot. Dans le cadre de l’accord provisoire, les logiciels libres et open source seront exclus du champ d’application du règlement, sauf s’il s’agit d’un système à haut risque, d’applications interdites ou d’une solution d’IA risquant de provoquer une manipulation. Après les vacances, la question de l’exemption relative à la sécurité nationale sera à la table des négociateurs, puisque les pays de l’UE, menés par la France, ont demandé une large exemption pour tout système d’IA utilisé à des fins militaires ou de défense, y compris pour des sous-traitants externes. Un autre point à discuter est de savoir si la réglementation s’appliquera aux systèmes d’IA qui étaient sur le marché avant qu’elle ne commence à s’appliquer en cas de changement significatif. Modèles de fondation Selon un document de compromis consulté par Euractiv, l’approche par niveaux a été maintenue avec une catégorisation automatique comme « systémique » pour les modèles entraînés avec une puissance de calcul supérieure à 10~25. Une nouvelle annexe fournira des critères permettant au Bureau de l’IA de prendre des décisions de désignation qualitatives d’office ou sur la base d’une alerte qualifiée du comité scientifique. Les critères incluent le nombre d’utilisateurs métiers et les paramètres du modèle, et peuvent être mis à jour en fonction des évolutions technologiques. Des obligations de transparence s’appliqueront à tous les modèles, notamment la publication d’une synthèse suffisamment détaillée des données de formation « sans préjudice des secrets des affaires ». Le contenu généré par l’IA devra être immédiatement reconnaissable. Il est important de noter que la loi sur l’IA ne s’appliquera pas aux modèles gratuits et open source dont les paramètres sont rendus publics, sauf en ce qui concerne la mise en œuvre d’une politique de conformité à la loi sur le droit d’auteur, la publication du résumé détaillé, les obligations des modèles systémiques et les responsabilités au sein de l’IA. chaîne de valeur. Pour les modèles de niveau supérieur, les obligations comprennent l’évaluation du modèle, l’évaluation et le suivi des risques systémiques, la protection de la cybersécurité et le reporting sur la consommation d’énergie du modèle. Les codes de bonnes pratiques sont uniquement destinés à compléter les obligations contraignantes jusqu’à ce que des normes techniques harmonisées soient mises en place, et la Commission pourra intervenir via des actes délégués si le processus prend trop de temps. Gouvernance Un bureau d’IA sera créé au sein de la Commission pour faire appliquer les dispositions du modèle de fondation. Les institutions de l’UE doivent faire une déclaration commune selon laquelle l’Office d’IA disposera d’une ligne budgétaire dédiée. Les systèmes d’IA seront supervisés par les autorités nationales compétentes, qui seront réunies au sein du Conseil européen de l’intelligence artificielle pour garantir une application cohérente de la loi. Un forum consultatif recueillera les commentaires des parties prenantes, notamment de la société civile. Un groupe scientifique d’experts indépendants a été mis en place pour donner des conseils sur l’application du règlement, signaler les risques systémiques potentiels et éclairer la classification des modèles d’IA présentant des risques systémiques. Pratiques interdites La loi sur l’IA comprend une liste d’applications interdites car considérées comme présentant un risque inacceptable. Les interdictions confirmées jusqu’à présent concernent les techniques de manipulation, les systèmes exploitant les vulnérabilités, le score social et le grattage aveugle d’images faciales. Cependant, le Parlement européen a proposé une liste beaucoup plus longue d’applications interdites et se heurte à une forte résistance de la part du Conseil. Selon plusieurs sources proches du dossier, les députés ont subi des pressions pour qu’ils acceptent un accord global, vu par Euractiv, qui est extrêmement proche de la position du Conseil. Les parlementaires étaient divisés sur cette question, le Parti populaire européen de centre-droit, le co-rapporteur Dragoș Tudorache, et le président du groupe parlementaire social-démocrate, Iratxe García, faisant pression pour accepter l’accord. Le texte du Conseil veut interdire les systèmes de catégorisation biométrique basés sur des caractéristiques personnelles sensibles telles que la race, les opinions politiques et les croyances religieuses « à moins que ces caractéristiques n’aient un lien direct avec un crime ou une menace spécifique ». Les exemples cités concernaient des crimes à motivation religieuse ou politique. Néanmoins, la présidence a également insisté sur le maintien du profilage racial. Alors que les législateurs de centre-gauche souhaitent interdire la police prédictive, la proposition du Conseil limite l’interdiction aux enquêtes uniquement basées sur les prédictions du système et non aux cas dans lesquels il existe des soupçons raisonnables d’implication dans des activités criminelles. Le Parlement a également introduit une interdiction des logiciels de reconnaissance des émotions sur le lieu de travail, dans l’éducation, dans les forces de l’ordre et dans le contrôle des migrations. Le Conseil n’est disposé à l’accepter que dans les deux premiers domaines, sauf pour des raisons médicales ou de sécurité. Un autre sujet controversé est l’utilisation de l’identification biométrique à distance (RBI). Les députés ont convenu d’abandonner une interdiction complète en faveur de exceptions limitées liées à la criminalité grave. Le Conseil s’efforce de donner aux services répressifs une plus grande marge de manœuvre et de faire de l’utilisation ex post une application à haut risque. Une autre question ouverte concerne la question de savoir si ces interdictions doivent s’appliquer uniquement aux systèmes utilisés au sein de l’Union ou si elles doivent également empêcher les entreprises basées dans l’UE de vendre ces applications interdites à l’étranger. [Edited by Zoran Radosavljevic] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57