Customize this title in frenchAI Act : la présidence espagnole tente une dernière fois une médiation sur les modèles de fondation

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa présidence espagnole du Conseil de l’UE a partagé un mandat révisé pour négocier avec le Parlement européen sur l’épineuse question de la réglementation des modèles de fondation dans le cadre de la prochaine loi sur l’IA. L’AI Act est un projet de loi phare visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. Le dossier en est à la dernière phase du processus législatif, appelé trilogues, au cours duquel la Commission européenne, le Conseil et le Parlement négocient les dispositions réglementaires. Les décideurs politiques de l’UE visent à finaliser un accord lors du prochain trilogue politique le 6 décembre. Avant cette nomination cruciale, l’Espagne, qui négocie au nom des pays de l’UE, a besoin d’un mandat révisé. Euractiv a rendu compte de la première partie du mandat concernant le chapitre sur l’application des lois, qui sera discuté au Comité des représentants permanents mercredi 29 novembre. La deuxième partie du mandat a été distribuée lundi, mais la partie sur les modèles de fondation a été partagée séparément mardi soir. Cela sera discuté au niveau des ambassadeurs vendredi. Modèles de fondation Les règles relatives aux modèles de base et aux types puissants d’intelligence artificielle comme le GPT-4 d’OpenAI, qui alimente ChatGPT, sont devenues un point de friction dans les négociations. Lors du dernier trilogue, il semblait y avoir un consensus sur une approche à plusieurs niveaux des modèles de fondations, avec des obligations plus strictes pour les plus puissantes. Cependant, il y a trois semaines, les négociations ont été interrompues en raison de l’opposition croissante de la France, avec le soutien de l’Allemagne et de l’Italie, à s’opposer à toute règle contraignante pour ces modèles autres que les codes de conduite. La semaine dernière, la Commission a tenté de trouver un juste milieu en proposant des règles horizontales pour tous les modèles d’IA à usage général (GPAI) et des codes de bonnes pratiques pour les plus performants. La présidence a partagé le même texte de la Commission avec les délégués nationaux avec une légère modification. Cependant, le Parlement européen s’est uni pour demander des règles plus strictes pour ces modèles dans un document de travail révélé par Euractiv. La présidence a largement conservé le compromis de la Commission. Dimanche (19 novembre), la Commission européenne a diffusé mais a introduit certains éléments du document de travail du Parlement. Le processus de désignation des modèles GPAI comme présentant des risques systémiques a été largement maintenu. Il existe néanmoins deux seuils quantitatifs : la quantité d’informatique utilisée pour la formation supérieure à 10~26 et le nombre d’utilisateurs professionnels dans l’UE supérieur à 10 000. Les obligations horizontales pour tous les modèles GPAI ont également été maintenues, notamment en garantissant que le contenu généré par l’IA soit détectable comme étant généré ou manipulé artificiellement. Une exigence a été ajoutée exigeant l’évaluation du modèle selon des protocoles standardisés. Concernant le droit d’auteur, le libellé exige toujours que les fournisseurs de modèles mettent en place des « mesures adéquates » pour se conformer aux exigences législatives et publient un résumé suffisamment détaillé des données de formation et des politiques en matière de droit d’auteur. Pour les modèles GPAI présentant des risques systémiques, le texte de la Commission impose des mesures internes et un dialogue réglementaire avec la Commission pour identifier et atténuer les risques systémiques potentiels, avec l’exigence supplémentaire de garantir des niveaux de cybersécurité adéquats. Les fournisseurs modèles seront en mesure de démontrer leur conformité aux obligations horizontales et systémiques spécifiques en adhérant aux codes de bonnes pratiques. En outre, la présidence propose d’obliger les fournisseurs de systèmes GPAI comme ChatGPT à fournir toutes les informations pertinentes permettant aux opérateurs économiques en aval de se conformer aux obligations de la loi sur l’IA. Si les fournisseurs du système GPAI autorisent son utilisation dans un scénario à haut risque, ils doivent l’indiquer et se conformer aux exigences pertinentes. Il est demandé aux délégués nationaux si le texte proposé serait acceptable s’ils feraient preuve de flexibilité en incluant des références à l’efficacité énergétique dans les codes de conduite pour les modèles présentant des risques systémiques, et s’ils accepteraient l’exemption des modèles open source. Gouvernance En matière de gouvernance, la présidence a demandé à négocier avec un mandat qui n’a pratiquement pas modifié la proposition de la Commission de la semaine dernière. Cette nouvelle approche est rendue nécessaire par le nouveau régime des modèles d’IA puissants et est centrée autour d’un bureau d’IA « hébergé » au sein de la Commission et ayant un « lien fort » avec la communauté scientifique. Le Conseil européen de l’intelligence artificielle, rassemblant les autorités nationales, resterait une plateforme de coordination et un organe consultatif auprès de la Commission. Le Conseil souhaite conserver une certaine flexibilité dans la nomination de plusieurs autorités compétentes au niveau national. Accès au code source La présidence a également demandé un mandat révisé sur les parties les moins controversées du projet de loi. Dans la proposition initiale, les autorités de surveillance du marché et les organismes d’évaluation de la conformité étaient habilités à demander l’accès au code source lors de l’évaluation de la conformité des systèmes d’IA à haut risque avec les exigences de la loi sur l’IA. Même si le Parlement européen a supprimé cette possibilité, la présidence estime « qu’il est important de maintenir cette possibilité au moins pour que les autorités de surveillance du marché puissent avoir accès à la source dans des conditions limitées ». Pénalités Concernant le régime des sanctions, la présidence propose de rencontrer les députés à mi-parcours. Les amendes sont fixées en pourcentage du chiffre d’affaires annuel global de l’entreprise ou en un montant prédéterminé, le montant le plus élevé étant retenu. La présidence a suggéré 6,5 % pour les violations des applications d’IA interdites, 3 % pour les violations des obligations de la loi sur l’IA et 1,5 % pour la fourniture d’informations incorrectes. Entrée en vigueur Concernant le moment où les règles de l’IA commenceront à faire effet, la présidence a proposé que le règlement s’applique deux ans après son entrée en vigueur, à l’exception de la partie sur les organismes d’évaluation de la conformité, la gouvernance et les sanctions qui seront anticipées de 12 mois. Alphabétisation de l’IA Le libellé a été convenu pour stipuler que les fournisseurs et les déployeurs d’IA devraient prendre des mesures pour garantir un niveau suffisant de connaissances en IA parmi leurs membres du personnel. En revanche, la référence aux mesures prises aux niveaux national et européen a été supprimée. En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57