Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes députés européens impliqués dans les négociations sur les règles de l’UE en matière d’IA ont fait circuler vendredi (24 novembre) un document de travail détaillant leur approche proposée pour réglementer les modèles d’intelligence artificielle les plus puissants. La loi sur l’IA, un projet de loi historique visant à réglementer l’IA en fonction de son potentiel nocif, en est à la dernière phase du processus législatif, la Commission européenne, le Parlement et le Conseil se réunissant en « trilogues » pour élaborer les dispositions finales. Dans cette phase avancée des négociations, les décideurs politiques de l’UE se sont affrontés sur l’approche des modèles de base, des types d’IA puissants comme le GPT-4 d’OpenAI, qui alimente le chatbot le plus célèbre au monde, ChatGPT. Lors d’un trilogue politique à la mi-octobre, un consensus a semblé se dégager en faveur d’une approche à plusieurs niveaux, avec des obligations horizontales pour tous les modèles de fondations et des exigences supplémentaires pour les modèles considérés comme présentant un risque systémique pour la société. Cependant, il y a deux semaines, Euractiv a rapporté que la première loi globale sur l’IA au monde était menacée après que la France, l’Allemagne et l’Italie se soient opposées à toute obligation sur les modèles de fondation, incitant le Parlement à quitter la table des négociations. Les trois plus grandes économies européennes ont par conséquent partagé leurs points de vue dans un document officieux dans lequel elles préconisaient de s’opposer à l’approche technologiquement neutre et basée sur le risque de la loi sur l’IA en faveur de codes de conduite. Lundi, Euractiv a révélé un texte de compromis de la Commission européenne qui tentait de relancer l’approche par niveaux avec des obligations de transparence atténuées pour tous les modèles de fondations et des codes de bonnes pratiques pour celles présentant un risque systémique. L’approche à plusieurs niveaux révisée a été discutée lors des réunions internes du Conseil de mercredi et jeudi, au cours desquelles la France est restée sceptique, tandis que l’Allemagne et l’Italie ont montré une position moins intransigeante. La plupart des États membres considèrent le texte de la Commission comme un pas dans la bonne direction, même si certaines réserves subsistent quant aux définitions et à la formulation générale liées au droit dérivé. Cependant, la tentative de médiation de l’exécutif européen a plus de mal à être acceptée par le Parlement européen, qui considérait déjà l’approche par étapes comme un compromis édulcoré mais a finalement accepté le principe de se concentrer davantage sur les modèles les plus conséquents. « Au Parlement, il existe une nette majorité en faveur d’obligations, peut-être limitées mais claires, pour les développeurs des modèles les plus puissants », a déclaré à l’ANSA Brando Benifei, l’un des députés européens à l’origine du dossier, avertissant qu’autrement aucun accord politique ne pourrait être possible. être trouvé. La question devait être discutée lors d’un trilogue technique vendredi. La discussion a toutefois été reportée à lundi, la présidence espagnole estimant ne pas disposer encore d’un mandat de négociation. Parallèlement, les députés européens en charge du dossier ont partagé avec leurs collègues un document de travail, consulté par Euractiv, qui définit une série d’obligations contraignantes pour les fournisseurs de modèles de fondations qui présentent un risque systémique. Les obligations comprennent l’évaluation et les tests internes, y compris l’évaluation de l’équipe rouge, les mesures de cybersécurité, la documentation technique et les normes d’efficacité énergétique. « Il est essentiel pour le Parlement de souligner que ces obligations ne s’appliqueraient qu’au développeur initial des modèles désignés de la catégorie de risque systémique (c’est-à-dire OpenAI, Anthropic, StabilityAI, Meta), mais pas aux développeurs en aval qui révisent ou affinent le modèle, » lit-on dans le document. L’AI Office serait alors en mesure d’examiner la documentation technique et l’évaluation du modèle et d’imposer des sanctions en cas de violation des exigences du règlement. Les deux côtés soutiennent ces exigences obligatoires, car l’eurodéputé conservateur Axel Voss a également qualifié d’inacceptable une approche uniquement basée sur des engagements volontaires, affirmant que des normes minimales devraient couvrir la transparence, la cybersécurité et les obligations d’information. « Nous ne pouvons pas fermer les yeux sur les risques » il a dit le X. Le Parlement souhaite maintenir les exigences de transparence horizontale, qui incluent la fourniture de cartes modèles détaillant le processus de formation et toutes les informations pertinentes pour se conformer aux obligations de la loi sur l’IA pour les opérateurs économiques en aval qui construisent un système d’IA sur le modèle. Le législateur vert Kim Van Sparrentak a déclaré à Contexte que l’approche franco-germano-italienne était « absurde », notant que cette argumentation était la même que celle des grandes entreprises technologiques et que les initiatives non contraignantes avaient eu peu de résultats dans le passé. Dans le document de travail, les parlementaires acceptent l’idée de codes de bonnes pratiques de l’UE, mais uniquement pour compléter les exigences horizontales de transparence pour tous les modèles de fondations et pourraient être utilisés, par exemple, pour établir les meilleures pratiques du secteur en matière d’évaluation des risques. En outre, les députés souhaitent étendre le processus d’élaboration de ces codes de bonnes pratiques aux PME, à la société civile et au monde universitaire, un principe qui a été retiré de la version du Conseil du compromis de la Commission. Concernant la limite entre les modèles considérés comme présentant un risque systémique, le document de travail souligne que les législateurs européens ne sont pas satisfaits d’un seuil quantitatif unique basé sur la quantité de calcul utilisée pour former un modèle suggéré par la Commission. Suite à une évaluation réalisée par des chercheurs de l’Université de Stanford, le Parlement souhaite que la désignation soit basée sur plusieurs critères tels que les capacités du modèle, le nombre d’utilisateurs, l’investissement financier, les modalités et les stratégies de diffusion. L’idée est de donner à l’AI Office toute latitude pour évaluer si un modèle présente un risque systémique pour la société sur la base de cette liste de critères prédéfinis, qui peuvent être révisés pour suivre l’évolution du marché et de la technologie. « Nous avons besoin de garanties pour ces modèles en raison de leur impact, de leur polyvalence et du fait que nous allons bientôt les retrouver dans de nombreux produits et services qui nous entourent », dit Dragoș Tudorache, co-rapporteur du Parlement. [Edited by Alice Taylor] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57