Customize this title in frenchAI Act : des députés européens de premier plan proposent des critères initiaux pour classer les modèles de fondations comme « à fort impact »

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes législateurs européens qui ont dirigé les travaux sur les règles de l’IA ont suggéré un premier ensemble de critères pour identifier les modèles de fondation les plus puissants qui doivent suivre un régime spécifique. La loi sur l’IA est une législation européenne historique visant à réglementer l’intelligence artificielle en fonction de son potentiel à nuire aux personnes. Le dossier en est actuellement à la dernière étape du processus législatif, appelé trilogue, au cours duquel la Commission européenne, le Parlement et le Conseil débattent des dispositions finales. L’un des points de friction à ce stade avancé des négociations concerne les modèles de base tels que GPT-4, sur lesquels plusieurs applications d’IA peuvent être construites, comme le chatbot le plus célèbre au monde, ChatGPT. Mardi 7 novembre, Euractiv a révélé en exclusivité que la présidence espagnole du Conseil de l’UE, qui dirige les négociations au nom du Conseil, a fait circuler un premier projet d’obligations pour les modèles de fondations, y compris les plus puissants, qualifiés de « à fort impact ». Mercredi, les bureaux des co-rapporteurs du Parlement européen Dragoș Tudorache et Brando Benifei ont partagé avec les députés une réaction au projet de la présidence. Le texte des co-rapporteurs sera discuté lors d’une réunion politique jeudi. Classement de premier niveau Un aspect essentiel de cette approche à plusieurs niveaux est la manière dont les modèles de fondation « à fort impact » sont séparés des autres. Dans la proposition du Conseil, la Commission était chargée d’élaborer un droit dérivé pour préciser ces seuils dans les 18 mois suivant l’entrée en vigueur de la loi. Pour les principaux députés européens, ces critères sont trop importants pour être laissés à la seule Commission. Ainsi, ils ont proposé quatre premiers critères sur lesquels des seuils concrets doivent être fixés, s’ils sont confirmés. Les critères sont la taille des échantillons de données utilisés pour la formation, la taille des paramètres représentant le modèle, la quantité de calcul utilisée pour la formation mesurée dans les opérations en virgule flottante et certains critères de performance qui doivent encore être entièrement élaborés. Dans ce scénario, la Commission devrait proposer dans un délai de 18 mois une méthodologie pour évaluer ces seuils. En outre, l’exécutif européen serait habilité à ajuster les seuils, par exemple si les développements technologiques réduisaient la quantité d’échantillons de données nécessaires à la formation d’un modèle de base puissant. Ce qui reste à discuter est de savoir si tous les seuils doivent être respectés ou si un couple suffirait. Suivant le modèle de la loi sur les services numériques, les parlementaires souhaitent que les fournisseurs fournissent des informations sur les seuils prédéfinis. Toutefois, la Commission pourrait également fonder sa décision de désignation sur d’autres informations reçues dans le cadre des obligations de divulgation. La désignation sera abandonnée si le modèle descend en dessous des seuils pertinents pendant au moins un an, selon le texte des députés. Pour les principaux députés européens, une définition de modèles de fondations à fort impact n’est pas nécessaire puisque leur désignation se fera en fonction de seuils. Obligations pour les fournisseurs de modèles de fondations à fort impact Les co-rapporteurs ont également proposé quelques modifications aux obligations des fournisseurs de modèles à fort impact. Une précision a été ajoutée selon laquelle les obligations s’appliquent indépendamment du fait qu’elles soient mises à disposition sous des licences gratuites et open source. Les principaux députés européens souhaitent que les modèles de fondations à fort impact soient enregistrés dans la base de données publique de l’UE, initialement conçue pour les utilisateurs de systèmes d’IA présentant un risque important de préjudice. Une obligation supplémentaire a été proposée selon laquelle ces modèles puissants devraient appliquer des normes pertinentes en matière d’utilisation des ressources et de déchets. La proposition de la présidence implique que ces prestataires évaluent les risques systémiques potentiels. Les législateurs ont proposé d’ajouter aux risques systémiques les effets négatifs prévisibles sur l’exercice des droits fondamentaux, les violences basées sur le genre et la protection de la santé publique, de l’environnement et des mineurs. Concernant l’atténuation des risques, les députés souhaitent charger l’AI Office de publier un rapport annuel identifiant les risques récurrents les plus importants, indiquant les meilleures pratiques d’atténuation des risques et ventilant les risques systémiques par État membre. Modèles de fondation L’approche proposée consiste à établir certaines obligations horizontales pour tous les modèles de fondation. Les co-rapporteurs estiment toutefois que la définition des modèles de fondation donnée par le Conseil n’est pas claire, car certains éléments pourraient être confondus avec l’IA générative. Le texte du Parlement précise que ces obligations s’appliquent avant la mise sur le marché du modèle. Les références croisées introduites par les Espagnols avec la législation européenne sur le droit d’auteur ont été déplacées vers un article spécifique à l’IA générative. IA générative Les principaux députés européens ont proposé un nouvel article prévoyant des obligations ex ante pour les modèles de base génératifs et les systèmes d’IA capables de générer du contenu synthétique audio, image, vidéo ou texte basé sur des corrélations et des modèles tirés des données. Pour les parlementaires, les résultats de ces systèmes doivent être marqués comme générés artificiellement ou manipulés dans un format lisible par machine. En outre, les fournisseurs devraient « former et, le cas échéant, concevoir et développer le modèle de base ou le système d’IA de manière à garantir des garanties adéquates contre la génération de contenus en violation du droit de l’Union, sans préjudice des droits fondamentaux, y compris la liberté ». d’expression ». Les dispositions de la présidence espagnole – obligeant ces fournisseurs à fournir un résumé détaillé du contenu utilisé pour entraîner le modèle et à démontrer qu’ils ont mis en place des mesures adéquates pour respecter la loi sur le droit d’auteur – sont restées inchangées. Néanmoins, le paragraphe sur l’établissement de capacités qui respectent les décisions de désinscription des créateurs de contenu a été supprimé. Enfin, le texte impose aux fournisseurs de « s’assurer que leurs solutions techniques sont efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement réalisable, en tenant compte des spécificités et des limites des différents types de contenus ». IA à usage général Les co-rapporteurs ont proposé de définir l’IA à usage général comme « un système d’IA qui peut être utilisé et adapté à un large éventail d’applications pour lesquelles il n’a pas été intentionnellement et spécifiquement conçu ». Concernant les obligations, les corapporteurs insistent sur le maintien du texte du Parlement sur les responsabilités tout au long de la chaîne de valeur de l’IA des fournisseurs. [Edited by Zoran Radosavljevic] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57