Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLe Parlement européen est sur le point de proposer des règles plus strictes pour les modèles de fondation comme ChatGPT et de les distinguer de l’IA à usage général, selon un texte de compromis avancé vu par EURACTIV. La loi sur l’intelligence artificielle est une législation européenne historique visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. Comme les solutions d’IA conçues pour gérer une grande variété de tâches n’étaient pas couvertes par la proposition initiale, l’ascension fulgurante de ChatGPT a brutalement perturbé le débat, entraînant des retards. Bien que le dossier soit proche de la finalisation, mercredi 19 avril, la réunion politique censée certifier un accord s’est transformée en une discussion technique sur cette partie du dossier, entraînant le report du vote en commission clé initialement prévu le 26 avril. . Pendant ce temps, un texte révisé diffusé jeudi indique que les eurodéputés sont sur le point de finaliser leur approche de ChatGPT et des applications similaires. Modèle de base vs IA à usage général Comme indiqué précédemment par EURACTIV, les législateurs européens souhaitent distinguer l’IA à usage général des modèles de base, en introduisant un régime plus strict pour ces derniers. Le modèle de base, un terme de l’Université de Stanford, est défini comme « un modèle de système d’IA qui est formé sur de larges données à grande échelle, est conçu pour la généralité des résultats et peut être adapté à un large éventail de tâches distinctes ». En revanche, l’IA à usage général est considérée comme un « système d’IA qui peut être utilisé et adapté à un large éventail d’applications pour lesquelles il n’a pas été intentionnellement et spécifiquement conçu ». En d’autres termes, la différence entre les deux concepts se concentre sur les données de formation, l’adaptabilité et si elles peuvent être utilisées à des fins non prévues. Les modèles de base incluent des systèmes d’IA génératifs tels que ChatGPT et Stable Diffusion, qui ont été formés à partir de données extraites de l’ensemble d’Internet. Exigences des modèles de fondation Avant de rendre le modèle de fondation disponible, les législateurs européens souhaitent que le fournisseur se conforme à une série d’exigences. Il s’agit notamment de tester et d’atténuer les risques raisonnablement prévisibles pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit avec la participation d’experts indépendants. Les risques non atténuables restants et la raison pour laquelle ils n’ont pas été traités doivent être documentés. Selon le compromis, les exigences relatives aux modèles de base s’appliqueraient quels que soient leurs canaux de distribution, leurs méthodes de développement ou leur type de données de formation. Des mesures de gouvernance des données sont également nécessaires, notamment en termes de mesures pour examiner la durabilité des sources de données, les biais éventuels et les mesures d’atténuation appropriées. Les modèles de base devraient maintenir des niveaux appropriés de performance, d’interprétabilité, de corrigibilité, de sécurité et de cybersécurité tout au long de leur cycle de vie. Le texte exige l’emploi d’experts indépendants, une analyse documentée et des tests approfondis à cette fin. En outre, les législateurs européens souhaitent également que les fournisseurs de modèles de fondation mettent en œuvre un système de gestion de la qualité pour fournir les documents pertinents jusqu’à 10 ans après le lancement du modèle. Les modèles de fondation devraient également être enregistrés dans la base de données de l’UE. Les modèles de fondation qui entrent dans la catégorie de l’IA générative doivent se conformer à d’autres obligations de transparence et mettre en œuvre des garanties adéquates contre la génération de contenu en violation du droit de l’UE. De plus, les modèles d’IA générative devraient « rendre publiquement disponible un résumé divulguant l’utilisation des données de formation protégées par la loi sur le droit d’auteur ». En revanche, la disposition obligeant les fournisseurs de modèles de base à effectuer des vérifications « connaître votre entreprise cliente » sur les opérateurs en aval a été supprimée. Le bureau AI est chargé de maintenir un dialogue régulier avec les fournisseurs de modèles de base sur leurs efforts de conformité et de fournir des conseils sur la consommation d’énergie liée à la formation de ces modèles. Dans le même temps, les fournisseurs de modèles de base devraient divulguer la puissance de calcul requise et le temps de formation du modèle. Responsabilités de la chaîne de valeur Les députés reconnaissent l’importance croissante des modèles d’IA pour les opérateurs économiques qui les intègrent dans diverses applications sans nécessairement maîtriser leur développement. Ainsi, l’idée est de remédier à ce déséquilibre de pouvoir en introduisant des mesures pour assurer le partage proportionné des responsabilités tout au long de la chaîne de valeur de l’IA tout en protégeant les droits fondamentaux, la santé et la sécurité. En particulier, un opérateur économique en aval tel qu’un déployeur ou un importateur d’IA deviendrait responsable du respect du régime plus strict de la loi sur l’IA s’il modifie substantiellement un système d’IA, y compris un système d’IA à usage général, d’une manière qui le qualifie de système à haut risque modèle. Dans ces cas, le fournisseur d’origine devrait soutenir le processus de conformité en fournissant toutes les informations et la documentation pertinentes sur les capacités du modèle d’IA. Cette obligation ne s’applique pas aux développeurs de composants IA open source fournis gratuitement. Les députés veulent charger la Commission européenne de développer des clauses contractuelles types non contraignantes qui réglementent les droits et obligations en fonction du niveau de contrôle de chaque partie. Ces modèles contractuels devraient tenir compte des exigences pour des secteurs spécifiques d’analyses de rentabilisation. Dans le même temps, le Parlement souhaite interdire les obligations contractuelles déloyales imposées unilatéralement aux PME et aux start-up, les empêchant de protéger leurs intérêts commerciaux légitimes. Pour les modèles de base fournis en tant que service, par exemple via une interface de programmation d’application (API), l’obligation du fournisseur de coopérer avec l’opérateur en aval s’applique tout au long du service. Alternativement, le fournisseur de modèle de base peut transférer le modèle de formation à l’opérateur en aval avec les informations appropriées sur les ensembles de données et le processus de développement ou restreindre le service afin que l’opérateur puisse se conformer aux règles de l’IA sans autre assistance. [Edited by Alice Taylor] !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57