Customize this title in frenchLa présidence espagnole présente des obligations pour les modèles de fondation dans la loi européenne sur l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa présidence espagnole du Conseil des ministres de l’UE a rédigé une série d’obligations pour les modèles de fondation et l’IA à usage général dans le cadre des négociations sur la loi sur l’IA. L’Espagne mène actuellement les négociations au nom des gouvernements de l’UE sur la loi sur l’intelligence artificielle, une proposition législative historique visant à réglementer l’IA en fonction de son potentiel nocif. Le dossier se trouve actuellement dans la dernière phase du processus législatif, appelé trilogues entre le Conseil, le Parlement et la Commission de l’UE. Depuis l’essor fulgurant de ChatGPT, un chatbot de renommée mondiale basé sur le modèle GPT-4 d’OpenAI, les décideurs politiques de l’UE ont eu du mal à définir comment ce type d’intelligence artificielle devrait être couvert par la réglementation européenne sur l’IA. À la mi-octobre, Euractiv a révélé que la réflexion des décideurs politiques s’orientait vers une approche à plusieurs niveaux, avec un régime plus strict pour les modèles de fondation les plus puissants comme le GPT-4. Dimanche, la présidence espagnole a partagé avec les autres pays de l’UE la première version développée du texte juridique pour commentaires, consultée par Euractiv. Modèles de fondation Le modèle Foundation est défini comme « un grand modèle d’IA formé sur une grande quantité de données, capable d’effectuer avec compétence un large éventail de tâches distinctes, notamment, par exemple, la génération de vidéos, de textes, d’images, la conversation dans un langage latéral, calculer ou générer du code informatique ». Ces modèles doivent respecter des obligations de transparence, à savoir fournir aux fournisseurs de systèmes d’IA une documentation technique à jour expliquant les capacités et les limites des modèles de base et un ensemble d’éléments à détailler en annexe. En outre, les fournisseurs de modèles de base devront démontrer qu’ils ont pris des mesures adéquates pour garantir que la formation du modèle a eu lieu conformément à la législation de l’UE relative au droit d’auteur, en particulier la disposition qui exige des activités d’exploration de données sur le contenu rendu public en ligne. exiger le consentement des titulaires de droits, y compris par des moyens lisibles par machine, si les titulaires de droits ont choisi de ne pas bénéficier de l’exception au droit d’auteur pour l’exploration de textes et de données. Ainsi, les développeurs du modèle de base devront mettre en place un système pour respecter les décisions d’opt-out des créateurs de contenu. Une autre obligation consiste à publier un résumé suffisamment détaillé du contenu utilisé pour la formation du modèle de fondation et de la manière dont le fournisseur gère les aspects liés au droit d’auteur, sur la base d’un modèle qui sera développé par la Commission européenne. Modèles de fondations à fort impact Lors de la dernière séance de négociations, les décideurs politiques de l’UE ont convenu d’introduire un régime plus strict pour les modèles de fondations « à fort impact ». Un modèle de fondation « à fort impact » est défini comme « tout modèle de fondation formé avec une grande quantité de données et doté d’une complexité, de capacités et de performances avancées bien au-dessus de la moyenne des modèles de fondation, qui peut diffuser les risques systémiques tout au long de la chaîne de valeur, indépendamment de l’existence de risques systémiques ». intégré ou non dans un système à haut risque ». Dans les 18 mois suivant l’entrée en vigueur de la loi sur l’IA, la Commission devra adopter des actes d’exécution ou des actes délégués pour préciser le seuil de classification d’un modèle de fondation comme « à fort impact », en fonction de l’évolution du marché et de la technologie. L’exécutif européen désignera les modèles de fondation qui satisfont à ces seuils en consultation avec l’AI Office. Les dispositions introductives de la loi, qui clarifient la manière dont les articles doivent être interprétés, expliqueront ce qu’est un modèle d’IA et comment il est construit, ainsi que des références à la communauté scientifique, l’interaction entre les ensembles de données et les modèles de base et comment les applications d’IA peuvent être construits au-dessus d’eux. Les obligations de ces modèles systémiques incluent une vérification contradictoire, un processus connu sous le nom de red-teaming. Il reste à discuter de la manière dont cette obligation de contrôle devrait s’appliquer aux modèles de fondation à fort impact commercialisés comme un système intégrant des composants tels que des logiciels traditionnels, comme c’est le cas du GPT-4. Il est important de noter que les pays de l’UE doivent discuter de la nécessité de confier la mise en place d’une équipe rouge à des experts externes. La présidence estime que le prestataire peut le faire puisque ces modèles seront également soumis à des audits. L’AI Office pourrait demander des documents prouvant que le modèle est conforme à la loi sur l’IA et, sur demande motivée, mandater un audit indépendant pour évaluer la conformité du modèle avec la loi sur l’IA et tout engagement pris dans le cadre des codes de conduite soussignés que la Commission devrait encourager à dresser. Une obligation marquée comme « éventuellement supplémentaire » comprend l’obligation pour les fournisseurs de modèles de fondations à fort impact d’établir un système de suivi des incidents graves et des mesures correctives associées. En outre, les modèles de base à fort impact devront évaluer les risques systémiques dans l’UE, y compris les risques liés à leur intégration dans un système d’IA, au moins une fois par an depuis le lancement sur le marché et pour toute nouvelle version publiée. L’évaluation des risques doit inclure la diffusion de contenus illégaux ou préjudiciables et tout effet négatif raisonnablement prévisible concernant des accidents majeurs ou ayant un impact sur les processus démocratiques. La Commission est habilitée à adapter les dispositions relatives aux modèles de fondations et aux modèles de fondations à fort impact en fonction de l’évolution du marché et de la technologie. IA à usage général La dernière couche est constituée de systèmes d’IA à usage général comme ChatGPT, conçus comme des systèmes « qui peuvent être basés sur un modèle d’IA, peuvent inclure des composants supplémentaires tels que des logiciels traditionnels et, via une interface utilisateur, ont la capacité de servir une variété d’objectifs, à la fois pour une utilisation directe ainsi que pour une intégration dans d’autres systèmes d’IA. La présidence espagnole a proposé des obligations pour les fournisseurs de systèmes d’IA à usage général lorsqu’ils concluent des accords de licence avec des opérateurs économiques en aval susceptibles d’utiliser le système pour un ou plusieurs cas d’utilisation à haut risque. Ces obligations consistent notamment à indiquer dans les instructions les utilisations à haut risque pour lesquelles le système peut être utilisé, à fournir une documentation technique et toutes les informations pertinentes permettant au fournisseur d’IA en aval de se conformer aux exigences à haut risque. Les fournisseurs de systèmes d’IA à usage général peuvent également interdire certaines utilisations à haut risque. Dans ce cas, ils doivent prendre toutes les mesures nécessaires et proportionnées pour détecter et réprimer d’éventuels abus. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57