Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
La présidence espagnole du Conseil des ministres de l’UE a proposé une architecture de gouvernance pour superviser les obligations relatives aux modèles de fondations et aux modèles de fondations à fort impact, qui comprend la création d’un panel scientifique.
Des obligations spécifiques sur les modèles de base comme le GPT-4 d’OpenAI, qui prend en charge ChatGPT, le chatbot le plus célèbre au monde, sont en cours de discussion dans le contexte de l’AI Act. Cette proposition législative vise à réglementer l’intelligence artificielle selon une approche basée sur les risques.
La loi sur l’IA en est à la dernière phase du processus législatif, dans le cadre de ce que l’on appelle les trilogues entre le Conseil, le Parlement et la Commission de l’UE. Ainsi, l’approche proposée par la présidence en matière de gouvernance, présentée dimanche 5 novembre, pourrait avoir une grande influence sur les discussions en cours.
Supervision du modèle de fondation
Le texte indique que la Commission européenne aurait des pouvoirs exclusifs pour superviser les obligations des modèles de fondations, y compris celles à « fort impact » soumises à un régime plus strict.
L’exécutif européen pourrait enquêter et appliquer ces dispositions, soit de sa propre initiative, soit à la suite d’une plainte émanant d’un fournisseur d’IA ayant conclu un contrat avec le fournisseur de modèles de fondation ou d’un groupe scientifique nouvellement créé.
La Commission doit définir, au moyen d’actes d’exécution, les procédures de contrôle de l’application des obligations pour les fournisseurs de modèles de fondation, y compris le rôle de l’Office d’IA, la nomination du groupe scientifique et les modalités de réalisation des audits.
L’exécutif européen aura le pouvoir de mener des audits sur les modèles de fondation « en tenant le plus grand compte de l’avis du comité scientifique » pour évaluer la conformité du fournisseur à la loi sur l’IA ou pour enquêter sur les risques de sécurité à la suite d’un rapport qualifié du comité scientifique.
La Commission pourrait soit effectuer les audits elle-même, soit les déléguer à des auditeurs indépendants ou à des équipes rouges sélectionnées. Les auditeurs pourraient demander l’accès au modèle via une interface de programmation d’application (API).
Pour les modèles de fondations à fort impact, la présidence espagnole a proposé des évaluations contradictoires par des équipes rouges. Pour la présidence, les équipes rouges pourraient venir du prestataire. Cependant, si la décision politique est de les rendre externes, les Espagnols ont rédigé un article autorisant la Commission à attribuer le statut de « équipe rouge vérifiée ».
Ces testeurs approuvés doivent faire preuve d’une expertise particulière, être indépendants des fournisseurs de modèles de base et faire preuve de diligence, de précision et d’objectivité dans leur travail. La Commission doit établir un registre des équipes rouges sélectionnées et définir la procédure de sélection par le biais d’actes délégués.
Le projet de texte autorise l’exécutif européen, à la suite d’un dialogue avec les fournisseurs de modèles de fondation, à leur demander de mettre en œuvre des mesures pour se conformer aux exigences de la loi sur l’IA et des mesures d’atténuation des risques lorsque de graves préoccupations concernant les risques sont détectées via les audits.
L’exécutif européen pourra demander la documentation que les modèles de fondation devront développer dans le cadre de leurs obligations, par exemple sur les capacités et les limites de leur modèle. Cette documentation peut être demandée et mise à disposition par un opérateur économique en aval qui a construit une application d’IA sur le modèle de base.
Si la documentation soulève des inquiétudes quant à des risques potentiels, la Commission pourrait demander des informations complémentaires, entamer un dialogue avec le fournisseur et prescrire des mesures correctives.
Madrid a également proposé un régime de sanctions pour les fournisseurs de modèles de fondation qui enfreignent les obligations en vertu de la loi sur l’IA ou ne se conforment pas aux demandes de documentation, d’audits ou de mesures correctives. Aucun pourcentage du chiffre d’affaires total mondial n’a encore été fixé.
Cadre de gouvernance
La présidence espagnole a proposé la création d’un « cadre de gouvernance » pour les modèles de fondation, y compris les modèles « à fort impact », comprenant le Bureau de l’IA et un groupe scientifique qui soutiendra les activités de la Commission.
Les activités envisagées consistent à consulter régulièrement la communauté scientifique, les organisations de la société civile et les développeurs sur l’état de la gestion des risques des modèles d’IA et à promouvoir la coopération internationale avec ses pairs.
Panel scientifique
Les tâches du comité scientifique consistent notamment à contribuer au développement de méthodologies d’évaluation des capacités des modèles de fondations, à donner des conseils sur la désignation et l’émergence de modèles de fondations à fort impact et à surveiller les éventuels risques de sécurité des matériaux liés aux modèles de fondations.
Les membres du panel devraient être sélectionnés en fonction d’une expertise scientifique ou technique reconnue en matière d’IA, agir de manière objective et divulguer tout conflit d’intérêt potentiel. Ils peuvent également postuler pour devenir des équipes rouges sélectionnées.
Systèmes non conformes à risque
La présidence a proposé une procédure révisée pour traiter les systèmes d’IA non conformes qui présentent un risque important au niveau de l’UE. Dans des circonstances exceptionnelles où le bon fonctionnement du marché intérieur pourrait être en jeu, la Commission pourrait procéder à une évaluation d’urgence et imposer des mesures correctives, y compris le retrait du marché.
[Edited by Nathalie Weatherald]