Customize this title in frenchLa France, l’Allemagne et l’Italie plaident en faveur d’une « autorégulation obligatoire » pour les modèles de fondation dans la loi européenne sur l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les trois plus grands pays de l’UE font pression pour des codes de conduite sans régime de sanctions initial pour les modèles de fondations plutôt qu’avec des obligations prescriptives dans les règles de l’IA, selon un document officieux consulté par Euractiv.

La loi sur l’IA est une législation phare de l’UE visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. Le dossier en est actuellement à la dernière phase du processus législatif, où la Commission européenne, le Conseil et le Parlement se réunissent en « trilogues » pour élaborer les dispositions finales de la loi.

Les négociations sur la première loi globale sur l’IA au monde ont été perturbées par la montée en puissance de ChatGPT, un type polyvalent de système d’IA connu sous le nom d’IA à usage général, qui repose sur le puissant modèle de base GPT-4 d’OpenAI.

Le 10 novembre, Euractiv a rapporté que l’ensemble de la législation était menacé suite à l’opposition croissante de la France, qui a obtenu le soutien de l’Allemagne et de l’Italie dans sa lutte contre toute réglementation sur les modèles de fondations.

Les poids lourds de l’UE – la France, l’Allemagne et l’Italie – ont demandé à la présidence espagnole du Conseil de l’UE, qui négocie au nom des États membres, de renoncer à l’approche par étapes sur laquelle il semblait y avoir un consensus lors du dernier trilogue politique à la mi-2017. Octobre.

En réponse, des responsables du Parlement européen ont quitté une réunion pour signaler que laisser les modèles de fondations en dehors de la loi n’était pas politiquement acceptable. Ces dernières semaines, la présidence espagnole a tenté de trouver une solution entre les parlementaires européens et les gouvernements européens les plus réticents.

Cependant, les trois pays ont fait circuler dimanche (19 novembre) un document officieux qui laisse peu de place au compromis, estimant que des règles horizontales sur les modèles de fondation iraient à l’encontre de l’approche technologiquement neutre et basée sur les risques de la loi sur l’IA, qui vise à préserver à la fois l’innovation et la sécurité.

« Les risques inhérents résident dans l’application des systèmes d’IA plutôt que dans la technologie elle-même. Les normes européennes peuvent soutenir cette approche suite au nouveau cadre législatif », indique le document, ajoutant que les signataires sont « opposés à une approche à deux niveaux pour les modèles de fondation ».

« En ce qui concerne les modèles de fondation, nous nous opposons à l’instauration de normes non testées et suggérons de s’appuyer entre-temps sur une autorégulation obligatoire au travers de codes de conduite », indique en outre le document officieux, notant que ceux-ci suivent les principes définis lors de la réunion. le G7 avec le processus d’Hiroshima.

Au lieu de cela, les trois pays soutiennent que réglementer les systèmes d’IA à usage général qui peuvent être disponibles pour des applications spécifiques plutôt que des modèles de base serait plus conforme à l’approche basée sur les risques.

Pour mettre en œuvre cette approche, Paris, Berlin et Rome proposent que les développeurs de modèles de base définissent des cartes modèles, une documentation technique qui résume les informations sur les modèles formés à un large public.

« Définir des fiches modèles et les rendre disponibles pour chaque modèle de base constitue l’élément obligatoire de cette autorégulation », note le non-papier, soulignant que ces fiches devront inclure les informations pertinentes sur les capacités et les limites du modèle et être basées sur les meilleures pratiques au sein de la communauté des développeurs.

Les exemples fournis incluent le nombre de paramètres, les utilisations prévues, les limites potentielles, les résultats d’études sur les biais et l’équipe rouge pour l’évaluation de la sécurité.

Le document officieux propose qu’un organe de gouvernance de l’IA puisse aider à élaborer des lignes directrices et à vérifier l’application des modèles de cartes, offrant ainsi un moyen simple de signaler toute infraction au code de conduite.

« Toute violation présumée dans l’intérêt de la transparence doit être rendue publique par l’autorité », poursuit le document.

Les trois pays ne souhaitent pas non plus que des sanctions soient appliquées dès le début. Selon eux, un régime de sanctions ne serait mis en place qu’à la suite de violations systématiques des codes de conduite et d’une analyse « appropriée » et d’une évaluation d’impact des manquements identifiés.

Pour ces trois pays, les normes européennes pourraient également constituer un outil important pour créer la capacité d’adaptation nécessaire pour prendre en compte les évolutions futures.

L’approche des modèles de base sera au centre d’une discussion du groupe de travail Télécom, un organe technique du Conseil, mardi 21 novembre. Le même jour, les députés tiendront une réunion interne sur le sujet, suivie d’un dîner avec la présidence du Conseil et la Commission.

« Il s’agit d’une déclaration de guerre », a déclaré à Euractiv un responsable du Parlement sous couvert d’anonymat.

[Edited by Zoran Radosavljevic]

En savoir plus avec EURACTIV



Source link -57