Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
La capacité des autorités publiques et des auditeurs externes à accéder au code source de l’intelligence artificielle dans un prochain règlement de l’UE a été restreinte sur la base d’un accord commercial numérique, selon des documents internes de la Commission européenne.
Les documents internes ont été obtenus via une demande d’accès à l’information de Kristina Irion, professeur de droit à l’Université d’Amsterdam, montrant plusieurs demandes du département du commerce de la Commission au département de la politique numérique sur le projet de loi sur l’IA.
La loi sur l’IA est une proposition législative historique visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. Les demandes concernent la réduction des dispositions du règlement relatives à la divulgation du code source, en les alignant sur les engagements commerciaux de l’UE.
Pour Irion, les documents indiquent un inverse inquiétant de ce qui devrait être la bonne approche, car « l’UE devrait utiliser la politique commerciale pour promouvoir son programme législatif, et ne pas laisser les engagements commerciaux antérieurs influencer l’élaboration de sa politique numérique ».
En particulier, les responsables des politiques commerciales ont demandé de réduire les dispositions relatives aux dispositions du code source pour les mettre en conformité avec l’accord de coopération commerciale UE-Royaume-Uni.
L’accord commercial engage Londres et Bruxelles à n’exiger le transfert du code source du logiciel que dans des conditions précises, notamment si un organisme de réglementation le demande pour faire appliquer une loi destinée à protéger la sécurité publique.
Dans une note interne datée du 9 avril 2021, la direction du commerce a remercié la direction de la politique numérique pour avoir modifié les exigences sur la documentation technique mais a demandé de nouvelles modifications concernant l’évaluation de la conformité des systèmes de gestion de la qualité, en particulier sur la disposition relative à la vérification externe des organismes notifiés – auditeurs indépendants agréés.
Le département du commerce a demandé que la formulation relative à la fourniture du code source soit affinée, en supprimant la référence à un accès « plein » et en précisant qu’il ne serait fourni que pour évaluer la conformité d’un système à haut risque afin d’éviter une trop large interprétation.
De même, le département du commerce a demandé la suppression de la référence à l’octroi d’un accès « complet » au code source à une autorité de surveillance du marché pour évaluer si un système d’IA jugé à haut risque de causer des dommages est conforme aux obligations de la loi sur l’IA.
Parallèlement, les responsables de la politique commerciale ont demandé que l’organisme notifié et l’autorité publique soient liés par des obligations de confidentialité lors de la divulgation d’un code source.
Toutes les modifications demandées ont été intégrées au projet final que la Commission européenne a publié plus tard ce mois-là.
« Donner une protection vierge à tout type de code source, malgré le fait qu’une grande partie de celui-ci est disponible via l’open source, équivaut à mettre de côté un nouveau régime de protection qui sape les règles actuelles du droit d’auteur et des secrets commerciaux, où au moins vous devez prouver le les informations sont commercialement sensibles », a ajouté Irion.
Le Conseil de l’UE, qui a adopté sa position sur le règlement sur l’IA en décembre, a encore réduit la portée des conditions d’accès au code source de l’IA, ce qui en fait une mesure de dernier recours.
Entre-temps, un texte provisoire au Parlement européen a retiré aux autorités nationales le pouvoir d’accéder au code source du modèle de formation du système d’IA.
Selon Irion, le risque est de rendre l’accès à ces précieuses informations excessivement difficile pour les régulateurs, qui pourraient être confrontés à une charge administrative ou avoir peur de perdre des litiges avec des entreprises et de rembourser des dommages-intérêts.
« Avec l’essor de modèles d’IA puissants comme ChatGPT, nous avons besoin de mieux comprendre le fonctionnement réel de ces technologies perturbatrices. Nous ne pouvons pas nous fier uniquement au document technique fourni par les entreprises », a ajouté Irion.
[Edited by Nathalie Weatherald]