Customize this title in frenchLa régression vers l’autorégulation signifie que la loi européenne sur l’IA ne parviendra pas à remédier aux dommages

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les opinions exprimées dans cet article sont celles de l’auteur et ne représentent en aucun cas la position éditoriale d’Euronews.

En avril 2021, lorsque Bruxelles a proposé la première réglementation intersectorielle sur l’IA au monde, elle prétendait protéger les droits fondamentaux et promouvoir l’innovation. En 2023, les droits fondamentaux pourraient ne plus rester fondamentaux dans cette réglementation, écrit le Dr Kris Shrishak.

PUBLICITÉ

Une coalition de gouvernements français, allemand et italien a proposé que les entreprises autorégulent les systèmes d’IA comme GPT, qui peuvent être utilisés dans diverses applications. Cette proposition fait suite à leur opposition du 9 novembre à la réglementation de tels systèmes d’IA dans la loi sur l’IA.

Cette poussée en faveur de l’autorégulation au sein de l’UE ne doit pas être considérée de manière isolée. Cela fait suite à une série de petites mesures prises par les législateurs qui rendent cette nouvelle proposition décevante, mais pas surprenante.

Les preuves de la négligence de l’industrie de la publicité en ligne à l’égard de la protection des données et celles de divers lanceurs d’alerte de Facebook, entre autres, montrent que l’approche d’autorégulation dans l’industrie technologique a contribué à des préjudices importants.

Et pourtant, la réglementation technologique phare de l’UE, la loi sur l’IA, repose sur l’auto-évaluation, dès le moment où la Commission européenne l’a proposée en 2021.

Un pas en avant, puis un pas en arrière ?

Les entreprises pourraient s’auto-évaluer si elles doivent répondre aux exigences relatives aux systèmes d’IA à haut risque. Ils pourraient volontairement fournir des informations et gérer les risques. Même lorsque leurs systèmes d’IA à haut risque rencontrent de graves problèmes, ils ne doivent informer les régulateurs que dans un ensemble restreint de conditions et pourraient facilement se soustraire à leurs responsabilités.

On aurait pu espérer que le Parlement européen et le Conseil de l’UE reconnaissent les problèmes soulevés par les auto-évaluations. Au lieu de cela, ils sont allés encore plus loin.

Ils ont créé des dispositions qui permettent aux entreprises de choisir si leurs systèmes d’IA présentent ou non un risque élevé. En d’autres termes, les entreprises peuvent décider d’être réglementées ou non, car la loi sur l’IA ne réglemente que les systèmes d’IA à haut risque.

Outre les auto-évaluations, la proposition de la Commission européenne de 2021 présentait une autre lacune béante. Il ne considérait que les systèmes d’IA ayant un « objectif prévu ».

En 2021 déjà, les preuves des dommages causés par les systèmes d’IA sans objectifs prédéfinis, tels que GPT-2 et GPT-3, s’accumulaient. Cependant, la Commission européenne n’a pas abordé ces questions dans sa proposition.

Pourtant, en novembre 2022, ChatGPT, construit sur GPT-3, a été publié et les préjudices ont été largement rapportés dans les médias populaires.

Le Parlement européen a fixé des règles pour de tels systèmes d’IA dans sa position de juin de cette année. Ces règles ont encore été modifiées par la présidence espagnole du Conseil en octobre-novembre.

Il semblait que les législateurs avaient trouvé un accord sur la réglementation de ces systèmes d’IA – jusqu’à ce que la France, l’Allemagne et l’Italie s’y opposent.

Un tour gratuit pour ceux qui enfreignent les règles

Les gouvernements de ces pays ont désormais proposé « une autorégulation obligatoire au moyen de codes de conduite » sans aucune sanction en cas de violation.

Comment une règle est-elle obligatoire à suivre s’il n’y a ni application ni sanction ? Et pourquoi une entreprise suivrait-elle ces règles ?

Ceux qui enfreignent les règles bénéficieront d’un avantage tandis que ceux qui les suivent trouveront cela coûteux. Cela favorisera le déploiement de systèmes d’IA nuisibles et mal testés dans l’UE.

Cela pourrait même promouvoir « l’innovation » en contournant les règles, comme on l’a vu dans le scandale Volkswagen. La concurrence entre ceux qui enfreignent les règles sera la seule concurrence sur ce marché.

En octobre, Neil Clarke du Clarkesworld Magazine l’a dit clairement lorsqu’il s’adressait à la Federal Trade Commission : « La réglementation de ce secteur [AI] l’industrie est nécessaire le plus tôt possible, et chaque moment où elle est autorisée à poursuivre ses pratiques actuelles ne fait que causer davantage de tort. Leurs actions jusqu’à présent démontrent qu’on ne peut pas leur faire confiance pour le faire eux-mêmes.

La régression de l’UE vers l’autorégulation est exactement le contraire de ce qui est exigé d’une superpuissance réglementaire.

PUBLICITÉ

La nouvelle proposition permettra à l’industrie de l’IA de poursuivre ses pratiques actuelles et de rester irresponsable. Les atteintes aux droits fondamentaux continueront de se propager et la loi sur l’IA ne parviendra pas à remédier à ces atteintes.

En avril 2021, lorsque la Commission européenne a proposé le premier règlement intersectoriel sur l’IA au monde, elle prétendait protéger les droits fondamentaux et promouvoir l’innovation.

D’ici fin 2023, les droits fondamentaux pourraient ne plus rester fondamentaux dans cette réglementation.

Le Dr Kris Shrishak est chercheur principal au Conseil irlandais pour les libertés civiles, la plus ancienne organisation irlandaise indépendante de surveillance des droits de l’homme.

Chez Euronews, nous pensons que tous les points de vue comptent. Contactez-nous à [email protected] pour envoyer des pitchs ou des soumissions et participer à la conversation.

PUBLICITÉ

Source link -57