Customize this title in frenchLoi sur l’IA : les pays de l’UE réfléchissent à des options en matière de droits fondamentaux, de durabilité et d’utilisation sur le lieu de travail

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

La présidence espagnole a fait circuler trois documents de discussion vendredi 13 octobre pour recueillir les commentaires des pays de l’UE sur les aspects clés de la loi sur l’IA avant une prochaine session de négociation : les droits fondamentaux, les obligations en matière de développement durable et la prise de décision sur le lieu de travail.

La loi sur l’IA est une proposition législative historique visant à réglementer l’intelligence artificielle en fonction de son potentiel nuisible. Depuis qu’ils ont pris la présidence du Conseil des ministres de l’UE, les Espagnols ont donné la priorité à la clôture des négociations sur le dossier avec le Parlement européen et la Commission.

Le groupe de travail Télécom, un organe technique du Conseil, discutera d’une éventuelle flexibilité à accorder aux principaux négociateurs mardi et jeudi. Vendredi, le dossier atterrira sur la table du Comité des représentants permanents, en vue de fournir un mandat de négociation révisé pour le prochain trilogue politique avec les autres institutions européennes le 25 octobre.

Les trois documents de discussion, consultés par Euractiv, visent à évaluer la marge de manœuvre possible dont dispose la présidence dans les négociations avec les autres institutions.

Analyse d’impact sur les droits fondamentaux

Les députés ont introduit l’obligation pour les utilisateurs de modèles d’IA présentant un risque élevé de nuire de mener une analyse d’impact sur les droits fondamentaux.

La présidence semble ouverte à l’idée « dans le but de parvenir à un accord global » et « pour couvrir les risques résiduels qui ne peuvent être prévus du côté du fournisseur car liés à l’utilisation concrète de l’IA à haut risque ». système ».

Madrid a proposé trois options, mais même dans la version la plus proche de celle du Parlement européen, le champ d’application de la disposition est limité aux seuls organismes publics au motif que les entreprises privées devront se conformer à des obligations similaires en vertu de la prochaine directive sur le devoir de diligence (CSDDD). .

La première option proposée est basée sur la version des députés, mais elle se limite aux éléments non identifiés lors des processus précédents, permet aux utilisateurs de collaborer avec les fournisseurs d’IA uniquement pour les informations non disponibles dans les instructions et implique la notification de l’autorité de surveillance du marché.

La deuxième version élargit les obligations et impose uniquement aux utilisateurs de soumettre des informations aux autorités de surveillance du marché via un modèle, tel qu’un formulaire en ligne.

La troisième version simplifierait davantage la mesure et la fusionnerait avec les autres obligations pour les systèmes d’IA à haut risque plutôt qu’un article autonome comme le propose le Parlement.

« Dans tous les cas, afin de faciliter l’évaluation pour le déployeur, il pourrait être positif d’inclure une modification dans les instructions d’utilisation, pour inclure un résumé des risques identifiés dans le processus de gestion des risques », peut-on lire dans le document.

Dispositions sur le lieu de travail

Les législateurs de centre-gauche au Parlement européen ont rendu les conditions d’utilisation de l’IA plus strictes sur le lieu de travail sur deux points importants.

Au niveau national, les États membres seront habilités à introduire des mesures nationales pour protéger les droits des travailleurs lorsque des systèmes d’IA sont utilisés, une disposition que les pays de l’UE ont acceptée, mais uniquement dans la mesure où l’IA présente un risque important.

Deuxièmement, et de manière plus controversée, les députés souhaitent que les représentants des travailleurs soient consultés avant qu’un modèle d’IA ne soit déployé sur le lieu de travail et que les employés concernés soient informés conformément à la législation européenne pertinente.

Ici, outre le rejet ou l’acceptation de la proposition, la présidence suggère qu’une solution pourrait être de simplement informer les représentants des travailleurs. Pendant ce temps, la Commission européenne travaille sur une proposition législative visant à réglementer la gestion algorithmique pour le prochain mandat.

Obligations de durabilité

Les deux colégislateurs ont introduit des dispositions liées à la durabilité pour les modèles d’IA, mais le Parlement européen est allé beaucoup plus loin sous la pression des Verts. Par exemple, le texte des députés inclut les dommages environnementaux dans l’évaluation du risque élevé d’un système.

Pour la présidence, cette approche n’est pas juridiquement valable « car elle active l’obligation de respecter les exigences en raison des aspects de durabilité, mais ces exigences sont conçues sur la base de la santé, de la sécurité et des droits fondamentaux ou obligent les développeurs de modèles de fondations à utiliser le normes d’efficacité énergétique disponibles ».

De même, le Parlement souhaite que les systèmes d’IA à haut risque surveillent la consommation d’énergie, mais les Espagnols estiment que « à haut risque ne signifie pas nécessairement qu’ils consomment plus d’énergie ».

En revanche, la présidence semble prête à renforcer la formulation de l’article relatif aux codes de conduite pour inclure les protocoles d’efficacité énergétique et la gestion des données et également à charger la Commission d’émettre une demande de normalisation pour la programmation économe en énergie.

En d’autres termes, le gouvernement espagnol souhaite supprimer la durabilité des exigences à haut risque et l’intégrer à une norme technique que les fournisseurs d’IA peuvent adopter volontairement.

[Edited by Nathalie Weatherald]

En savoir plus avec EURACTIV



Source link -57