[ad_1]
Des négociations interinstitutionnelles sur la loi sur l’IA sont attendues plus tard cette année, et si le Conseil de l’UE a arrêté sa position, l’Allemagne émet des réserves sur certains points qui la rapprochent de la position du Parlement européen que de celle des autres États membres.
Le 6 décembre, les ministres européens réunis au Conseil Télécom ont confirmé leur soutien à l’orientation générale de la loi sur l’IA, une législation historique conçue pour réglementer l’intelligence artificielle en fonction de son potentiel de nuisance.
Tout en saluant le compromis, le ministre fédéral allemand du numérique, Volker Wissing, a noté qu' »il y a encore place à l’amélioration », ajoutant qu’il souhaitait que les commentaires de l’Allemagne soient pris en compte lors des négociations avec le Parlement européen et la Commission, la phase dite du trilogue.
Les points sur lesquels Berlin continuera de pousser pendant les trilogues pourraient devenir un facteur décisif pendant les négociations, car le plus grand pays d’Europe pourrait aider les législateurs de l’UE à faire pencher la balance au sein du Conseil.
Reconnaissance biométrique
L’Allemagne est favorable à une interdiction totale de la technologie de reconnaissance biométrique, comme déjà mentionné dans l’accord de coalition que les trois partis au pouvoir ont signé en 2021. C’est un point fondamental également pour les co-rapporteurs du Parlement.
Cependant, selon des commentaires écrits soumis en octobre et obtenus par EURACTIV, Berlin est uniquement favorable à l’interdiction de l’identification biométrique en temps réel dans les espaces publics tout en permettant l’identification ex post.
Dans le même temps, les Allemands se réservaient le droit de fournir des commentaires plus approfondis sur la question ultérieurement, au fur et à mesure que la discussion évoluait.
De plus, l’Allemagne souhaitait croiser la définition des données biométriques avec celle incluse dans le règlement général sur la protection des données de l’UE afin d’éviter une divergence de terminologie et de classer les systèmes de catégorisation biométrique comme à haut risque.
Police prédictive et reconnaissance des émotions
Un autre sujet controversé est l’application des systèmes d’IA dans les procédures pénales. Dans le même lot de commentaires, Berlin a fait pression pour interdire toute application d’IA qui remplace les juges humains dans les évaluations des forces de l’ordre du risque qu’un individu a de commettre ou de répéter une infraction pénale.
Ces applications d’IA ont simplement été incluses dans les catégories à haut risque dans l’accord final du Conseil, alors qu’il semble y avoir un fort soutien au Parlement européen en faveur de l’interdiction totale de ces pratiques.
De même, les Allemands ont voulu ajouter à la liste des pratiques interdites les systèmes d’IA utilisés par les pouvoirs publics comme les polygraphes, aussi appelés détecteurs de mensonges, ou autres outils de reconnaissance des émotions. Ils ont également demandé de classer tous les autres systèmes de reconnaissance des émotions comme à haut risque.
Forces de l’ordre
Le texte du Conseil de l’UE a introduit plusieurs exclusions importantes pour l’application de la loi. Alors que l’approche de l’Allemagne était généralement de mettre des garanties plus strictes pour l’IA utilisée par les forces de l’ordre.
Cependant, Berlin a également encouragé l’exclusion de ces applications du principe des quatre yeux, qui nécessite la surveillance humaine d’au moins deux personnes au motif que, dans de nombreux cas existants, un seul officier est nécessaire pour prendre la décision.
Une telle incohérence vient probablement du fait que la liste des commentaires provient de différents ministères dirigés par différents membres de la coalition. Il n’est pas toujours évident de savoir quel ministère a prévalu sur un certain sujet, ce qui rend la position allemande difficile à interpréter pour les décideurs politiques de l’UE.
Tout au long des négociations, le gouvernement allemand a demandé le déballage des dispositions de l’IA liées à la sécurité et à la migration dans une proposition distincte. Jusqu’à présent, il y a eu peu d’appétit pour une telle approche, qui nécessiterait une proposition législative distincte à finalité générale/à finalité générale.
L’IA en milieu de travail
Le gouvernement allemand a également fait pression pour interdire tout système d’IA destiné à surveiller systématiquement les performances et le comportement des employés sans raison particulière, ce qui entraîne une pression psychologique qui les empêche de se comporter librement.
« Ces systèmes d’IA peuvent suivre avec précision les performances et le comportement des employés, générer des scores sur la probabilité d’un employé de démissionner ou sur sa productivité, indiquer quels employés pourraient propager un sentiment négatif et, finalement, créer des profils complets d’employés », note le commentaire.
L’Allemagne a obtenu une référence dans l’approche générale selon laquelle les États membres restent libres de prendre des mesures au niveau national pour mettre en place des règles plus spécifiques pour l’IA sur le lieu de travail. Une formulation similaire a été introduite sur la protection des mineurs.
Classement à haut risque
La présidence tchèque a réussi à introduire une couche supplémentaire dans la classification à haut risque, ce qui signifie que l’IA serait considérée comme présentant un risque important non seulement en fonction de son domaine d’application, mais aussi si elle contribue à façonner le processus décisionnel.
Les Allemands se sont opposés à cette approche, soulignant que les fournisseurs d’IA ne seraient pas en mesure d’anticiper les cas d’utilisation. Ils soulignent également l’absence d’obligation pour les fournisseurs de systèmes non à haut risque d’expliquer comment ils sont parvenus à une telle classification.
Berlin a fait d’autres propositions sur les applications d’IA à classer comme à haut risque, à savoir les industries à forte intensité d’émissions, l’élimination des eaux usées, les composants de sécurité pour les infrastructures numériques critiques et les systèmes d’alerte publique pour les phénomènes météorologiques extrêmes.
Des propositions supplémentaires pour la liste à haut risque incluent des systèmes d’IA utilisés pour attribuer des logements sociaux, recouvrer des dettes et fournir une tarification personnalisée, car toutes ces applications pourraient pénaliser les catégories vulnérables.
[ad_2]
Source link -42