[ad_1]
Les co-rapporteurs du Parlement européen ont proposé des amendements de compromis à la liste des applications d’IA à haut risque, des utilisations interdites et des définitions de concepts.
Les législateurs européens Brando Benifei et Dragoș Tudorache s’efforcent de clore les négociations sur la loi sur l’intelligence artificielle dans les prochains jours. La loi est la première tentative au monde de réglementer l’IA en fonction de son potentiel de causer des dommages.
Parmi les questions en suspens que les deux législateurs tentent de clore figurent la liste des utilisations de l’IA qui présentent des risques importants, les pratiques interdites et les définitions des concepts clés utilisés dans le projet de loi, selon des documents obtenus par EURACTIV.
Zones à haut risque
L’annexe III de la loi sur l’IA répertorie les domaines critiques avec des cas d’utilisation spécifiques.
Dans une version de compromis de l’annexe III diffusée lundi 6 février, les co-rapporteurs ont étendu la notion d’identification et de catégorisation biométriques aux systèmes basés sur la biométrie comme Lensa, une application capable de générer des avatars basés sur le visage d’une personne.
Étant donné que les co-rapporteurs souhaitent que l’identification biométrique en direct dans les espaces accessibles au public soit totalement interdite, le cas d’utilisation à haut risque a été limité à l’identification ex post. Pour les espaces accessibles en privé, une identification en direct et ex post a été ajoutée à la liste.
De plus, les cas d’utilisation incluent la catégorisation biométrique à distance dans les espaces accessibles au public et les systèmes de reconnaissance des émotions.
Pour ce qui concerne les infrastructures critiques, toute composante de sécurité pour le trafic routier, ferroviaire et routier a été incluse.
Cependant, les systèmes destinés à assurer la sécurité de l’approvisionnement en eau, en gaz, en chauffage, en énergie et en électricité ne seraient éligibles dans cette catégorie que si la défaillance du système est hautement susceptible d’entraîner une menace imminente pour cet approvisionnement.
Dans le domaine de l’éducation, la formulation a été modifiée pour inclure des systèmes qui attribuent des tâches d’apprentissage personnalisées en fonction des données personnelles des étudiants.
Dans le domaine de l’emploi, la catégorie à haut risque a été élargie pour inclure les algorithmes qui prennent ou assistent les décisions liées à l’initiation, à l’établissement, à la mise en œuvre ou à la cessation d’une relation de travail, notamment pour l’attribution de tâches personnalisées ou le contrôle du respect des règles du travail.
S’agissant de l’accès aux services publics, le texte précise désormais le type d’aide publique auquel se réfère la disposition, à savoir le logement, l’électricité, le chauffage et la climatisation et internet. L’exemption pour les systèmes conçus par de petits prestataires pour évaluer la solvabilité des personnes a été supprimée.
Les modèles d’IA destinés à évaluer l’éligibilité à l’assurance maladie et vie et ceux à classer les appels d’urgence, par exemple, pour les forces de l’ordre ou le triage des patients en soins de santé d’urgence, sont également couverts.
Une nouvelle zone de risque a été ajoutée pour les systèmes destinés à être utilisés par des groupes vulnérables, en particulier les systèmes d’IA qui peuvent gravement affecter le développement personnel d’un enfant. Cette formulation vague pourrait entraîner la couverture des systèmes de recommandation des médias sociaux.
Les législateurs ont élargi le libellé de la gestion de l’application de la loi, de la migration et du contrôle des frontières pour éviter que la classification à haut risque ne soit contournée en utilisant un entrepreneur.
De plus, toute application d’IA susceptible d’influencer les décisions de vote des personnes lors de scrutins locaux, nationaux ou européens est considérée comme à risque, ainsi que tout système prenant en charge des processus démocratiques tels que le dépouillement des votes.
Une catégorie résiduelle a été introduite pour couvrir les systèmes d’IA générative comme ChatGPT et Stable Diffusion. Tout texte généré par l’IA qui pourrait être confondu avec un texte généré par l’homme est considéré comme à risque à moins qu’il ne soit soumis à un examen humain et qu’une personne ou une organisation en soit légalement responsable.
Faux profonds générés par l’IA, contenu audiovisuel représentant une personne faisant ou disant quelque chose qui ne s’est jamais produit, la catégorie à haut risque s’applique à moins qu’il ne s’agisse d’une œuvre artistique évidente.
Les techniques subliminales alimentées par l’IA pour la recherche scientifique et à des fins thérapeutiques sont également à haut risque.
Pratiques interdites
Une autre partie importante du livre de règles de l’IA est le type d’applications qui sont complètement interdites.
Selon un autre compromis vu par EURACTIV, les modèles d’IA utilisant des techniques subliminales au-delà de la conscience d’une personne sont à proscrire sauf si leur utilisation est approuvée à des fins thérapeutiques et avec le consentement explicite des individus qui y sont exposés.
Sont également interdites les applications d’IA qui sont intentionnellement manipulatrices ou conçues pour exploiter la vulnérabilité d’une personne, comme la santé mentale ou la situation économique, pour déformer matériellement son comportement d’une manière qui peut causer des dommages physiques ou psychologiques importants.
Les co-rapporteurs proposent d’étendre l’interdiction de la notation sociale non seulement des individus mais aussi des groupes aux caractéristiques personnelles déduites qui pourraient conduire à un traitement préférentiel.
L’interdiction des modèles de police prédictive basés sur l’IA a été maintenue.
Définitions
La définition de l’IA est un sujet sensible car elle détermine l’ensemble du champ d’application de la réglementation. Cette partie a été « garée » pour le moment, selon un commentaire en marge d’un troisième document.
Le concept de risque a été défini comme « la combinaison de la probabilité d’occurrence d’un danger causant un dommage et du degré de gravité de ce dommage ».
D’autres définitions ont été ajoutées concernant les données, le profilage, les deep fakes, l’identification et la catégorisation biométriques, les techniques subliminales et les données sensibles, apportant plus de clarté à ces concepts et les alignant sur le règlement général sur la protection des données de l’UE.
[Edited by Nathalie Weatherald]
[ad_2]
Source link -42