Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les membres du Parlement européen ont clôturé plusieurs parties critiques du règlement sur l’IA lors d’une réunion politique jeudi 13 avril, mais les utilisations interdites de l’IA pourraient potentiellement diviser la maison.
La loi sur l’IA est une législation historique visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages, et alors que les députés s’approchent d’un accord politique sur le dossier avec un vote en commission clé prévu le 26 avril, l’adoption en plénière sera difficile.
Le volet politiquement le plus sensible abordé lors de la réunion politique avec l’ensemble des groupes jeudi était les pratiques interdites, les applications jugées à risque inacceptable. La catégorisation à haut risque, l’application et la gouvernance sont largement réglées.
Pratiques interdites
Les libéraux allemands ont proposé d’introduire une disposition interdisant « l’utilisation d’un système d’IA pour la surveillance générale, la détection et l’interprétation du contenu privé dans les services de communication interpersonnelle, y compris toutes les mesures qui compromettraient le chiffrement de bout en bout ».
Le texte proposé, vu par EURACTIV, vise à exclure tout outil alimenté par l’IA pour détecter les contenus illégaux présumés, comme ceux requis par la proposition de l’UE pour lutter contre le matériel d’abus sexuel d’enfants.
Cependant, la disposition se heurte à l’opposition du parti conservateur du Parti populaire européen (PPE), qui a une forte faction indulgente à l’égard de l’application de la loi.
En échange de cette suppression, les députés européens plus progressistes obtiendraient l’interdiction des technologies de reconnaissance des émotions dans les forces de l’ordre, la gestion des frontières, les lieux de travail et les établissements d’enseignement, à l’exception de l’IA utilisée à des fins médicales ou de recherche lorsque les sujets y consentent.
Une partie de l’accord interdit également l’identification biométrique en temps réel tout en l’autorisant ex-post. Cependant, alors que les ombres du PPE acceptent cet arrangement, elles ne sont pas sûres que la direction du groupe n’appellera pas à un vote clé lors de la plénière.
Un vote clé signifie qu’un amendement alternatif serait déposé, et s’il n’est pas adopté, le groupe devrait voter contre l’ensemble du texte.
Selon un responsable parlementaire, les discussions politiques entre chefs de groupe tenteront de neutraliser le scénario où le plus grand groupe politique ne soutiendrait pas le texte, affaiblissant la position de négociation du Parlement.
Catégorisation à haut risque
La loi IA introduit un régime strict pour les systèmes à haut risque, pour lesquels une liste de domaines et de cas d’usage a été identifiée en annexe III. Bien qu’il n’y ait pas eu de temps pour discuter de l’annexe III, cette partie a été largement acceptée.
Alors que dans la proposition initiale, la classification à haut risque serait automatique, les députés ont introduit la couche supplémentaire selon laquelle les modèles d’IA couverts par l’annexe III ne sont à haut risque que s’ils présentent un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux.
Si les fournisseurs d’IA considèrent que leur système ne présente pas de risque significatif, ils doivent en informer l’autorité nationale compétente ou l’EU AI Office s’ils opèrent dans plusieurs pays européens, moyennant une notification motivée.
L’autorité nationale aurait trois mois pour remettre en question la classification, une objection que les fournisseurs d’IA auraient le droit de faire appel. Cependant, pendant cette période, les fournisseurs d’IA pouvaient encore lancer leurs solutions d’IA sur le marché de l’UE après l’envoi de la notification.
La question cruciale est de savoir si l’autorité peut ou doit répondre à chaque notification, avec la mesure obligatoire poussée par les Verts, qui craignent que l’arriéré ne soit si accablant pour certaines autorités qu’elles ne filtrent les systèmes dangereux.
Selon le compromis, la Commission est chargée d’élaborer, en consultation avec l’Office AI et les parties prenantes concernées, des lignes directrices précisant les critères par rapport auxquels les entreprises doivent effectuer une telle auto-évaluation six mois avant l’entrée en vigueur du règlement.
Les composants de sécurité pour les transports ou les réseaux numériques couverts par la législation sectorielle ont été exclus de l’annexe III.
Dans l’éducation, les applications d’IA pour évaluer le niveau d’éducation approprié ou détecter la tricherie lors des examens ont été ajoutées à la liste à haut risque.
Pour l’IA sur le lieu de travail, l’annexe III précise désormais les systèmes d’IA destinés au recrutement de personnes, notamment pour placer des annonces d’emploi ciblées, filtrer les candidatures et évaluer les candidats.
Gouvernance et application
Le co-rapporteur, Dragoș Tudorache, a initialement poussé à centraliser l’application via un bureau AI, un nouvel organe de l’UE qui serait légèrement inférieur à une agence.
Cependant, le rôle du Bureau AI a été considérablement réduit à un rôle de soutien en raison de contraintes budgétaires, bien qu’il ait conservé son propre secrétariat et directeur exécutif.
Les pouvoirs d’enquête ont été principalement remis entre les mains des autorités nationales. La Commission européenne ne doit intervenir que dans les cas les plus graves, à savoir pour examiner lorsqu’une autorité nationale interdit un système qui présente des risques graves malgré le respect du règlement sur l’IA.
Dans les affaires concernant deux États membres ou plus, l’autorité principale sera celle où l’infraction s’est produite. Toutefois, des enquêtes conjointes sont envisagées si la violation est généralisée ou touche 45 millions de personnes dans au moins deux pays.
L’infraction généralisée concerne au moins trois pays de l’UE. Elle peut acquérir une dimension européenne si elle affecte les intérêts collectifs d’au moins deux tiers des pays ou de la population de l’UE.
Ce qui reste
Outre l’annexe III, les législateurs doivent encore finaliser les dispositions sur l’IA à usage général, les chaînes de valeur de l’IA, les articles autonomes, les obligations des utilisateurs et le préambule du règlement. Par conséquent, le vote en commission du 26 avril pourrait encore subir des retards.
[Edited by Alice Taylor]