Customize this title in frenchLoi sur l’IA : le Parlement européen en route vers un vote en commission clé fin avril

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Les législateurs européens des principales commissions du Parlement européen votent sur l’accord politique sur la loi sur l’IA le 26 avril, de nombreuses questions étant réglées, mais quelques problèmes critiques restent ouverts. La loi sur l’IA est une proposition historique de l’UE visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. Le Parlement européen devrait finaliser sa position sur le dossier d’ici mai pour entamer rapidement des négociations avec le Conseil de l’UE et la Commission dans les soi-disant trilogues. Les discussions sur le règlement sur l’IA ont pris plus de temps que prévu en raison de querelles politiques au Parlement, qui ont abouti à la co-direction de la commission du marché intérieur et de la protection des consommateurs (IMCO) et de la commission des libertés civiles (LIBE). Enfin, un « package deal » sur la proposition globale se dessine, même si plusieurs points importants restent à régler. « C’est un équilibre délicat », a déclaré un responsable du Parlement européen à EURACTIV. Cet équilibre pourrait être remis en cause lors du vote en plénière en mai, lorsque des amendements alternatifs pourraient être déposés. Cependant, certains obstacles critiques doivent être entièrement surmontés avant d’en arriver là. IA à usage général Des développements technologiques tels que l’essor fulgurant de ChatGPT ont joué un rôle dans la perturbation des discussions sur la loi sur l’IA, alors que les législateurs européens se sont efforcés de décider comment traiter une technologie qui évolue à une vitesse vertigineuse et n’est pas couverte par la proposition initiale. C’est peut-être la question politique la plus importante encore ouverte. Un compromis potentiel discuté la semaine dernière était d’imposer des obligations plus strictes aux modèles de base comme ChatGPT, notamment avec des exigences strictes en matière de gestion des risques et de la qualité et des audits externes. Cependant, le centre-droit pousse à mieux adapter ces exigences à la spécificité de cette technologie. Pendant ce temps, ce que certains appellent la « véritable » IA à usage général (GPAI), qui peut être adaptée à de multiples fins, se dirige vers un régime un peu plus léger. Ceux qui apporteraient des modifications substantielles aux modèles deviendraient responsables de se conformer au règlement de l’IA. Néanmoins, les fournisseurs GPAI devraient soutenir cet effort de conformité en fournissant des informations non commercialement sensibles. Définition de l’IA La définition de l’intelligence artificielle a été un enjeu politique majeur car cela définit le champ d’application même de la législation. Dans une concession importante au Parti populaire européen (PPE) de centre-droit, la définition a été alignée sur celle de l’OCDE. Pratiques interdites La loi sur l’IA interdit certaines applications technologiques considérées comme présentant un risque inacceptable, comme les techniques subliminales qui exploitent la vulnérabilité d’une personne, bien qu’une exception à des fins thérapeutiques ait été introduite dans ce cas. Un sujet brûlant était de savoir comment gérer les systèmes de reconnaissance biométrique. Les eurodéputés progressistes ont fait pression pour une interdiction totale, tandis que les législateurs conservateurs voulaient garder cette technologie disponible pour des circonstances exceptionnelles comme les attentats terroristes et les enlèvements. Le terrain d’entente a été trouvé en interdisant l’utilisation de logiciels de reconnaissance faciale en temps réel, mais en l’autorisant ex post comme une application à haut risque. Cependant, cet accord devrait être mis à l’épreuve lors de la session plénière. À la demande des législateurs de gauche à centre, la liste des pratiques interdites a été considérablement élargie pour inclure la catégorisation biométrique, la police prédictive et les bases de données de reconnaissance faciale basées sur le scaping aveugle, selon la société controversée Clearview AI. Une question ouverte est de savoir si la reconnaissance des émotions devrait également être interdite avec une exclusion médicale, un point que le centre-gauche espère obtenir dans le cadre de l’accord global. L’interdiction de la notation sociale a été élargie pour inclure les entreprises privées. Catégories à haut risque Les applications d’IA présentant un risque important de causer des dommages doivent respecter un régime strict. Dans la proposition initiale, tous les modèles d’IA qui relèvent de domaines d’application spécifiques tels que l’application de la loi étaient automatiquement classés comme à haut risque. Cette automaticité a été supprimée, car seuls les modèles d’IA qui présentent un risque de nuire à la santé, à la sécurité et aux droits fondamentaux des personnes ont été ajoutés. Cette disposition est fortement combattue par des groupes comme les Verts et la Gauche, pour lesquels des garanties supplémentaires ont été ajoutées. Dans le même temps, les eurodéputés progressistes ont obtenu une liste plus large d’applications à haut risque, les étendant à la catégorisation et à l’identification biométriques, aux contrefaçons profondes et au texte généré par l’IA, sauf en cas de responsabilité éditoriale. Les cas d’utilisation dans le domaine de l’emploi, de l’éducation, du contrôle des migrations et des infrastructures critiques ont été élargis. Obligations à haut risque Des modifications importantes des obligations des prestataires à haut risque ont été convenues lors d’une réunion politique mercredi. Celles-ci incluent la gestion des risques et les obligations de reporting, la transparence sur l’objectif initial des ensembles de données de formation, une tenue de registres plus stricte et la transparence sur la consommation d’énergie du modèle. Tous les utilisateurs de systèmes à haut risque devront procéder à une évaluation d’impact pour évaluer leur impact potentiel sur les droits fondamentaux de la personne concernée. De plus, les autorités publiques et les entreprises technologiques classées comme gardiens en vertu de la loi sur les marchés numériques qui utilisent l’IA à haut risque devront s’inscrire sur une base de données publique à l’échelle de l’UE avec tout autre utilisateur qui souhaite s’inscrire volontairement. Application et gouvernance Le chapitre sur l’application et la gouvernance est toujours ouvert. La question est de savoir si l’Office AI, un nouvel organe de l’UE, aura un rôle purement de coordination ou des pouvoirs d’exécution sur les affaires transfrontalières, pour lesquelles on ne sait pas d’où proviendront les ressources. [Edited by Zoran Radosavljevic] !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57