Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes principales commissions parlementaires du Parlement européen ont donné leur feu vert à la loi sur l’IA lors d’un vote jeudi 11 mai, ouvrant la voie à son adoption en plénière à la mi-juin. La loi sur l’IA est une législation phare visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. Jeudi, les commissions des libertés civiles et du marché intérieur du Parlement ont adopté conjointement le texte à une large majorité. La prochaine étape est l’adoption en plénière, avec le 14 juin comme date provisoire. Une fois que les députés européens auront officialisé leur position, la proposition entrera dans la dernière étape du processus législatif, donnant le coup d’envoi des négociations avec le Conseil et la Commission de l’UE, appelées trilogues. « Nous sommes sur le point de construire une véritable législation de référence pour le paysage numérique, non seulement pour l’Europe mais aussi pour le monde entier », a déclaré à ses pairs Brando Benifei, l’un des co-rapporteurs du dossier, avant le vote. Définition de l’IA La définition de l’intelligence artificielle est un aspect essentiel de la législation car elle définit son champ d’application. Les eurodéputés conservateurs ont obtenu d’aligner la définition sur celle de l’Organisation de coopération et de développement économiques (OCDE), un club de 38 pays riches. « »Système d’intelligence artificielle » (système d’IA) désigne un système basé sur une machine conçu pour fonctionner avec différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des sorties telles que des prédictions, des recommandations ou des décisions, qui influencent les capacités physiques ou virtuelles. environnements. » Fait remarquable, l’OCDE envisage déjà de peaufiner sa définition de l’IA. Par conséquent, les législateurs de l’UE ont ajusté la formulation pour anticiper la future formulation de l’organisation. Pratiques interdites La loi sur l’IA interdit des applications spécifiques telles que les techniques de manipulation et la notation sociale, qui sont considérées comme présentant un risque inacceptable. La liste de ces pratiques interdites a été considérablement allongée sur l’insistance des eurodéputés de gauche à centre. L’interdiction a été étendue aux modèles d’IA pour la catégorisation biométrique, la police prédictive et la suppression des images faciales pour la création de bases de données. Les logiciels de reconnaissance des émotions sont interdits dans les forces de l’ordre, la gestion des frontières, le lieu de travail et l’éducation. Les systèmes d’identification biométrique, autorisés initialement dans des situations spécifiques comme les enlèvements ou les attentats terroristes, ont été un point plus controversé. Le Parlement avait une majorité pour une interdiction complète, malgré la résistance du parti populaire européen conservateur jusqu’à la toute dernière minute. IA à usage général La version originale de la loi sur l’IA n’incluait pas les systèmes sans objectif spécifique dans son champ d’application. Le succès rapide de ChatGPT et d’autres grands modèles linguistiques a poussé les législateurs européens à se demander comment réglementer au mieux ce type d’IA. Le résultat a été une approche à plusieurs niveaux. Le livre de règles de l’IA ne couvrira pas les systèmes d’IA à usage général (GPAI) par défaut. L’essentiel des obligations incombera aux opérateurs économiques qui intègrent ces systèmes dans une application considérée à haut risque. Cependant, les fournisseurs de GPAI devraient soutenir la conformité des opérateurs en aval en fournissant toutes les informations et documentations pertinentes sur le modèle d’IA. Des exigences plus strictes sont proposées pour les modèles de base, de puissants systèmes d’IA à usage général comme Stable Diffusion qui peuvent alimenter d’autres applications d’IA. Les obligations portent sur la gestion des risques, la gouvernance des données et le niveau de robustesse du modèle de fondation, à valider par des experts indépendants. Le niveau supérieur concerne les modèles d’IA génératifs comme ChatGPT, qui devraient divulguer chaque fois qu’un texte est généré par l’IA et fournir un résumé détaillé des données de formation couvertes par la loi sur le droit d’auteur. Catégorisation à haut risque Le règlement introduit un régime plus strict pour les applications d’IA à haut risque. Initialement, le risque élevé a été déterminé sur la base d’une liste de domaines critiques et de cas d’utilisation figurant à l’annexe III. Cependant, les députés ont supprimé cet automatisme, ajoutant comme couche supplémentaire que pour être classé comme à haut risque, un système d’IA devrait également présenter un risque important de nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes. Si les systèmes d’IA relèvent de l’annexe III, mais que les fournisseurs estiment qu’il n’y a pas de risque significatif, ils devront en informer l’autorité compétente, qui disposera de trois mois pour s’y opposer. Les fournisseurs pourront lancer leur solution d’IA entre-temps, mais les erreurs de classification seront passibles de sanctions. L’annexe III a également été considérablement modifiée, ce qui rend la formulation plus précise dans les domaines des infrastructures critiques, de l’éducation, de l’emploi et de l’accès aux services essentiels. Les domaines de l’application de la loi, du contrôle des migrations et de l’administration de la justice ont été élargis. Les systèmes de recommandation des plateformes de médias sociaux désignées comme de très grandes plateformes en ligne en vertu de la loi sur les services numériques ont été ajoutés. Obligations à haut risque Le texte du Parlement européen a rendu les obligations des fournisseurs d’IA à haut risque beaucoup plus prescriptives, notamment en matière de gestion des risques, de gouvernance des données, de documentation technique et de tenue de registres. Une toute nouvelle exigence a été introduite pour les utilisateurs de solutions d’IA à haut risque de procéder à une évaluation de l’impact sur les droits fondamentaux en tenant compte d’aspects tels que l’impact négatif potentiel sur les groupes marginalisés et l’environnement. Gouvernance et application Parmi les législateurs de l’UE, il y a eu un consensus pour assurer un élément de centralisation de l’architecture d’exécution, en particulier pour les affaires transfrontalières. Le co-rapporteur Dragoș Tudorache a proposé la création d’un bureau de l’IA, un nouvel organe qui serait un peu en deçà d’une agence de l’UE. Au cours des négociations, les tâches de l’Office AI ont été considérablement réduites en raison du manque de marge de manœuvre sur le budget de l’UE. Ainsi, le Bureau AI s’est limité à un rôle de soutien, tel que la fourniture d’orientations et la coordination d’enquêtes conjointes. En revanche, la Commission a été chargée de régler les différends entre les autorités nationales sur les systèmes d’IA dangereux. [Edited by Alice Taylor] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57