Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsAprès un marathon de négociations de 36 heures, les décideurs politiques de l’UE sont parvenus à un accord politique sur ce qui est en passe de devenir la référence mondiale en matière de réglementation de l’intelligence artificielle. L’AI Act est un projet de loi historique visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. Le dossier a franchi la ligne d’arrivée du processus législatif alors que la Commission européenne, le Conseil et le Parlement ont réglé leurs différends lors d’un soi-disant trilogue vendredi 8 décembre. Lors de la réunion politique, qui a établi un nouveau record pour les négociations interinstitutionnelles, les principales institutions de l’UE ont dû examiner une liste attrayante de 21 questions ouvertes. Comme l’a rapporté Euractiv, la première partie du trilogue a clôturé les parties sur l’open source, les modèles de fondation et la gouvernance. Cependant, les responsables européens, épuisés, ont demandé une suspension 22 heures après qu’il soit devenu clair qu’une proposition de la présidence espagnole du Conseil de l’UE sur l’application des lois sensibles était inacceptable pour les législateurs de gauche à centre. Les discussions ont repris vendredi matin et n’ont pris fin que tard dans la nuit. la sécurité nationale Les pays de l’UE, la France en tête, ont insisté pour bénéficier d’une large exemption pour tout système d’IA utilisé à des fins militaires ou de défense, même par un sous-traitant externe. Le préambule du texte indiquera que cela sera conforme aux traités de l’UE. Pratiques interdites L’AI Act comprend une liste d’applications interdites qui présentent un risque inacceptable, telles que les techniques de manipulation, les systèmes exploitant des vulnérabilités et le score social. Les députés ont ajouté des bases de données basées sur le grattage massif d’images faciales, comme Clearview AI. Les parlementaires ont obtenu l’interdiction de la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, avec une mise en garde pour des raisons de sécurité visant à reconnaître si, par exemple, un conducteur s’endort. Les parlementaires ont également interdit les logiciels de police prédictive permettant d’évaluer le risque qu’un individu commette de futurs crimes en fonction de ses caractéristiques personnelles. De plus, les parlementaires voulaient interdire l’utilisation de systèmes d’IA qui catégorisent les personnes en fonction de caractéristiques sensibles comme la race, les opinions politiques ou les croyances religieuses. Sur l’insistance des gouvernements européens, le Parlement a levé l’interdiction d’utiliser l’identification biométrique à distance en temps réel en échange de quelques exceptions strictes en matière d’application de la loi, notamment pour prévenir des attaques terroristes ou localiser les victimes ou les suspects d’une liste prédéfinie de crimes graves. L’utilisation ex post de cette technologie fera l’objet d’un régime similaire mais avec des exigences moins strictes. Les députés ont insisté pour que ces exceptions s’appliquent uniquement dans la mesure strictement nécessaire, sur la base de la législation nationale et de l’autorisation préalable d’une autorité indépendante. La Commission doit surveiller les abus potentiels. Les parlementaires ont insisté sur le fait que les interdictions ne devraient pas s’appliquer uniquement aux systèmes utilisés au sein de l’Union, mais également empêcher les entreprises basées dans l’UE de vendre ces applications interdites à l’étranger. Toutefois, cette interdiction d’exportation n’a pas été maintenue car elle a été considérée comme ne disposant pas d’une base juridique suffisante. Cas d’utilisation à haut risque Le règlement sur l’IA comprend une liste de cas d’utilisation considérés comme présentant un risque important de nuire à la sécurité et aux droits fondamentaux des personnes. Les colégislateurs ont inclus une série de conditions de filtrage destinées à capturer uniquement les véritables applications à haut risque. Les domaines sensibles comprennent l’éducation, l’emploi, les infrastructures critiques, les services publics, l’application de la loi, le contrôle des frontières et l’administration de la justice. Les députés ont également proposé d’inclure les systèmes de recommandation des médias sociaux considérés comme « systémiques » dans la loi sur les services numériques, mais cette idée n’a pas été incluse dans l’accord. Le Parlement a réussi à introduire de nouveaux cas d’utilisation, comme les systèmes d’IA prédisant les tendances migratoires et la surveillance des frontières. Exemptions d’application de la loi Le Conseil a introduit plusieurs exemptions pour les services répressifs, notamment une dérogation au principe des quatre yeux lorsque le droit national le juge disproportionné et l’exclusion des données opérationnelles sensibles des exigences de transparence. Les prestataires et les organismes publics utilisant des systèmes à haut risque doivent le signaler dans une base de données de l’UE. Pour la police et les agences de contrôle des migrations, il y aura une section non publique dédiée qui ne sera accessible qu’à une autorité de contrôle indépendante. Dans des circonstances exceptionnelles liées à la sécurité publique, les autorités répressives peuvent recourir à un système à haut risque qui n’a pas passé avec succès la procédure d’évaluation de la conformité demandant une autorisation judiciaire. Analyse d’impact sur les droits fondamentaux Les députés de centre-gauche ont introduit l’obligation pour les organismes publics et les entités privées fournissant des services d’intérêt général, tels que les hôpitaux, les écoles, les banques et les compagnies d’assurance déployant des systèmes à haut risque, de mener une analyse d’impact sur les droits fondamentaux. Responsabilité tout au long de la chaîne d’approvisionnement Les fournisseurs de systèmes d’IA à usage général comme ChatGPT doivent fournir toutes les informations nécessaires pour se conformer aux obligations de la loi sur l’IA aux fournisseurs économiques en aval qui créent une application entrant dans la catégorie à haut risque. En outre, les fournisseurs de composants intégrés dans un système d’IA à haut risque par une PME ou une start-up ne peuvent pas imposer unilatéralement des conditions contractuelles abusives. Pénalités Les amendes administratives sont fixées à un montant minimum ou à un pourcentage du chiffre d’affaires global annuel de l’entreprise si celui-ci est supérieur. Pour les violations les plus graves des applications interdites, les amendes peuvent aller jusqu’à 6,5 % ou 35 millions d’euros, 3 % ou 15 millions d’euros pour les violations des obligations des fournisseurs de systèmes et de modèles, et 1,5 % ou un demi-million d’euros pour défaut de fourniture. information précise. Chronologie La loi sur l’IA s’appliquera deux ans après son entrée en vigueur, ramenée à six mois pour les interdictions. Les exigences relatives aux systèmes d’IA à haut risque, aux modèles d’IA puissants, aux organismes d’évaluation de la conformité et au chapitre sur la gouvernance commenceront à s’appliquer un an plus tôt. [Edited by Zoran Radosavljevic] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57