Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Après des mois d’intenses négociations, les membres du Parlement européen (MPE) ont aplani leur différend et sont parvenus à un accord politique provisoire sur le premier livre de règles sur l’intelligence artificielle au monde. La loi sur l’IA est une proposition législative phare visant à réglementer l’intelligence artificielle en fonction de son potentiel de nuisance. Le Parlement européen s’apprête à formaliser sa position sur le dossier, après que les législateurs européens sont parvenus à un accord politique jeudi 27 avril. Le texte pourrait encore faire l’objet d’ajustements mineurs au niveau technique avant un vote clé en commission prévu le 11 mai, mais il devrait être soumis à un vote en plénière à la mi-juin. « Nous avons maintenant un accord dans lequel tous les groupes devront soutenir le compromis sans possibilité de déposer des amendements alternatifs », a déclaré un responsable du Parlement européen à EURACTIV. Jusqu’aux derniers instants, les législateurs de l’UE négociaient sur certaines des parties les plus controversées de la proposition. IA à usage général Comment traiter les systèmes d’IA qui n’ont pas d’objectif spécifique a été un sujet âprement débattu dans la discussion. Les députés européens ont confirmé les propositions précédentes visant à imposer des obligations plus strictes aux modèles de base, une sous-catégorie d’IA à usage général qui comprend les goûts de ChatGPT. Le seul changement significatif de dernière minute concernait les modèles d’IA générative, qui devraient être conçus et développés conformément au droit de l’UE et aux droits fondamentaux, y compris la liberté d’expression. Pratiques interdites Un autre sujet politiquement sensible était le type d’applications d’IA à interdire car elles sont considérées comme présentant un risque inacceptable. Il y a deux semaines, l’idée a été lancée d’interdire les outils alimentés par l’IA pour toute surveillance générale des communications interpersonnelles. La proposition a été abandonnée suite à l’opposition du parti conservateur du Parti populaire européen (PPE). En échange, les législateurs de centre-droit ont dû accepter une extension de l’interdiction des logiciels d’identification biométrique. Initialement interdit uniquement pour une utilisation en temps réel, ce logiciel de reconnaissance ne pouvait être utilisé a posteriori que pour des crimes graves et avec une autorisation préjudiciaire. Le PPE, qui dispose d’une forte faction chargée de l’application de la loi, est la seule exception partielle à l’accord de ne pas déposer d’amendements alternatifs. Le groupe a accepté de ne pas déposer de votes «clés» qui pourraient menacer son soutien à l’ensemble du dossier, mais il pourrait toujours essayer de modifier l’interdiction biométrique ex post. Le règlement sur l’IA interdit également la manipulation « intentionnelle ». Le mot délibéré a fait l’objet de débats car l’intentionnalité pouvait être difficile à prouver, mais il a été maintenu car les députés ne voulaient pas trop élargir le filet. L’utilisation de logiciels de reconnaissance des émotions alimentés par l’IA est interdite dans les domaines de l’application de la loi, de la gestion des frontières, du lieu de travail et de l’éducation. L’interdiction par les législateurs européens de la police prédictive a été étendue des infractions pénales aux infractions administratives, sur la base du scandale néerlandais des allocations familiales qui a vu des milliers de familles incriminées à tort pour fraude en raison d’un algorithme fluide. Classement à haut risque La proposition initiale classait automatiquement les solutions d’IA relevant des domaines critiques et des cas d’utilisation énumérés à l’annexe III comme étant à haut risque, ce qui signifie que les fournisseurs devraient se conformer à un régime plus strict comprenant des exigences en matière de gestion des risques, de transparence et de gouvernance des données. Les députés ont introduit une couche supplémentaire, ce qui signifie qu’un modèle d’IA qui relève des catégories de l’annexe III ne serait considéré comme à haut risque que s’il présentait un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux. Le risque significatif est défini comme « un risque qui est significatif en raison de la combinaison de sa gravité, de son intensité, de sa probabilité d’occurrence et de la durée de ses effets, et c’est la capacité d’affecter un individu, une pluralité de personnes ou d’affecter une groupe particulier de personnes ». À la demande des Verts, l’IA utilisée pour gérer des infrastructures critiques comme les réseaux énergétiques ou les systèmes de gestion de l’eau serait également classée comme à haut risque si elle comporte un risque environnemental grave. De plus, les législateurs de centre-gauche ont obtenu la disposition selon laquelle les systèmes de recommandation des très grandes plateformes en ligne, tels que définis par la loi sur les services numériques (DSA), seront considérés comme à haut risque. Détecter les biais Les députés ont inclus des garanties supplémentaires pour le processus par lequel les fournisseurs de modèles d’IA à haut risque peuvent traiter des données sensibles telles que l’orientation sexuelle ou les croyances religieuses pour détecter les préjugés négatifs. En particulier, pour que le traitement d’un type de données aussi particulier ait lieu, le biais ne doit pas être détectable par le traitement de données synthétiques, anonymisées, pseudonymisées ou cryptées. De plus, l’évaluation doit se dérouler dans un environnement contrôlé. Les données sensibles ne peuvent pas être transmises à d’autres parties et doivent être supprimées après l’évaluation du biais. Les fournisseurs doivent également documenter la raison pour laquelle le traitement des données a eu lieu. Principes généraux Avant la réunion de mercredi, le bureau des co-rapporteurs a fait circuler une proposition de principes généraux qui s’appliqueraient à tous les modèles d’IA. Le nouvel article ne vise pas à créer de nouvelles obligations mais devra être intégré dans les normes techniques et les documents d’orientation. Ces principes incluent l’agence et la surveillance humaines, la robustesse et la sécurité techniques, la confidentialité et la gouvernance des données, la transparence, le bien-être social et environnemental, la diversité, la non-discrimination et l’équité. Durabilité de l’IA à haut risque Les systèmes d’IA à haut risque devront tenir des registres de leur empreinte environnementale, et les modèles de base devront se conformer aux normes environnementales européennes. [Edited by Zoran Radosavljevic] Plus sur le même sujet… !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57