Customize this title in french Les négociations marathon avec l’UE n’aboutissent pas à un accord sur la loi sur l’intelligence artificielle. Mais vendredi offre une nouvelle chance.

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Le Parlement européen et les États membres n’ont pas réussi jeudi à parvenir à un accord politique sur la loi sur l’intelligence artificielle, à l’issue de négociations marathon qui ont duré plus de 22 heures à Bruxelles. Les négociations reprendront vendredi. PUBLICITÉLes négociations ont débuté mercredi après-midi, se sont poursuivies toute la nuit, se sont poursuivies dans la matinée et se sont conclues jeudi après-midi, avec un ordre du jour qui aurait comporté plus de 23 points, reflétant l’extrême technicité du sujet en question.La loi est considérée comme la première tentative au monde de réglementer l’intelligence artificielle, une technologie dotée d’une capacité étonnante et souvent imprévisible à évoluer, d’une manière globale, fondée sur l’éthique et respectueuse de l’environnement.Les discussions se sont déroulées dans un contexte de lobbying agressif de la part des géants de la technologie et des start-ups, d’avertissements sévères de la société civile et d’une surveillance intense des médias, car la législation de Bruxelles pourrait bien influencer les efforts menés par les États à travers le monde.Conscients de l’enjeu, le Parlement européen et le Conseil, qui représente les États membres, se sont engagés à lui donner une seconde chance vendredi, à partir de 9 heures. »Beaucoup de progrès ont été réalisés ces dernières 22 heures sur la loi sur l’IA », a déclaré Thierry Breton, le commissaire européen chargé du marché intérieur.Les législateurs qui ont pris part aux longues discussions ont également dit des progrès considérables ont été réalisés, sans fournir plus de détails par souci de confidentialité.Les négociations ont été âprement disputées entre députés européens et gouvernements sur une série de questions profondément complexes, notamment la réglementation des modèles de base qui alimentent les chatbots comme le révolutionnaire ChatGPT d’OpenAI et les exceptions ciblées pour l’utilisation de l’identification biométrique en temps réel dans les espaces publics.Malgré leur durée impressionnante, voire record, les discussions marathon de jeudi n’ont pas suffi à aborder la liste complète des questions ouvertes.Même si la deuxième tentative de vendredi comble les divergences et aboutit à un accord provisoire au niveau politique, des consultations supplémentaires seront probablement nécessaires pour affiner tous les détails techniques. L’Espagne, qui assure actuellement la présidence tournante du Conseil de l’UE, a pour mission de maintenir les 27 États membres et leur large éventail de points de vue sur la même longueur d’onde.Une fois que le projet, qui couvre des centaines de pages d’articles et d’annexes, sera réécrit et qu’une version consolidée émergera, il sera envoyé au Parlement européen pour un nouveau vote dans l’hémicycle, suivi du feu vert final du Conseil.La loi bénéficiera ensuite d’un délai de grâce avant de devenir pleinement applicable en 2026.Une technologie en constante évolutionPrésenté pour la première fois en avril 2021la loi sur l’IA est une tentative révolutionnaire visant à garantir que la technologie la plus radicalement transformatrice du 21e siècle soit développée d’une manière centrée sur l’humain et éthiquement responsable, qui prévient et limite ses conséquences les plus néfastes.La loi est essentiellement une réglementation sur la sécurité des produits qui impose un ensemble échelonné de règles que les entreprises doivent suivre avant d’offrir leurs services aux consommateurs partout sur le marché unique du bloc.La loi propose une structure pyramidale qui divise les produits basés sur l’IA en quatre catégories principales en fonction du risque potentiel qu’ils représentent pour la sécurité des citoyens et leurs droits fondamentaux : minime, limité, élevé et inacceptable.Ceux qui relèvent de la catégorie à risque minimal seront exemptés de règles supplémentaires, tandis que ceux qualifiés de risque limité devront respecter des obligations de transparence de base.Les systèmes considérés comme à haut risque seront soumis à des règles strictes qui s’appliqueront avant leur entrée sur le marché de l’UE et tout au long de leur durée de vie, y compris des mises à jour substantielles. Ce groupe englobera des applications qui ont un impact direct et potentiellement déterminant sur la vie des citoyens, telles que les logiciels de tri de CV pour les entretiens d’embauche, la chirurgie assistée par robot et les programmes de notation d’examens dans les universités.Les produits d’IA à haut risque devront subir une évaluation de conformité, être enregistrés dans une base de données de l’UE, signer une déclaration de conformité et porter le marquage CE – tout cela avant d’arriver aux consommateurs. Une fois disponibles, ils seront placés sous le contrôle des autorités nationales. Les entreprises qui enfreignent ces règles s’exposeront à des amendes de plusieurs millions.Les systèmes d’IA présentant un risque inacceptable pour la société, notamment les systèmes de notation sociale destinés à contrôler les citoyens et les applications exploitant les vulnérabilités socio-économiques, seront purement et simplement interdits sur l’ensemble du territoire de l’UE.PUBLICITÉBien que cette approche basée sur les risques ait été bien accueillie en 2021, elle a subi une pression extraordinaire fin 2022, lorsque OpenAI a lancé ChatGPT et a déclenché une fureur mondiale sur les chatbots. ChatGPT a été rapidement suivi par Bard de Google, Bing Chat de Microsoft et, plus récemment, Q d’Amazon.Les chatbots sont alimentés par des modèles de base, qui sont formés avec de vastes quantités de données, telles que du texte, des images, de la musique, de la parole et du code, pour accomplir un ensemble large et fluide de tâches qui peuvent changer au fil du temps, plutôt que d’avoir une tâche spécifique et non modifiable. but.La proposition initiale de la Commission n’introduisait aucune disposition relative aux modèles de fondation, obligeant les législateurs à ajouter un tout nouvel article avec une longue liste d’obligations pour garantir que ces systèmes respectent les droits fondamentaux, sont économes en énergie et se conforment aux exigences de transparence en divulguant que leur contenu est généré par l’IA.Cette poussée du Parlement a suscité le scepticisme des États membres, qui ont tendance à préférer une approche douce en matière d’élaboration des lois. L’Allemagne, la France et l’Italie, les trois plus grandes économies du bloc, a présenté une contre-proposition qui favorisait « une autorégulation obligatoire au moyen de codes de conduite » pour les modèles de fondations. Cette décision a suscité une réaction de colère de la part des législateurs et a menacé de faire dérailler le processus législatif. Selon Reuters, les discussions de jeudi ont aidé les colégislateurs à se mettre d’accord sur des conditions provisoires pour les modèles de fondation. Les détails de l’accord n’étaient pas immédiatement disponibles.PUBLICITÉUne question controversée qui reste à résoudre est celle de l’utilisation de la biométrie à distance en temps réel, y compris la reconnaissance faciale, dans les espaces publics. La biométrie fait référence aux systèmes qui analysent les caractéristiques biologiques, telles que les traits du visage, la structure des yeux et les empreintes digitales, pour déterminer l’identité d’une personne, généralement sans son consentement.Les législateurs défendent une interdiction générale sur l’identification biométrique en temps réel et la catégorisation basée sur des caractéristiques sensibles telles que le sexe, la race, l’origine ethnique ou l’affiliation politique. Les États membres, de leur côté, soutiennent que des exceptions sont nécessaires pour permettre aux forces de l’ordre de traquer les criminels et de contrecarrer les menaces à la sécurité nationale.

Source link -57