Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Bruxelles Le Parlement européen souhaite apparemment réglementer plus strictement l’intelligence artificielle populaire (IA) ChatGPT. « Il y a une majorité en faveur de la classification de ChatGPT comme une technologie à haut risque », déclare l’eurodéputé CDU Axel Voss, qui est responsable du sujet en tant que rapporteur. « Cela se passera très probablement de cette façon. »
Une telle classification signifierait que le développeur de ChatGPT OpenAI doit répondre à des exigences strictes, notamment en matière de gestion des risques, d’obligations de transparence envers les utilisateurs et d’audits externes.
L’UE veut adopter la loi sur l’intelligence artificielle, la « loi sur l’intelligence artificielle », dans la période législative actuelle jusqu’en 2024. Les experts en intelligence artificielle du monde entier suivent de près les consultations à Bruxelles, et l’ensemble de règles devrait avoir un effet signal pour l’ensemble du secteur.
Les rapporteurs de l’IA de tous les groupes parlementaires se réuniront lundi au Parlement européen – ils veulent se mettre d’accord sur des recommandations communes d’ici vendredi au plus tard. Dans la semaine à venir, les commissions compétentes pourraient s’en occuper avant que le Parlement européen ne soit censé arrêter sa position officielle lors d’un vote en plénière le 1er juin.
L’avis du Parlement sur la loi IA est attendu de toute urgence. La Commission avait déjà présenté le projet il y a deux ans, et le Conseil des 27 États membres a emboîté le pas en novembre 2022 avec sa position.
Dès que les propositions du Parlement seront en place, les négociations en trilogue pourront commencer, au cours desquelles les trois institutions de l’UE se mettront d’accord sur le texte juridique final. Les règles entreraient en vigueur en 2025 au plus tôt.
La loi vise à garantir que les Européens puissent exploiter le potentiel de l’IA sans qu’il y ait de préjudice. Les réglementations sont basées sur le risque que le législateur assume pour une application spécifique : minime, limité, élevé et inacceptable.
Dans son projet, la Commission considère le fonctionnement des infrastructures critiques telles que les réseaux électriques comme des applications à haut risque. Le Parlement européen débat actuellement de la question de savoir si l’IA à usage général supposée inoffensive (GPAI) appartient également à la catégorie à haut risque. Cela inclut également les modèles de langage tels que ChatGPT. Le programme peut tenir des conversations humaines et écrire des textes.
Ce week-end, le gouvernement fédéral a insisté sur une action rapide au niveau de l’UE. Une porte-parole du ministre de l’Intérieur Nancy Faeser (SPD) a déclaré au Handelsblatt qu’il s’agissait « d’un équilibre entre l’ouverture à l’innovation et un cadre juridique clair qui définit des normes pour une IA digne de confiance ».
Des chercheurs américains demandent à l’UE une réglementation stricte
La semaine dernière, d’éminents chercheurs américains et britanniques en IA ont appelé l’UE à réglementer aussi strictement que possible. Dans une lettre ouverte, les auteurs écrivent qu’il a été prouvé que les modèles GPAI renforcent le langage antidémocratique et les discours de haine contre les minorités.
Il existe un risque que les programmes approfondissent les préjugés sociaux contenus dans les ensembles de données. Ils mettent également en garde contre l’utilisation abusive des numéros de téléphone et des données médicales. « Les dommages potentiels sont considérables », indique la lettre. Les signataires comprennent des représentants de la Fondation Mozilla, de l’AI Now Institute et du Distributed AI Research Institute, entre autres.
>> Lire aussi : Le fondateur d’OpenAI, Sam Altman, prévoit une comparaison des données par balayage oculaire
Du point de vue des auteurs, il est donc crucial de commencer par la conception de l’IA sous supervision publique, pas plus tard lorsque le programme fini est utilisé. « Les entreprises qui développent les modèles doivent être tenues responsables de leurs données et de leurs décisions de conception », indique la lettre. Le projet de loi de la Commission contient encore des lacunes car il permet aux développeurs de décliner toute responsabilité pour leurs programmes.
Il s’agit de la deuxième lettre d’avertissement des États-Unis en trois semaines. Fin mars, environ un millier d’experts en technologie, dont le fondateur de Tesla, Elon Musk, et le co-fondateur d’Apple, Steve Wozniak, ont appelé à une pause forcée d’au moins six mois dans le développement de l’IA. Compte tenu des progrès rapides de la technologie, le moratoire vise à donner à l’industrie le temps d’établir des normes de sécurité.
L’Autriche demande l’interdiction des applications d’IA chinoises
Certains Européens s’inquiètent également de la manière dont les États autoritaires pourraient utiliser l’IA. Le secrétaire d’État autrichien au numérique, Florian Tursky, appelle désormais l’UE à examiner une interdiction des solutions d’IA chinoises en Europe.
Si les systèmes d’IA chinois sont effectivement alimentés par les préférences idéologiques du Parti communiste, une interdiction devrait être envisagée, a écrit Tursky dans une lettre à la présidente de la Commission Ursula von der Leyen, à la présidente du Parlement Roberta Metsola, au président du Conseil Charles Michel et au commissaire au marché intérieur Thierry Breton. Jeudi.
>> Lire ici : Quand ChatGPT fait ses devoirs
Le régulateur chinois de l’Internet a précédemment annoncé qu’il soutiendrait le développement de l’IA générative. Cependant, le contenu correspondant devrait correspondre aux valeurs socialistes fondamentales.
Turkky a qualifié cela de menace pour la démocratie. « L’IA ne doit suivre aucune idéologie imposée par l’État », a-t-il déclaré. « Cela entraînerait l’arrivée sur le marché européen de systèmes d’IA chinois qui auraient les empreintes idéologiques du Parti communiste chinois. » Dans ce cas, une interdiction de la technologie chinoise serait nécessaire.
L’eurodéputé Voss est d’accord : « Je ne peux pas imaginer qu’une IA chinoise ne serait pas utilisée dans l’intérêt du régime. De telles applications n’ont pas leur place dans l’UE.
Plus: Comment l’UE veut réglementer ChatGPT à l’avenir