Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
© Reuters. Les drapeaux de l’Union européenne flottent devant le siège de la Commission européenne à Bruxelles, Belgique, le 5 juin 2020. REUTERS/Yves Herman/File Photo
(Cette histoire du 28 avril a été rediffusée pour supprimer le mot répété dans le paragraphe 1)
Par Martin Coulter et Supantha Mukherjee
LONDRES / STOCKHOLM (Reuters) – Pas plus tard qu’en février, l’IA générative ne figurait pas en bonne place dans les plans des législateurs européens pour réglementer les technologies d’intelligence artificielle telles que ChatGPT.
La proposition de 108 pages du bloc pour la loi sur l’IA, publiée deux ans plus tôt, ne comportait qu’une seule mention du mot « chatbot ». Les références au contenu généré par l’IA faisaient largement référence à des deepfakes : des images ou des sons conçus pour se faire passer pour des êtres humains.
À la mi-avril, cependant, les membres du Parlement européen (MPE) se précipitaient pour mettre à jour ces règles afin de rattraper une explosion d’intérêt pour l’IA générative, qui a provoqué admiration et anxiété depuis qu’OpenAI a dévoilé ChatGPT il y a six mois.
Cette ruée a culminé jeudi avec un nouveau projet de loi qui a identifié la protection du droit d’auteur comme un élément central de l’effort visant à contrôler l’IA.
Des entretiens avec quatre législateurs et deux autres sources proches des discussions révèlent pour la première fois comment, en seulement 11 jours, ce petit groupe de politiciens a élaboré ce qui pourrait devenir une législation historique, remodelant le paysage réglementaire pour OpenAI et ses concurrents.
Le projet de loi n’est pas définitif et les avocats disent qu’il faudra probablement des années pour entrer en vigueur.
Mais la rapidité de leur travail est aussi un rare exemple de consensus à Bruxelles, souvent critiqué pour la lenteur des prises de décision.
CHANGEMENTS DE DERNIÈRE MINUTE
Depuis son lancement en novembre, ChatGPT est devenue l’application à la croissance la plus rapide de l’histoire et a suscité une vague d’activités de la part de concurrents Big Tech et des investissements dans des startups génératives d’IA comme Anthropic et Midjourney.
La popularité fulgurante de ces applications a conduit le chef de l’industrie européenne Thierry Breton et d’autres à appeler à une réglementation des services de type ChatGPT.
Une organisation soutenue par Elon Musk, le PDG milliardaire de Tesla (NASDAQ 🙂 Inc et Twitter, est montée d’un cran en publiant une lettre avertissant du risque existentiel de l’IA et appelant à des réglementations plus strictes.
Le 17 avril, la douzaine de députés européens impliqués dans la rédaction de la législation ont signé une lettre ouverte d’accord avec certaines parties de la lettre de Musk et ont exhorté les dirigeants mondiaux à organiser un sommet pour trouver des moyens de contrôler le développement de l’IA avancée.
Le même jour, cependant, deux d’entre eux – Dragos Tudorache et Brando Benifei – ont proposé des changements qui obligeraient les entreprises dotées de systèmes d’IA générative à divulguer tout matériel protégé par le droit d’auteur utilisé pour former leurs modèles, selon quatre sources présentes aux réunions, qui ont demandé l’anonymat en raison à la sensibilité des discussions.
Cette nouvelle proposition difficile a reçu le soutien de tous les partis, ont indiqué les sources.
Une proposition de l’eurodéputé conservateur Axel Voss – obligeant les entreprises à demander l’autorisation des titulaires de droits avant d’utiliser les données – a été rejetée comme trop restrictive et susceptible d’entraver l’industrie émergente.
Après avoir débattu des détails au cours de la semaine prochaine, l’UE a présenté des propositions de lois qui pourraient imposer un niveau de transparence inconfortable à une industrie notoirement secrète.
« Je dois admettre que j’ai été positivement surpris de la façon dont nous avons convergé assez facilement sur ce qui devrait être dans le texte sur ces modèles », a déclaré Tudorache à Reuters vendredi.
« Cela montre qu’il existe un consensus fort et une compréhension partagée sur la manière de réglementer à ce stade. »
Le comité votera sur l’accord le 11 mai et en cas de succès, il passera à la prochaine étape des négociations, le trilogue, où les États membres de l’UE débattront du contenu avec la Commission européenne et le Parlement.
« Nous attendons de voir si l’accord tient jusque-là », a déclaré une source proche du dossier.
GRAND FRÈRE CONTRE. LE TERMINATEUR
Jusqu’à récemment, les députés n’étaient toujours pas convaincus que l’IA générative méritait une attention particulière.
En février, Tudorache a déclaré à Reuters que l’IA générative « n’allait pas être couverte » en profondeur. « C’est une autre discussion que je ne pense pas que nous allons traiter dans ce texte », a-t-il déclaré.
Citant les risques de sécurité des données sur les avertissements d’intelligence de type humain, il a déclaré: « J’ai plus peur de Big Brother que de Terminator. »
Mais Tudorache et ses collègues s’accordent désormais sur la nécessité de lois ciblant spécifiquement l’utilisation de l’IA générative.
Dans le cadre de nouvelles propositions ciblant les « modèles de base », des entreprises comme OpenAI, qui est soutenue par Microsoft Corp (NASDAQ :), devraient divulguer tout matériel protégé par le droit d’auteur – livres, photographies, vidéos et plus encore – utilisé pour former leurs systèmes.
Les allégations de violation du droit d’auteur ont bouleversé les entreprises d’intelligence artificielle ces derniers mois, Getty Images poursuivant Stable Diffusion pour avoir utilisé des photos protégées par le droit d’auteur pour former ses systèmes. OpenAI a également été critiqué pour avoir refusé de partager les détails de l’ensemble de données utilisé pour former son logiciel.
« Il y a eu des appels de l’extérieur et de l’intérieur du Parlement pour une interdiction ou la classification de ChatGPT comme à haut risque », a déclaré la députée européenne Svenja Hahn. « Le compromis final est favorable à l’innovation car il ne classe pas ces modèles comme « à haut risque », mais fixe des exigences de transparence et de qualité. »