Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les législateurs de l’UE négocient actuellement la loi sur l’intelligence artificielle, mais la législation pourrait prendre jusqu’à trois ans pour être pleinement applicable.
La Commission européenne et Google se sont engagés à élaborer un pacte volontaire pour l’intelligence artificielle afin d’atténuer les risques les plus graves associés à cette technologie en évolution rapide jusqu’à ce qu’une législation appropriée soit mise en place.
L’engagement a été annoncé après que le PDG de Google, Sundar Pichai, a rencontré plusieurs commissaires européens lors d’une visite à Bruxelles, où le sujet de l’IA figurait en bonne place dans les conversations.
« Nous attendons de la technologie en Europe qu’elle respecte toutes nos règles, sur la protection des données, la sécurité en ligne et l’intelligence artificielle. En Europe, ce n’est pas du choix », a déclaré mercredi Thierry Breton, commissaire européen chargé du marché intérieur. selon une courte lecture.
« Sundar et moi avons convenu que nous ne pouvions pas nous permettre d’attendre que la réglementation sur l’IA devienne réellement applicable et de travailler avec tous les développeurs d’IA pour déjà développer un pacte sur l’IA sur une base volontaire avant la date limite légale. »
Le pacte volontaire, dont les détails précis ne sont toujours pas clairs, impliquera « toutes les grandes » entreprises travaillant dans le domaine de l’IA, tant en Europe qu’en dehors de l’Europe, a ajouté Breton.
Google n’a pas immédiatement répondu à une demande de commentaire.
Bien que l’IA ait longtemps été sur le radar politique de Bruxelles, l’explosion du marché de ChatGPT, le chatbot développé par OpenAI, a bousculé le débat et passé à la loupe les modèles dits de fondation.
Les modèles de base sont ceux formés avec de vastes trésors de données, tels que du texte, des images, de la musique, de la parole et du code, dans le but d’accomplir un ensemble de tâches en constante expansion, plutôt que d’avoir un objectif spécifique et non modifiable.
Les chatbots comme GPT d’OpenAI et Bard de Google sont quelques-uns des premiers exemples de cette technologie, qui devrait encore évoluer dans les années à venir.
Alors que les investisseurs ont volontiers sauté sur les chatbots, les critiques ont dénoncé leur développement incontrôlé, sonnant l’alarme sur les préjugés, les discours de haine, les fausses nouvelles, la propagande d’État, l’usurpation d’identité, les violations de propriété intellectuelle et les licenciements.
La valeur ChatGPT était temporairement interdit en Italie après que les autorités ont détecté des problèmes de confidentialité des données.
Prélude à la législation
A Bruxelles, un sentiment d’urgence s’est répandu suite au phénomène des chatbots.
Les législateurs de l’UE négocient actuellement la loi sur l’intelligence artificielle, une première tentative mondiale de réglementation de cette technologie basée sur une approche centrée sur l’humain qui divise les systèmes d’IA en quatre catégories en fonction du risque qu’ils représentent pour la société.
L’acte a été proposé par la Commission européenne il y a plus de deux ans et est en cours de modification pour refléter les derniers développements, comme l’essor remarquable des modèles de fondations.
Les négociations entre le Parlement européen et les États membres devraient s’achever avant la fin de l’année.
La loi, cependant, comprend un délai de grâce pour permettre aux entreprises technologiques de s’adapter au nouveau cadre juridique, ce qui signifie que la loi pourrait prendre jusqu’à trois ans pour devenir pleinement applicable dans tout le bloc.
Le pacte nouvellement annoncé est censé servir de prélude et combler le vide législatif, même si son caractère volontaire limitera inévitablement sa portée et son efficacité.
S’adressant aux députés après sa rencontre avec Pichai, le commissaire Breton a défendu la nécessité d’avoir un règlement intermédiaire comprenant les « grandes lignes » de la loi sur l’IA.
« J’ai déjà une vision commune de ce qui pourrait être mis en place en anticipation et qui pourrait nous permettre de donner quelques éléments de protection », a déclaré Breton en commission parlementaire, évoquant la possibilité de « labelliser » les systèmes d’IA.
« Il faut gérer l’urgence mais il ne faut pas non plus freiner l’innovation, donc il faut trouver les moyens, les bons moyens, et il faut aussi être assez ferme sur certains éléments qu’il faudra encadrer, et anticiper certains étendre les effets de la loi sur l’IA. »
Les plans de Breton contrastaient avec les propos de Sam Altman, le PDG d’OpenAI, qui a déclaré mercredi à Reuters que son entreprise pourrait envisager quitter le marché européen si elle ne pouvait pas se conformer à la loi sur l’IA.
« Le projet actuel de (loi) serait surréglementé, mais nous avons entendu dire qu’il allait être retiré », a déclaré Altman à Reuters. « Ils en parlent encore. »