Customize this title in frenchL’autorité française de protection des données présente un plan d’action sur l’IA, ChatGPT

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Observatoire français de la protection des données, le La Commission nationale de l’informatique et des libertés (CNIL), a publié mardi 16 mai un plan d’action répondre aux problèmes de confidentialité liés à l’intelligence artificielle, en particulier les applications génératives telles que ChatGPT.

ChatGPT, le chatbot le plus célèbre au monde, a étendu sa base d’utilisateurs à 100 millions d’utilisateurs au cours des deux premiers mois suivant sa sortie. Alors que sa popularité augmente, les inquiétudes quant à la manière dont il collecte et traite les données personnelles augmentent également.

« Face à l’actualité récente sur l’intelligence artificielle, et notamment les IA dites génératives telles que ChatGPT, la CNIL publie un plan d’action pour le déploiement de systèmes d’IA respectueux de la vie privée des individus. lit l’annonce.

Fin mars, le chien de garde italien Garantie a sanctionné OpenAI, le fournisseur de ChatGPT, pour violation de la protection des données. Le service a donc été rétabli en Italie en avril après quelques mesures correctives.

Cependant, la décision du Garante a ouvert la porte à une approche fragmentée à travers l’UE. Le comité européen de la protection des données, qui rassemble tous les régulateurs de données de l’UE, a créé un groupe de travail pour assurer une application cohérente.

Rôle de la CNIL

Au niveau européen, l’autorité française est déjà considérée comme l’une des plus influentes de l’UE, ce qui signifie que le plan pourrait façonner la manière dont les régulateurs européens abordent ChatGPT et les technologies similaires.

Au niveau national, une source informée sur la question a déclaré à EURACTIV sous anonymat conditionnel que l’autorité française de protection des données se positionne pour diriger l’application nationale de la loi sur l’IA, une législation européenne historique visant à réglementer l’IA en fonction de sa capacité à causer des dommages.

Cette ambition est inscrite dans le plan d’action qui précise que « ces travaux permettront également de préparer l’entrée en application du projet de règlement européen IA ».

Approche en quatre étapes

Les quatre étapes du plan d’action consistent à comprendre la technologie, à guider son développement, à créer un écosystème d’IA et à contrôler les systèmes d’IA.

La première étape sera consacrée à répondre aux questions liées à la protection des données, telles que la transparence sur les ensembles de données de formation, la protection des données accessibles au public contre le scraping, les protections contre les biais et les entrées fournies par les utilisateurs.

Ces aspects étant prioritaires dans l’UE et en France, la CNIL a dédié des ressources internes pour répondre à ces questions et a déjà publié un dossier partageant sa vision pour répondre aux enjeux de protection des données.

Le volet « guider le développement de l’IA » souhaite guider les entreprises de l’IA générative vers des développements techniques respectant les données personnelles en publiant des documents de lignes directrices et en partageant les bonnes pratiques et les règles.

Le troisième flux « écosystème » comporte trois couches. Il vise à étendre le bac à sable réglementaire existant du régulateur à des projets innovants basés sur l’IA.

La CNIL a également lancé un concours pour accompagner les entreprises dans leur mise en conformité avec les règles européennes de protection des données. Par ailleurs, l’autorité française a lancé un projet pour les prestataires de « vidéosurveillance renforcée » dans le cadre de l’expérimentation par le gouvernement français de ces outils prévus dans la loi sur les Jeux Olympiques et Paralympiques de Paris en 2024.

Le dernier volet du plan d’action de la CNIL touche à son cœur de métier : l’audit et le contrôle des systèmes numériques. Le chien de garde de la vie privée se concentrera sur le respect de l’utilisation de la vidéosurveillance renforcée, l’utilisation de l’IA dans la lutte contre la fraude et enquêtera sur les plaintes déposées sur l’IA générative.

Sur ce dernier point, le régulateur français note qu’il a déjà reçu plusieurs plaintes contre OpenAI, sur lesquelles il se coordonnera avec la task force européenne.

[Edited by Luca Bertuzzi/ Alice Taylor]

En savoir plus avec EURACTIV



Source link -57