Customize this title in frenchLes autorités européennes de protection des données lancent un groupe de travail sur ChatGPT

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les régulateurs européens de la protection de la vie privée ont décidé jeudi (13 avril) de lancer un groupe de travail dédié pour répondre aux problèmes de confidentialité liés au chatbot le plus célèbre au monde.

La décision a été prise lors d’une réunion du comité européen de la protection des données, un organe qui rassemble toutes les autorités européennes de protection des données pour coordonner et rationaliser l’application des règles de protection des données de l’UE.

Le 31 mars, l’Italie Garantie (Garant) des données personnelles a mandaté la suspension temporaire du traitement des données personnelles des résidents italiens à OpenAI, le fournisseur de ChatGPT, en lançant en parallèle une enquête sur les infractions potentielles au règlement général sur la protection des données.

La décision de l’organisme italien de surveillance de la vie privée a suscité des réactions dans le monde entier sur les implications en matière de protection des données de grands modèles linguistiques comme ChatGPT. Des autorités européennes comme la CNIL en France ont ouvert des enquêtes sur le système d’intelligence artificielle à la suite de plaintes similaires.

Avant la réunion du conseil d’administration de jeudi, l’agence espagnole de protection des données a demandé que les problèmes de confidentialité entourant ChatGPT soient mis à l’ordre du jour afin de parvenir à des décisions coordonnées au niveau européen.

Afin de garantir une application harmonisée des règles, les autorités européennes chargées des données ont convenu de mettre en place un groupe de travail dédié à la coopération et à l’échange d’informations sur d’éventuelles mesures d’exécution.

Pendant ce temps, mercredi, le Garantie a donné jusqu’au 30 avril à OpenAI pour aligner ChatGPT sur le régime européen de protection des données, en proposant une série de mesures correctives.

L’autorité italienne a demandé à l’entreprise technologique de mettre à disposition sa déclaration de confidentialité expliquant comment les données des utilisateurs sont utilisées pour le fonctionnement de ChatGPT.

OpenAI devra également expliquer sur quelle base juridique elle traite les données personnelles pour la formation de ses algorithmes, qui pourraient prendre la forme d’un consentement obtenu des utilisateurs ou d’un intérêt légitime.

Plus difficile encore, l’entreprise d’IA devra mettre à disposition des outils pour toute personne, utilisateur ou non, qui souhaite demander une correction sur ses données personnelles voire leur annulation si une correction est techniquement impossible.

Tout le monde devrait également pouvoir demander que ses données ne soient pas introduites dans le modèle d’IA.

D’ici le 31 mai, OpenAI devra proposer au régulateur italien un plan sur la manière de mettre en œuvre la vérification de l’âge de ses utilisateurs au plus tard le 30 septembre pour empêcher l’accès aux enfants de moins de 13 ans et aux mineurs qui n’ont pas le consentement de Leurs parents.

Finalement, le Garantie souhaite que l’entreprise américaine mène une campagne d’information via la radio, la télévision, les journaux et le web pour informer les gens de la manière dont ils utilisent leurs données personnelles pour entraîner leur Intelligence Artificielle.

[Edited by Nathalie Weatherald]



Source link -57