Customize this title in frenchL’autorité italienne de protection des données interdit ChatGPT en invoquant des violations de la vie privée

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

L’organisme italien de surveillance de la vie privée a ordonné l’interdiction du populaire chatbot ChatGPT et a lancé une enquête sur son fournisseur OpenAI pour violation présumée des règles de protection des données de l’UE.

l’Italie Garantie pour la protection des données personnelles, vendredi 31 mars, a accusé le système d’IA d’avoir enfreint le règlement général de l’UE sur la protection des données (RGPD) et de ne pas avoir mis en place de systèmes de vérification de l’âge.

Le blocage du site pour les utilisateurs italiens est temporaire et durera jusqu’à ce que le fournisseur OpenAI respecte le cadre de confidentialité de l’UE lors du traitement des données personnelles des utilisateurs italiens. L’autorité italienne de protection des données a également ouvert une enquête sur l’entreprise technologique américaine.

Lancé en novembre, ChatGPT est connu pour sa capacité sans précédent à générer du texte de type humain basé sur des invites. Le chatbot est devenu l’un des services Internet à la croissance la plus rapide, dépassant les 100 millions d’utilisateurs en seulement deux mois.

Mais selon le Garantie, OpenAI n’a pas informé les utilisateurs et les personnes dont les données personnelles ont été traitées pour former l’algorithme de ses pratiques de traitement des données. Plus important encore, la société américaine n’aurait aucune base légale justifiant la collecte massive de données personnelles utilisées pour former ses modèles d’IA.

« Si OpenAI et d’autres entreprises veulent déployer ces chatbots et les services associés dans l’UE, ils devront s’assurer qu’ils sont au courant non seulement du GDPR, mais aussi de toutes les règles européennes pertinentes, sinon ils seront faire face à des amendes et à d’autres conséquences », a déclaré Daniel Leufer, analyste politique principal d’Access Now, à EURACTIV.

Le 20 mars, le chatbot alimenté par l’IA a subi une violation de données concernant les conversations et les informations de paiement de certains abonnés à ses services premium, ChatGPT Plus.

L’autorité italienne affirme également qu’elle a effectué des tests, à la suite desquels ChatGPT a fourni des réponses inexactes liées aux données personnelles, une autre violation potentielle du règlement de l’UE sur la protection des données.

En outre, la décision souligne que, bien que le service Internet s’adresse à des personnes âgées de plus de 13 ans, il n’existe aucun processus en place pour vérifier l’âge des utilisateurs, ce qui pourrait conduire à ce que des enfants soient exposés à des contenus inappropriés pour leur niveau de développement.

Vincenzo Tiani, associé du cabinet d’avocats Panetta & Associati, a déclaré à EURACTIV que le Garantie a été particulièrement attentif à la protection des données des enfants ces dernières années mais que le point sur l’exactitude des données était plus problématique à définir.

« Bien qu’il existe un principe d’exactitude des données dans le RGPD, il est également vrai que le règlement stipule que le responsable du traitement doit faire tout son possible pour corriger les données inexactes. Dans un système comme ChatGPT, cela peut être techniquement compliqué, étant donné la nature imprévisible des algorithmes », a déclaré Tiani.

Pour Brando Benifei, l’un des députés européens à la tête des travaux sur la loi européenne sur l’IA, la décision des autorités italiennes montre que l’intelligence artificielle a besoin d’une réglementation sérieuse.

« OpenAI doit se conformer à la décision. Les droits fondamentaux des citoyens européens doivent être protégés », Befiei dit sur Twitter.

OpenAI dispose désormais de 20 jours pour informer l’autorité des mesures correctives prises en réponse à la décision sous peine d’une amende administrative égale à 20 millions d’euros ou 4 % du chiffre d’affaires annuel global.

OpenAI n’a pas répondu à la demande de commentaires d’EURACTIV au moment de la publication.

Julia Tar a contribué au reportage

[Edited by Alice Taylor]



Source link -57