Customize this title in frenchChatGPT entre dans un monde de douleur réglementaire en Europe

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Appuyez sur play pour écouter cet article Exprimé par l’intelligence artificielle. ChatGPT s’est mis en place pour un parcours difficile avec les puissants chiens de garde de la confidentialité en Europe. Le chatbot est la sensation la plus chaude de la technologie de l’intelligence artificielle, mais a été frappé d’une interdiction temporaire en Italie le mois dernier au motif qu’il pourrait violer le règlement européen sur la confidentialité, le règlement général sur la protection des données (RGPD). L’interdiction italienne n’est que le début des problèmes de ChatGPT, car il s’est ouvert à des cas de confidentialité dans tout le bloc et utilise une technologie de pointe qui irrite les gouvernements sur des risques allant de la protection des données à la désinformation, à la cybercriminalité, à la fraude et à la tricherie aux tests scolaires. OpenAI, l’organisation qui a créé ChatGPT, marche avec une cible sur le dos : elle n’a pas établi de siège local dans l’un des 27 pays de l’Union européenne, ce qui signifie que l’autorité de protection des données de n’importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions. Auparavant, Google était passible d’une amende de 50 millions d’euros dans le cadre du GDPR en France, qui avait été infligée avant que le géant américain de la technologie ne centralise officiellement sa configuration juridique européenne en Irlande. TikTok a également fait l’objet de plusieurs enquêtes sur la confidentialité et d’amendes de la part des autorités néerlandaises, italiennes et françaises avant de s’installer légalement en Irlande en 2021. Les régulateurs européens des données envisagent leurs prochaines étapes pour enquêter sur les abus présumés comme leurs homologues italiens. La Commission irlandaise de protection des données a déclaré qu’elle « se coordonnera avec tous les [data protection authorities] par rapport à cette affaire », selon le porte-parole Graham Doyle. L’autorité belge de protection des données a également déclaré que les infractions potentielles de ChatGPT « devraient être discutées lors [the] Niveau européen. » L’autorité française de protection des données, la CNIL, a reçu au moins deux plaintes contre ChatGPT, pour violation de la vie privée, notamment du RGPD, a rapporté L’Informé. En Norvège, « nous n’avons pas à ce jour lancé d’enquête sur ChatGPT, mais nous n’excluons rien pour l’avenir », a déclaré Tobias Judin, responsable des travaux internationaux pour le régulateur national de la protection des données Datatilsynet. Alors qu’OpenAI a nié avoir enfreint les lois européennes sur la protection de la vie privée, le directeur général de la société Sam Altman a dit sur Twitter que sa société s’en remettait au « gouvernement italien » pour l’interdiction – déroutant apparemment le régulateur indépendant du pays pour le gouvernement. « L’Italie est l’un de mes pays préférés et j’ai hâte d’y retourner bientôt », a déclaré Altman. L’autorité italienne de protection des données a déclaré le 6 avril qu’OpenAI était disposé à lutter contre les violations potentielles des lois européennes sur la protection de la vie privée, à la suite d’un appel vidéo avec des dirigeants de l’entreprise. Les régulateurs européens des données envisagent leurs prochaines étapes pour enquêter sur les abus présumés comme leurs pairs italiens | Nicolas Maeterlinck/BELGA MAG/AFP via Getty Images Lois à suivre Ce n’est pas seulement la confidentialité qui suscite des inquiétudes chez les systèmes d’IA comme ChatGPT. Fin mars, un jeune Belge s’est suicidé après des semaines de conversations avec un chatbot basé sur l’IA nommé Eliza, a rapporté le journal belge La Libre. Le mois dernier, le magnat de la technologie Elon Musk, aux côtés de milliers d’experts en intelligence artificielle, a appelé à une pause dans le développement de ChatGPT en raison de «risques profonds pour l’humanité». Les groupes de défense ont emboîté le pas. Aux États-Unis, le Center for AI and Digital Policy a demandé à la Federal Trade Commission américaine d’enquêter sur OpenAI et de bloquer les nouvelles versions de son bot. À Bruxelles, l’organisme de surveillance des consommateurs BEUC a supplié les régulateurs européens et nationaux d’enquêter sur ChatGPT, avertissant que le prochain règlement de l’UE sur l’IA pourrait arriver trop tard pour éviter tout dommage. Les législateurs européens négocient également des garde-fous juridiques sur la technologie dans le cadre d’un projet de loi sur l’intelligence artificielle de l’UE. Mais l’absence de législation sur l’intelligence artificielle a encouragé les régulateurs de la protection des données à intervenir. « Les régulateurs de la protection des données réalisent lentement qu’ils sont des régulateurs de l’IA », a déclaré Gabriela Zanfir-Fortuna, du groupe de réflexion Future of Privacy Forum. Les régulateurs de la vie privée appliquent le GDPR, y compris ses règles concernant la collecte de données et la protection des utilisateurs contre la prise de décision automatisée. Des entreprises comme OpenAI doivent disposer d’une base légale pour collecter et utiliser des données personnelles, être transparentes sur la façon dont elles utilisent les données des personnes, maintenir l’exactitude des données personnelles et donner aux personnes un droit de correction. OpenAI n’a jamais révélé quel ensemble de données il a utilisé pour former le modèle d’IA qui sous-tend le chatbot. Même les chercheurs de Microsoft, qui est le principal investisseur d’OpenAI, ont déclaré dans un article récent qu’ils « n’avaient pas accès à tous les détails de [ChatGPT] de vastes données d’entraînement. » La société de reconnaissance faciale Clearview AI a déjà été condamnée à une amende et ordonnée par les régulateurs de la confidentialité de supprimer les photos de personnes italiennes, françaises et britanniques qu’elle avait collectées en ligne pour construire son algorithme, car elle n’avait pas de base légale pour le faire. Le fait que ChatGPT ait subi une violation de données et exposé les conversations des utilisateurs et les informations de paiement de ses utilisateurs en mars ne fait qu’ajouter à ses malheurs. La décision italienne d’arrêter ChatGPT dans son élan est « un signal d’alarme », a déclaré Dessislava Savova, associée spécialisée dans la technologie du cabinet d’avocats Clifford Chance. « Cela déclenchera en fait un dialogue en Europe et accélérera la prise de position. par d’autres régulateurs. Laura Kayali a contribué au reportage. Cet article a été mis à jour pour refléter que des groupes de défense, dont le BEUC, ont demandé aux régulateurs d’enquêter sur ChatGPT, et pour refléter les nouveaux développements concernant les travaux des régulateurs italiens et français sur OpenAI. pl_facebook_pixel_args = []; pl_facebook_pixel_args.userAgent = navigator.userAgent; pl_facebook_pixel_args.language = navigator.language; if ( document.referrer.indexOf( document.domain ) < 0 ) pl_facebook_pixel_args.referrer = document.referrer; !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,'script', 'https://connect.facebook.net/en_US/fbevents.js'); fbq( 'consent', 'revoke' ); fbq( 'init', "394368290733607" ); fbq( 'track', 'PageView', pl_facebook_pixel_args ); if ( typeof window.__tcfapi !== 'undefined' ) { window.__tcfapi( 'addEventListener', 2, function( tcData, listenerSuccess ) { if ( listenerSuccess ) }); }
Source link -57