Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes organismes de surveillance de la vie privée des pays du G7 sont sur le point de détailler une vision commune des défis de protection des données des modèles d’IA générative comme ChatGPT, selon un projet de déclaration consulté par EURACTIV. Les autorités de protection des données et de la vie privée des États-Unis, de la France, de l’Allemagne, de l’Italie, du Royaume-Uni, du Canada et du Japon se sont réunies à Tokyo mardi et mercredi (20-21 juin) pour une table ronde du G7 afin de discuter de la libre circulation des données, de la coopération en matière d’application et les technologies émergentes. Les risques des modèles d’IA générative du point de vue de la surveillance de la vie privée liés à leur prolifération rapide dans divers contextes et domaines ont occupé le devant de la scène, indique le projet de déclaration. « Nous reconnaissons qu’il existe des inquiétudes croissantes quant au fait que l’IA générative peut présenter des risques et des dommages potentiels à la vie privée, à la protection des données et à d’autres droits fondamentaux de l’homme si elle n’est pas correctement développée et réglementée », indique le communiqué. L’IA générative est une technologie sophistiquée capable de fournir un texte, une image ou un contenu audiovisuel de type humain basé sur l’entrée d’un utilisateur. Depuis l’ascension fulgurante de ChatGPT, la technologie émergente a suscité une grande excitation mais aussi une anxiété massive face à son éventuelle mauvaise utilisation. En avril, le G7 des ministres du numérique qui s’est réuni a défini le soi-disant « processus d’Hiroshima » pour s’aligner sur certains de ces sujets, tels que la gouvernance, la sauvegarde des droits de propriété intellectuelle, la promotion de la transparence, la prévention de la désinformation et la promotion d’une utilisation responsable de la technologie. Le processus d’Hiroshima doit conduire à un code de conduite volontaire sur l’IA générative que la Commission européenne développe avec les États-Unis et d’autres partenaires du G7. Entre-temps, l’UE est sur le point d’adopter la première législation complète au monde sur l’intelligence artificielle, qui devrait inclure certaines dispositions spécifiques à l’IA générative. Pourtant, les régulateurs de la confidentialité soulignent une série de risques que les outils d’IA génératifs impliquent du point de vue de la protection des données. Le point de départ est l’autorité légale dont disposent les développeurs d’IA pour traiter les informations personnelles, en particulier des mineurs, dans les ensembles de données utilisés pour former les modèles d’IA, la manière dont les interactions des utilisateurs sont introduites dans les outils et quelles informations sont ensuite recrachées en sortie. La déclaration appelle également à des mesures de sécurité pour éviter que les modèles d’IA génératifs ne soient utilisés pour extraire ou reproduire des informations personnelles ou que leurs mesures de protection de la vie privée puissent être contournées avec des invites soigneusement conçues. Les autorités demandent également aux développeurs d’IA de veiller à ce que les informations personnelles utilisées par les outils d’IA générative soient exactes, complètes et à jour et exemptes d’effets discriminatoires, illégaux ou autrement injustifiables. En outre, les régulateurs du G7 soulignent « des mesures de transparence pour promouvoir l’ouverture et l’explicabilité dans le fonctionnement des outils d’IA générative, en particulier dans les cas où ces outils sont utilisés pour prendre ou aider à la prise de décision concernant des individus ». La fourniture de documentation technique tout au long du cycle de vie du développement, les mesures visant à assurer un niveau de responsabilité approprié entre les acteurs de la chaîne d’approvisionnement de l’IA et le principe de limiter la collecte de données personnelles au strict nécessaire sont également référencés. Enfin, la déclaration exhorte les fournisseurs d’IA générative à mettre en place des mesures techniques et organisationnelles pour garantir que les personnes concernées et interagissant avec ces systèmes puissent toujours exercer leurs droits, tels que l’accès, la rectification et l’effacement des informations personnelles, ainsi que la possibilité de refuser d’être soumis uniquement à des décisions automatisées ayant des effets significatifs. La déclaration a souligné le cas de l’Italie, où l’autorité de protection des données a temporairement suspendu ChatGPT en raison d’éventuelles violations de la vie privée, mais le service a finalement été rétabli suite aux améliorations d’OpenAI. Les autorités mentionnent plusieurs actions en cours, notamment l’examen des modèles d’IA générative dans leur législation respective, la fourniture de conseils aux développeurs d’IA pour le respect de la vie privée et le soutien de projets innovants tels que les bacs à sable réglementaires. La promotion de la coopération, notamment par la création d’un groupe de travail dédié, est également mentionnée, car les autorités de l’UE en ont créé un pour rationaliser l’application de ChatGPT à la suite de la décision du régulateur italien adressée au chatbot le plus célèbre au monde. Cependant, selon une source informée sur le sujet, les travaux de ce groupe de travail avancent très lentement, principalement en raison du processus administratif et de la coordination, et les régulateurs européens attendent désormais qu’OpenAI apporte des éclaircissements d’ici la fin de l’été. « Les développeurs et les fournisseurs devraient intégrer la confidentialité dans la conception, la conception, l’exploitation et la gestion des nouveaux produits et services qui utilisent des technologies d’IA génératives, sur la base du concept de » Privacy by Design » et documenter leurs choix et analyses dans une évaluation de l’impact sur la vie privée, », poursuit le communiqué. De plus, les développeurs d’IA sont invités à permettre aux opérateurs économiques en aval qui déploient ou adaptent le modèle de se conformer aux obligations de protection des données. D’autres discussions sur la manière de relever les défis de la vie privée de l’IA générative auront lieu dans un groupe de travail sur les technologies émergentes du G7 des autorités de protection des données. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57