Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
LONDRES (AP) – La société à l’origine de ChatGPT proposera des mesures pour résoudre les problèmes de confidentialité des données qui ont déclenché une interdiction italienne temporaire du chatbot d’intelligence artificielle, ont annoncé jeudi les régulateurs.
L’autorité italienne de protection des données, connue sous le nom de Garante, a bloqué la semaine dernière le populaire chatbot OpenAI basé à San Franciscolui ordonnant de cesser temporairement de traiter les informations personnelles des utilisateurs italiens pendant qu’il enquête sur une éventuelle violation des règles de confidentialité des données de l’Union européenne.
Les experts ont déclaré qu’il s’agissait du premier cas de ce type d’une démocratie imposant une interdiction nationale d’une plate-forme d’IA grand public.
Lors d’un appel vidéo mercredi soir entre les commissaires du chien de garde et les dirigeants d’OpenAI, dont le PDG Sam Altman, la société a promis de définir des mesures pour répondre aux préoccupations.. Ces remèdes n’ont pas été détaillés.
L’organisme de surveillance italien a déclaré qu’il ne voulait pas entraver le développement de l’IA, mais a souligné à OpenAI l’importance de se conformer aux règles strictes de confidentialité des 27 pays de l’UE..
Les régulateurs ont imposé l’interdiction après que les messages et les informations de paiement de certains utilisateurs aient été exposés à d’autres. Ils se sont également demandé s’il existait une base légale permettant à OpenAI de collecter des quantités massives de données utilisées pour former les algorithmes de ChatGPT et ont fait part de leurs inquiétudes quant au fait que le système pourrait parfois générer de fausses informations sur des individus.
La technologie dite d’IA générative comme ChatGPT est « formée » sur d’énormes pools de données, y compris des livres numériques et des écrits en ligne, et capable de générer du texte qui imite les styles d’écriture humains.
Ces systèmes ont créé un buzz dans le monde de la technologie et au-delà, mais ils ont également suscité des craintes parmi les responsables, les régulateurs et même les informaticiens et les leaders de l’industrie technologique. sur les éventuels risques éthiques et sociétaux.
D’autres régulateurs en Europe et ailleurs ont commencé à accorder plus d’attention après l’action de l’Italie.
La Commission irlandaise de protection des données a déclaré qu’elle « suivait avec le régulateur italien pour comprendre la base de son action et nous nous coordonnerons avec toutes les autorités de protection des données de l’UE à ce sujet ».
Le régulateur français de la confidentialité des données, la CNIL, a déclaré qu’il enquêtait après avoir reçu deux plaintes concernant ChatGPT. Le commissaire à la protection de la vie privée du Canada a également ouvert une enquête dans OpenAI après avoir reçu une plainte concernant la « collecte, l’utilisation et la divulgation présumées d’informations personnelles sans consentement ».
Dans un article de blog cette semaine, le Bureau du commissaire à l’information du Royaume-Uni a averti que « les organisations développant ou utilisant l’IA générative devraient tenir compte de leurs obligations en matière de protection des données dès le départ » et concevoir des systèmes avec la protection des données par défaut.
« Ce n’est pas facultatif – si vous traitez des données personnelles, c’est la loi », a déclaré le bureau.
En réponse apparente aux préoccupations, OpenAI a publié mercredi un article de blog décrivant son approche de la sécurité de l’IA. La société a déclaré qu’elle s’efforçait de supprimer les informations personnelles des données de formation lorsque cela était possible, d’affiner ses modèles pour rejeter les demandes d’informations personnelles de particuliers et d’agir sur les demandes de suppression d’informations personnelles de ses systèmes.