Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Le fabricant de ChatGPT a déclaré vendredi que le chatbot d’intelligence artificielle est à nouveau disponible en Italie après que l’entreprise a répondu aux exigences des régulateurs qui l’a temporairement bloqué pour des raisons de confidentialité.
OpenAI a déclaré qu’il remplissait une série de conditions que l’autorité italienne de protection des données voulait satisfaire d’ici le 30 avril. date limite pour faire lever l’interdiction du logiciel d’IA.
« ChatGPT est à nouveau disponible pour nos utilisateurs en Italie », a déclaré OpenAI, basé à San Francisco, par e-mail. « Nous sommes ravis de les accueillir à nouveau et nous restons déterminés à protéger leur vie privée. »
Systèmes d’IA génératifs comme ChatGPTqui utilisent de vastes pools de données en ligne comme des livres numériques, des articles de blog et d’autres médias pour générer du texte, des images et d’autres contenus imitant le travail humain, ont créé le buzz dans le monde de la technologie et au-delà.
Mais leur développement rapide a suscité des craintes parmi les responsables et même les dirigeants technologiques sur les éventuels risques éthiques et sociétauxles négociateurs de l’Union européenne s’efforçant de mettre à jour le projet de règlement sur l’intelligence artificielle qui ont mis des années à se préparer.
Le mois dernier, le chien de garde italien, connu sous le nom de Garante, a ordonné à OpenAI d’arrêter temporairement le traitement informations personnelles des utilisateurs italiens pendant qu’il enquêtait sur une éventuelle violation de données. L’autorité a déclaré qu’elle ne voulait pas entraver le développement de l’IA, mais a souligné l’importance de suivre les règles strictes de confidentialité des données de l’UE.
OpenAI a déclaré avoir « traité ou clarifié les problèmes » soulevés par le chien de garde.
Les mesures comprennent l’ajout d’informations sur son site Web sur la façon dont il collecte et utilise les données qui forment les algorithmes qui alimentent ChatGPT.en fournissant aux utilisateurs de l’UE un nouveau formulaire pour s’opposer à ce que leurs données soient utilisées pour la formation, et en ajoutant un outil pour vérifier l’âge des utilisateurs lors de l’inscription.
Certains utilisateurs italiens ont partagé ce qui semblait être des captures d’écran des modifications, y compris un bouton de menu demandant aux utilisateurs de confirmer leur âge et des liens vers la politique de confidentialité mise à jour et la page d’aide des données de formation.
La Garante a déclaré dans un communiqué qu’elle « se félicite des mesures mises en œuvre par OpenAI » et a exhorté l’entreprise à se conformer à deux autres demandes concernant un système de vérification de l’âge et une campagne publicitaire informant les Italiens de l’histoire et de leur droit de refuser le traitement des données.
Le chien de garde a imposé l’interdiction le mois dernier après avoir constaté que les messages et les informations de paiement de certains utilisateurs étaient exposés à d’autres. Il s’est également demandé s’il existait une base légale permettant à OpenAI de collecter des quantités massives de données utilisées pour former les algorithmes de ChatGPT et a soulevé des inquiétudes quant au fait que le système pouvait parfois générer de fausses informations sur des individus.
Le ministre de l’Infrastructure Matteo Salvini sur Instagram, a écrit avec approbation du retour de ChatGPT et a déclaré que son parti de la Ligue « s’engage à aider les start-ups et le développement en Italie ».
D’autres régulateurs examinent maintenant de plus près ces systèmes d’IA, le régulateur français de la confidentialité des données et le commissaire à la protection de la vie privée du Canada enquêtant après avoir reçu des plaintes concernant ChatGPT.
La chef de la Federal Trade Commission, Lina Khan, a averti cette semaine que le gouvernement américain « n’hésitera pas à sévir » sur les pratiques commerciales préjudiciables impliquant l’intelligence artificielle.