Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
L’Italie est le premier pays occidental à prendre une telle mesure contre le populaire chatbot d’intelligence artificielle.
Le chien de garde de la vie privée du gouvernement italien a temporairement bloqué le logiciel d’intelligence artificielle (IA) ChatGPT en raison de problèmes de confidentialité des données.
L’annonce de vendredi a fait de l’Italie le premier pays occidental à prendre une telle mesure contre le populaire chatbot d’IA.
L’autorité italienne de protection des données a qualifié son action de provisoire « jusqu’à ce que ChatGPT respecte la vie privée ». Sa mesure consiste à empêcher temporairement l’entreprise de conserver les données des utilisateurs italiens.
Le chien de garde a déclaré que le développeur de ChatGPT, OpenAI, n’avait aucune base légale pour justifier « la collecte et le stockage en masse de données personnelles dans le but de ‘former’ les algorithmes sous-jacents au fonctionnement de la plateforme ».
Il a en outre fait référence à une violation de données le 20 mars lorsque les conversations des utilisateurs et les informations de paiement ont été compromises, un problème que la société américaine a imputé à un bogue.
Depuis que ChatGPT a été lancé, il a connu une croissance fulgurante. Des millions de personnes utilisent le logiciel pour des activités allant du développement de conceptions architecturales à la rédaction d’essais et à la rédaction de messages, de chansons, de romans et de blagues.
Cela a également déclenché une course à l’IA parmi d’autres entreprises technologiques et capital-risqueurs. Google se précipite sur son propre chatbot, appelé Bard, et les investisseurs injectent de l’argent dans toutes sortes de projets d’IA.
Mais les critiques se demandent depuis longtemps où ChatGPT et ses concurrents obtiennent leurs données ou comment ils les traitent.
« En fait, nous ne savons pas comment les données sont utilisées car il n’y a pas suffisamment d’informations fournies au public », a déclaré à Al Jazeera Ruta Liepina, boursière en intelligence artificielle à l’Université de Bologne en Italie.
« Dans le même temps, au sein de l’Union européenne, de nombreuses nouvelles réglementations sont proposées, mais il s’agira de savoir comment elles sont appliquées et dans quelle mesure les entreprises collaborent pour montrer les informations nécessaires pour mieux comprendre comment ces technologies sont travailler », a déclaré Liepina.
Les systèmes d’IA qui alimentent ces chatbots, connus sous le nom de grands modèles de langage, sont capables d’imiter les styles d’écriture humains basés sur l’énorme quantité de livres numériques et d’écriture en ligne qu’ils ont ingérés.
Certaines écoles publiques et universités du monde entier ont bloqué le site Web ChatGPT de leurs réseaux locaux en raison de problèmes de plagiat des étudiants, mais il n’était pas clair comment l’Italie le bloquerait au niveau national.
Il est peu probable que cette décision affecte les applications des entreprises qui ont déjà des licences avec OpenAI pour utiliser la même technologie qui pilote le chatbot, comme le moteur de recherche Bing de Microsoft.
Cette semaine, des centaines d’experts et de personnalités de l’industrie ont signé une lettre ouverte appelant à une pause dans le développement de puissants systèmes d’IA, arguant qu’ils posaient « des risques profonds pour la société et l’humanité ».
La lettre a été motivée par la publication par OpenAI ce mois-ci de GPT-4, une version plus puissante de son chatbot, avec encore moins de transparence sur ses sources de données.
L’organisme de surveillance italien a ordonné à OpenAI de signaler dans les 20 jours les mesures qu’il a prises pour garantir la confidentialité des données des utilisateurs, sous peine d’une amende pouvant aller jusqu’à 22 millions de dollars ou 4 % de son chiffre d’affaires mondial annuel.
Les experts en intelligence artificielle ont déclaré qu’il est probable que davantage de gouvernements suivront et publieront des réglementations similaires.
« Je pense qu’il pourrait y avoir un suivi d’autres pays, [especially] si la société OpenAI ne fournit pas plus d’informations sur la façon dont l’algorithme est formé », a déclaré Liepina.
Le PDG de la société basée à San Francisco, Sam Altman, a annoncé cette semaine qu’il entreprendrait un voyage sur six continents en mai pour parler de la technologie avec les utilisateurs et les développeurs.
Son voyage doit inclure une escale à Bruxelles, où les législateurs de l’Union européenne ont négocié de nouvelles règles radicales pour limiter les outils d’IA à haut risque.
Altman a déclaré que son séjour en Europe comprendrait également des arrêts à Madrid, Munich, Londres et Paris.