Customize this title in frenchAprès que l’Italie a bloqué l’accès au chatbot ChatGPT d’OpenAI, le reste de l’Europe suivra-t-il ?

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les régulateurs de toute l’Europe examinent si ChatGPT est conforme aux réglementations en matière de confidentialité après que l’Italie est devenue le premier pays occidental à bloquer le populaire chatbot alimenté par l’intelligence artificielle (IA).

L’organisme italien de surveillance de la protection des données a déclaré la semaine dernière qu’il était ouvrir une enquête contre OpenAI, la société à l’origine du très populaire chatbot, invoquant des problèmes de confidentialité des données après que ChatGPT a subi une violation de données impliquant des conversations d’utilisateurs et des informations de paiement.

ChatGPT peut à peu près répondre à toutes les questions, passer des examens et même coder un site Web entier pour vous.

Des centaines de millions de personnes ont utilisé ChatGPT depuis son lancement en novembre 2022, ce qui en fait l’application grand public à la croissance la plus rapide de l’histoire, selon une étude UBS.

Mais les risques potentiels de l’IA, notamment sa menace de supprimer de nombreux emplois et de diffuser des informations erronées, suscitent des inquiétudes croissantes.

Le mois dernier, des personnalités majeures de la technologie, dont le patron de Twitter, Elon Musk, ont même appelé à l’arrêt au développement de ces types de systèmes d’IA au milieu des craintes que la course pour les développer soit devenue incontrôlable.

D’autres pays vont-ils bientôt emboîter le pas et interdire ChatGPT ?

Après la décision de l’Italie de restreindre l’accès au chatbot, le Bureau européen des consommateurs (BEUC) a appelé toutes les autorités à enquêter sur tous les principaux chatbots IA.

ChatGPT est déjà inaccessible dans un certain nombre de pays, dont la Chine, l’Iran, la Corée du Nord et la Russie.

« Les consommateurs ne sont pas prêts pour cette technologie. Ils ne réalisent pas à quel point elle peut être manipulatrice et trompeuse. Ils ne réalisent pas que les informations qu’ils obtiennent sont peut-être fausses », a déclaré la directrice adjointe du BEUC, Ursula Pachl.

« Je pense que cet incident avec ChatGPT est très important. C’est une sorte de signal d’alarme pour l’Union européenne car même si les institutions européennes ont travaillé sur une loi sur l’IA, celle-ci ne sera pas applicable avant quatre ans. Et nous avons vu à quelle vitesse ces types de systèmes se développent », a-t-elle déclaré à Euronews.

D’autres régulateurs en Europe ont maintenant commencé à accorder plus d’attention à ChatGPT.

La Commission irlandaise de protection des données a déclaré qu’elle « suivait avec le régulateur italien pour comprendre la base de son action », ajoutant qu’elle « coordonnerait avec toutes les autorités de protection des données de l’UE concernant cette affaire ».

Le régulateur français de la confidentialité des données, la CNIL, a déclaré qu’il enquêtait après avoir reçu deux plaintes concernant ChatGPT. Les régulateurs ont également contacté leurs homologues italiens pour en savoir plus sur le fondement de l’interdiction.

Dans un article de blog cette semaine, le bureau du commissaire à l’information du Royaume-Uni a averti que les développeurs d’IA ont « pas d’excuses » pour s’être trompé sur la confidentialité des données – et que ceux qui ne respectent pas la loi sur la protection des données en subiront les conséquences.

En réponse apparente aux préoccupations, OpenAI a publié mercredi un article de blog décrivant son approche de la sécurité de l’IA.

La société a déclaré qu’elle s’efforçait de supprimer les informations personnelles des données de formation lorsque cela était possible, affinait ses modèles pour rejeter les demandes d’informations personnelles de particuliers et agissait sur les demandes de suppression d’informations personnelles de ses systèmes.

L’UE prépare sa loi sur l’IA

La Commission européenne débat actuellement de la première législation mondiale sur l’intelligence artificielle appelée la loi sur l’IA.

Mais il semble qu’il ne soit pas enclin à interdire les systèmes d’IA, selon la vice-présidente exécutive de la Commission européenne, Margrethe Vestager.

« Peu importe la technologie que nous utilisons, nous devons continuer à faire progresser nos libertés et à protéger nos droits », a-t-elle posté sur Twitter. « C’est pourquoi nous ne régulons pas les technologies de l’IA, nous régulons les usages de l’IA. Ne jetons pas en quelques années ce qui a mis des décennies à construire ».

Le ministre français du numérique, Jean-Noël Barrot, s’est également opposé à l’interdiction de ChatGPT. Dans une interview avec La Tribuneil a déclaré qu’il pensait que le service ne respectait pas les lois européennes sur la protection de la vie privée, mais qu’il serait plus logique d’essayer de « maîtriser » les nouvelles technologies et de les réglementer plutôt que d’essayer de les interdire complètement.

L’Allemagne, cependant, pourrait suivre les traces de l’Italie en bloquant ChatGPT pour des raisons de sécurité des données, a déclaré le commissaire allemand à la protection des données au journal Handelsblatt.

Dan Morgan, directeur des affaires gouvernementales en Europe chez SecurityScorecard, fournisseur d’évaluation de la cybersécurité, a déclaré à Euronews que cette décision signale l’importance de la conformité réglementaire pour des entreprises telles qu’OpenAI en Europe.

« Je pense que les implications claires de cela sont que vous ne pouvez pas éviter la réglementation si vous voulez opérer dans l’UE », a-t-il déclaré.

« Les entreprises doivent donner la priorité à la protection des données personnelles et s’y conformer. Quelle que soit l’importance du produit, vous savez, la conformité à la réglementation en Europe n’est pas une option supplémentaire ».

Le chien de garde italien a déclaré que la société derrière ChatGPT avait 20 jours pour résoudre les problèmes de protection des données ou payer une amende de 20 millions d’euros ou jusqu’à 4% des revenus annuels.

Le PDG de la société, Sam Altman, dit sur Twitter qu’OpenAI s’en remettait au « gouvernement italien » sur la question.

« L’Italie est l’un de mes pays préférés et j’ai hâte d’y retourner bientôt », a-t-il ajouté.

Pour en savoir plus sur cette histoire, regardez notre rapport de The Cube dans le lecteur multimédia ci-dessus.



Source link -57