Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Alors que les groupes de consommateurs appellent les autorités à enquêter de toute urgence sur l’IA générative, un nouveau rapport d’une organisation de consommateurs norvégienne décrit les risques de la technologie de l’IA.
Des groupes de consommateurs de 13 pays européens exhortent les autorités nationales à lancer des « enquêtes urgentes » sur l’intelligence artificielle générative (IA).
Les groupes appellent également les gouvernements à appliquer la législation existante pour protéger les consommateurs.
IA générative est un type d’intelligence artificielle qui peut créer du texte, des images, des vidéos et d’autres contenus qui ressemblent à du contenu créé par des humains.
« L’IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la façon dont ces systèmes pourraient tromper, manipuler et nuire aux gens », a déclaré Ursula Pachl, directrice générale adjointe du Bureau européen des consommateurs (BEUC). , dans un rapport.
« Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer des préjugés existants qui amplifient la discrimination ou être utilisés à des fins frauduleuses. »
Depuis le lancement de l’application AI ChatGPT à la fin de l’année dernière, elle aurait établi le record de la base d’utilisateurs à la croissance la plus rapide et suscité davantage de discussions sur la vitesse de développement de l’intelligence artificielle et sur la manière de la réguler.
La déclaration des 13 groupes de consommateurs européens intervient mardi alors que Forbrukerrådet, un groupe de consommateurs norvégien et membre du BEUC, a publié un nouveau rapport sur les risques associés à l’IA générative.
Le rapport a mis en évidence la menace d’une sortie inexacte et de l’utilisation de la technologie de l’IA pour manipuler les consommateurs.
Le rapport a également couvert les préoccupations concernant la sécurité, la confidentialité, l’automatisation des tâches humaines et l’impact environnemental de l’IA.
« Nous appelons les autorités chargées de la sécurité, des données et de la protection des consommateurs à ouvrir des enquêtes maintenant et à ne pas attendre sans rien faire que toutes sortes de dommages aux consommateurs se soient produits avant d’agir », a déclaré Pachl.
Le Parlement européen se sont mis d’accord sur leur position de négociation sur une loi sur l’intelligence artificielle de grande envergure la semaine dernière, approuvant une interdiction générale des outils de reconnaissance faciale en temps réel alimentés par l’IA et une interdiction des utilisations intrusives et discriminatoires de la technologie, entre autres mesures.
La loi sur l’IA a été proposée pour la première fois par la Commission européenne en 2021 et l’UE espère conclure les négociations d’ici la fin de l’année. Ce serait la première loi complète réglementant l’intelligence artificielle.
« Il est crucial que l’UE rende cette loi aussi étanche que possible pour protéger les consommateurs », a déclaré Pachl dans un communiqué.
« Tous les systèmes d’IA, y compris l’IA générative, doivent être examinés par le public, et les autorités publiques doivent réaffirmer leur contrôle. »
De nombreux experts, politiques et institutions ont récemment mis en garde contre les dangers de l’intelligence artificielle.
Antonio, secrétaire général de l’ONU Guterres a déclaré la semaine dernière qu’il fallait une action mondiale coordonnée sur le sujet et a approuvé la création d’un organisme international de surveillance de l’intelligence artificielle.
Le comité européen de la protection des données a également créé un groupe de travail sur ChatGPT « pour favoriser la coopération et échanger des informations sur d’éventuelles actions d’application menées par les autorités de protection des données. »
Le créateur de ChatGPT, Sam Altman, a même déclaré au Congrès américain que même s’il pensait que l’intelligence artificielle profiterait à l’humanité, elle devait être réglementée.
Une récente déclaration publiée par le Center for AI Safetysigné par des experts de l’IA et des personnalités publiques, a déclaré que « l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».