[ad_1]
Un responsable de l’UE a déclaré que les règles proposées réglementant l’intelligence artificielle (IA) répondront aux préoccupations concernant les risques de produits comme ChatGPT.
Thierry Breton, le commissaire européen au marché intérieur, a déclaré à Reuters que la popularité croissante d’applications telles que ChatGPT et les risques associés soulignent l’urgence d’établir des règles.
« Comme le montre ChatGPT, les solutions d’IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent également présenter des risques. C’est pourquoi nous avons besoin d’un cadre réglementaire solide pour garantir une IA fiable basée sur des données de haute qualité », a-t-il déclaré à Reuters dans des commentaires écrits. .
Il s’agissait des premiers commentaires officiels sur ChatGPT d’un haut fonctionnaire de l’UE. Breton et ses collègues de la Commission travaillent actuellement avec le Conseil et le Parlement européens sur ce qui sera le premier cadre juridique sur l’IA.
Lancé il y a un peu plus de deux mois, ChatGPT a suscité une explosion d’intérêt pour l’IA et les utilisations qu’elle peut désormais en faire.
Développé par OpenAI, ChatGPT permet aux utilisateurs de saisir des invites qui peuvent ensuite générer des articles, des essais, de la poésie – et même du code informatique.
Avec ChatGPT classé comme l’application grand public à la croissance la plus rapide de l’histoire, certains experts ont fait part de leurs craintes que les systèmes utilisés par ces applications puissent être utilisés à mauvais escient pour le plagiat, la fraude et la diffusion de fausses informations.
Microsoft a refusé de commenter la déclaration de Breton. OpenAI – dont l’application utilise une technologie appelée IA générative – n’a pas immédiatement répondu à une demande de commentaire.
OpenAI a déclaré sur son site Web qu’il vise à produire une intelligence artificielle qui « bénéficie à toute l’humanité » alors qu’il tente de construire une IA sûre et bénéfique.
Le premier cadre réglementaire de l’IA
Selon le projet de règles de l’UE, ChatGPT est considéré comme un système d’IA à usage général qui peut être utilisé à des fins multiples, y compris celles à haut risque telles que la sélection de candidats pour des emplois et la notation de crédit.
Breton souhaite qu’OpenAI coopère étroitement avec les développeurs en aval de systèmes d’IA à haut risque afin de permettre leur conformité avec la loi proposée sur l’IA.
Le cadre réglementaire définit actuellement quatre niveaux de risque dans l’IA – ce qui inquiète certaines entreprises qui craignent que leurs produits ne soient étiquetés comme à haut risque.
Les quatre niveaux sont :
- Risque inacceptable – tout système considéré comme une menace manifeste pour les personnes « sera interdit » selon la Commission, y compris « la notation sociale par les gouvernements des jouets utilisant l’assistance vocale qui encourage les comportements dangereux ».
- Risque élevé – il s’agit de systèmes d’IA au sein d’infrastructures critiques telles que les transports, ou dans des contextes éducatifs ou d’emploi où le résultat d’examens ou de candidatures à un emploi pourrait être déterminé par l’IA. Les contextes d’application de la loi qui mettent en danger les droits fondamentaux des personnes sont également considérés comme à haut risque.
- Risque limité – Il s’agit de systèmes avec des « obligations de transparence spécifiques », comme un chatbot s’identifiant comme une IA.
- Risque minime ou nul – La Commission affirme que la « grande majorité » des systèmes actuellement utilisés dans l’UE appartiennent à cette catégorie, et qu’ils incluent les jeux vidéo et les filtres anti-spam compatibles avec l’IA.
« Les gens devraient être informés qu’ils ont affaire à un chatbot et non à un être humain », a déclaré Breton.
« La transparence est également importante en ce qui concerne le risque de biais et de fausses informations ».
Selon les dirigeants de plusieurs entreprises impliquées dans le développement de l’intelligence artificielle, appartenir à une catégorie à haut risque entraînerait des exigences de conformité plus strictes et des coûts plus élevés.
Une enquête menée par l’organisme industriel AppliedAI a montré que 51 % des personnes interrogées s’attendent à un ralentissement de leurs activités de développement de l’IA en raison de la loi sur l’IA.
Une réglementation efficace de l’IA devrait se concentrer sur les applications les plus à risque, a écrit mercredi le président de Microsoft, Brad Smith, dans un article de blog.
« Il y a des jours où je suis optimiste et des moments où je suis pessimiste quant à la manière dont l’humanité utilisera l’IA », a-t-il déclaré.
Les modèles d’IA générative doivent être formés sur d’énormes quantités de texte ou d’images pour créer une réponse appropriée – ce qui peut conduire à des allégations de violation du droit d’auteur.
Breton a déclaré que les discussions à venir avec les législateurs sur les règles de l’IA couvriraient ces aspects.
[ad_2]
Source link -32