Customize this title in frenchLes États-Unis commencent l’étude de règles possibles pour réglementer l’IA comme ChatGPT

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

© Reuters. FILE PHOTO: Le logo ChatGPT est visible sur cette illustration prise le 3 février 2023. REUTERS / Dado Ruvic / Illustration / File Photo

Par David Shepardson et Diane Bartz

WASHINGTON (Reuters) – L’administration Biden a déclaré mardi qu’elle sollicitait les commentaires du public sur les mesures de responsabilité potentielles pour les systèmes d’intelligence artificielle (IA) alors que des questions se profilent sur son impact sur la sécurité nationale et l’éducation.

ChatGPT, un programme d’intelligence artificielle qui a récemment attiré l’attention du public pour sa capacité à rédiger rapidement des réponses à un large éventail de requêtes, a en particulier attiré l’attention des législateurs américains car il est devenu l’application grand public à la croissance la plus rapide de l’histoire avec plus de 100 millions d’utilisateurs actifs mensuels.

L’Administration nationale des télécommunications et de l’information, une agence du Département du commerce qui conseille la Maison Blanche sur la politique des télécommunications et de l’information, souhaite obtenir des commentaires car il existe un « intérêt réglementaire croissant » pour un « mécanisme de responsabilité » de l’IA.

L’agence souhaite savoir s’il existe des mesures qui pourraient être mises en place pour garantir « que les systèmes d’IA sont légaux, efficaces, éthiques, sûrs et dignes de confiance ».

« Des systèmes d’IA responsables pourraient apporter d’énormes avantages, mais seulement si nous nous attaquons à leurs conséquences et préjudices potentiels. Pour que ces systèmes atteignent leur plein potentiel, les entreprises et les consommateurs doivent pouvoir leur faire confiance », a déclaré Alan Davidson, administrateur de la NTIA.

Le président Joe Biden a déclaré la semaine dernière qu’il restait à voir si l’IA était dangereuse. « Les entreprises technologiques ont la responsabilité, à mon avis, de s’assurer que leurs produits sont sûrs avant de les rendre publics », a-t-il déclaré.

ChatGPT, qui a séduit certains utilisateurs avec des réponses rapides aux questions et causé de la détresse à d’autres avec des inexactitudes, est fabriqué par OpenAI, basé en Californie, et soutenu par Microsoft Corp (NASDAQ :).

La NTIA prévoit de rédiger un rapport sur les « efforts visant à garantir que les systèmes d’IA fonctionnent comme prévu – et sans causer de dommages » et a déclaré que cet effort éclairera les travaux en cours de l’administration Biden pour « assurer une approche cohérente et complète du gouvernement fédéral en matière d’IA. risques et opportunités. »

Un groupe d’éthique technologique, le Center for Artificial Intelligence and Digital Policy, a demandé à la Federal Trade Commission des États-Unis d’empêcher OpenAI de publier de nouvelles versions commerciales de GPT-4, affirmant qu’il était « partial, trompeur et qu’il constituait un risque pour la vie privée et la sécurité publique ».

Source link -57