Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
L’administration du président Joe Biden souhaite des mesures plus strictes pour tester la sécurité des outils d’intelligence artificielle tels que ChatGPT avant qu’ils ne soient rendus publics, bien qu’elle n’ait pas décidé si le gouvernement jouera un rôle dans la vérification.
Le département américain du Commerce a déclaré mardi qu’il passera les 60 prochains jours à formuler des avis sur la possibilité d’audits d’IA, d’évaluations des risques et d’autres mesures qui pourraient apaiser les inquiétudes des consommateurs concernant ces nouveaux systèmes.
« Il y a un niveau de préoccupation accru maintenant, compte tenu du rythme de l’innovation, que cela doit se faire de manière responsable », a déclaré le secrétaire adjoint au Commerce Alan Davidson, administrateur de la National Telecommunications and Information Administration.
La NTIA, plus un conseiller qu’un régulateur, cherche à obtenir des commentaires sur les politiques qui pourraient rendre les outils commerciaux d’IA plus responsables.
Biden a déclaré la semaine dernière lors d’une réunion avec son conseil de conseillers scientifiques et technologiques, les entreprises technologiques doivent s’assurer que leurs produits sont sûrs avant de les rendre publics.
L’administration Biden a également dévoilé l’année dernière un ensemble d’objectifs ambitieux visant à éviter les dommages causés par la montée en puissance des systèmes d’IA, mais c’était avant la sortie de ChatGPT, de la start-up OpenAI de San Francisco, et de produits similaires de Microsoft et Google, a conduit à une plus grande prise de conscience des capacités des derniers outils d’IA qui peuvent générer de l’humain -comme des passages de texte, ainsi que de nouvelles images et vidéo.
« Ces nouveaux modèles de langage, par exemple, sont vraiment puissants et ils ont le potentiel de générer de réels dommages », a déclaré Davidson dans une interview. « Nous pensons que ces mécanismes de responsabilisation pourraient vraiment aider en offrant une plus grande confiance dans l’innovation qui se produit. »
L’avis de la NTIA s’appuie fortement sur la demande de commentaires sur les mesures « d’autorégulation » que les entreprises qui construisent la technologie seraient susceptibles de diriger. Cela contraste avec l’Union européenne, où les législateurs négocient ce mois-ci l’adoption de nouvelles lois qui pourraient fixer des limites strictes aux outils d’IA en fonction du risque élevé qu’ils présentent.