Customize this title in frenchHarris rencontrera des PDG sur les risques liés à l’intelligence artificielle

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

WASHINGTON (AP) – Vice-présidente Kamala Harris rencontrera jeudi les PDG de quatre grandes entreprises développant l’intelligence artificielle alors que l’administration Biden déploie un ensemble d’initiatives destinées à garantir que la technologie en évolution rapide améliore la vie sans mettre en danger les droits et la sécurité des personnes.

L’administration démocrate prévoit d’annoncer un investissement de 140 millions de dollars pour créer sept nouveaux instituts de recherche sur l’IA, ont déclaré des responsables de l’administration aux journalistes lors d’un aperçu de l’effort.

En outre, le Bureau de la gestion et du budget de la Maison Blanche devrait publier dans les prochains mois des directives sur la manière dont les agences fédérales peuvent utiliser les outils d’IA. Il y aura également un engagement indépendant des meilleurs développeurs d’IA à participer à une évaluation publique de leurs systèmes en août lors de la convention des hackers DEF CON à Las Vegas.

Harris et les responsables de l’administration prévoient jeudi de discuter des risques qu’ils voient dans le développement actuel de l’IA avec les PDG d’Alphabet, Anthropic, Microsoft et OpenAI. Le message des chefs de gouvernement aux entreprises est qu’elles ont un rôle à jouer dans la réduction des risques et qu’elles peuvent collaborer avec le gouvernement.

Président Joe Biden a noté le mois dernier que l’IA peut aider à lutter contre les maladies et le changement climatique, mais pourrait également nuire à la sécurité nationale et perturber l’économie de manière déstabilisante.

La sortie du chatbot ChatGPT cette année a conduit à un débat accru sur l’IA et le rôle du gouvernement avec la technologie. Parce que l’IA peut générer une écriture de type humain et de fausses images, il y a des préoccupations éthiques et sociétales.

OpenAI, qui a développé ChatGPT, a gardé le secret sur les données sur lesquelles ses systèmes d’IA ont été entraînés. Il est donc difficile pour les personnes extérieures à l’entreprise de comprendre pourquoi ChatGPT produit des réponses biaisées ou fausses aux demandes ou de répondre aux préoccupations concernant le vol d’œuvres protégées par le droit d’auteur.

Les entreprises craignant d’être responsables de quelque chose dans leurs données de formation pourraient également ne pas être incitées à le suivre correctement, a déclaré Margaret Mitchell, scientifique en chef de l’éthique chez AI startup Hugging Face.

« Je pense qu’il pourrait ne pas être possible pour OpenAI de détailler toutes ses données de formation à un niveau de détail qui serait vraiment utile en termes de certaines des préoccupations concernant le consentement, la confidentialité et les licences », a déclaré Mitchell dans une interview mardi. « D’après ce que je sais de la culture technologique, cela ne se fait tout simplement pas. »

Théoriquement, au moins, une sorte de loi sur la divulgation pourrait obliger les fournisseurs d’IA à ouvrir leurs systèmes à un examen plus approfondi par des tiers. Mais avec les systèmes d’IA construits sur les modèles précédents, il ne sera pas facile pour les entreprises d’offrir une plus grande transparence après coup.

« Je pense que ce sera vraiment aux gouvernements de décider si cela signifie que vous devez jeter tout le travail que vous avez fait ou non », a déclaré Mitchell. « Bien sûr, j’imagine qu’au moins aux États-Unis, les décisions pencheront en faveur des entreprises et soutiendront le fait que cela a déjà été fait. Cela aurait des ramifications si massives si toutes ces entreprises devaient essentiellement jeter tout ce travail et recommencer.

___

Suivez la couverture de l’AP sur l’intelligence artificielle sur https://apnews.com/hub/artificial-intelligence.

Source link -57