Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
LONDRES — Londres et Washington devraient annoncer une « collaboration étroite » sur la sécurité de l’IA dès mercredi, a confirmé un responsable britannique et américain à POLITICO.
La collaboration devrait associer les nouveaux garde-fous que la Maison Blanche a placés sur le développement de l’intelligence artificielle dans le décret de cette semaine avec les travaux existants du « Frontier AI Taskforce » du Royaume-Uni.
« Nous prévoyons d’annoncer cette semaine une étroite collaboration bilatérale avec l’institut américain de sécurité », a déclaré à POLITICO un responsable britannique proche de la planification du sommet britannique sur la sécurité de l’IA. La personne a obtenu l’anonymat pour parler du sommet, qui aura lieu à Bletchley Park les 1er et 2 novembre.
Les deux pays annonceront leur propre version des instituts au début du sommet. Dans un discours mercredi à Londres, la vice-présidente américaine Kamala Harris, qui représente l’administration Biden au sommet, annoncera la création de l’Institut américain de sécurité de l’IA, qui sera hébergé au ministère du Commerce, selon un responsable américain ayant requis l’anonymat. discuter des plans internes.
« Il s’agira de créer des lignes directrices, des normes et des meilleures pratiques pour évaluer et atténuer l’ensemble des risques », a ajouté le responsable américain. « Nous devons nous attaquer à l’ensemble des risques, depuis les risques potentiellement catastrophiques jusqu’aux préjudices sociétaux qui se produisent déjà. [as] les préjugés, la discrimination et la prolifération de la désinformation.
Pendant ce temps, le Premier ministre britannique Rishi Sunak a annoncé qu’il créerait un « Institut de sécurité de l’IA » qui examinerait, évaluerait et testerait de nouveaux types de technologies émergentes. Sunak a déclaré que le nouvel institut s’appuierait sur les travaux du groupe de travail britannique Frontier AI, qui, selon lui, a déjà bénéficié d’un « accès privilégié » aux modèles technologiques de grandes sociétés d’IA telles que Google DeepMind, Anthropic et OpenAI.
Les pays « participeront également au partage d’informations et à la collaboration en matière de recherche », a déclaré le responsable américain, et feront leurs propres annonces séparées. Les États-Unis partageront également des informations avec d’autres instituts de sécurité similaires dans d’autres pays.
Le décret de la Maison Blanche signé lundi exigera que les développeurs des systèmes d’IA les plus puissants partagent les résultats de leurs tests de sécurité et d’autres informations critiques avec le gouvernement américain. Il est conçu pour garantir la sécurité des systèmes d’IA avant que les entreprises ne les rendent publics. Dans le cadre de l’EO, Washington mettra en place un « Conseil de sûreté et de sécurité de l’IA ».
« Nous essayons de diriger avec du contenu ici et nous essayons de nous engager avec d’autres pays avec du contenu et c’est une vision, et la vice-présidente l’exposera dans son discours, […] sur la façon dont les États-Unis perçoivent la politique et la gouvernance de l’IA », a déclaré le conseiller spécial de la Maison Blanche pour l’IA, Ben Buchanan, dans le prochain épisode du podcast POLITICO Tech sur le calendrier de l’EO qui aura lieu la même semaine que l’IA au Royaume-Uni. sommet. Harris prononcera un discours à Londres sur les initiatives de l’administration en matière d’IA, y compris l’EO mercredi après-midi.
La secrétaire britannique à la technologie, Michelle Donelan, a déclaré mardi à POLITICO qu’il était plus facile pour les États-Unis de diriger l’industrie vers plus de transparence, car celle-ci est dominée par des entreprises américaines, mais qu’il y a des aspects du travail sur lesquels le Royaume-Uni peut avancer plus rapidement.
« Je sais que l’Amérique et d’autres pays auront également des projets pour la création d’instituts, mais nous pouvons le faire beaucoup plus rapidement, car nous avons déjà cette organisation initiale dans le monde. [Frontier AI Taskforce], » dit-elle. «Nous disposons déjà de cette expertise et de ce financement, et nos processus nous permettent de le faire plus rapidement.»
« La vision future est d’assurer la sécurité des modèles avant leur sortie », a déclaré Sunak jeudi. La Grande-Bretagne devrait publier certaines informations publiquement, mais réservera les informations plus sensibles en matière de sécurité nationale à un groupe plus restreint de gouvernements partageant les mêmes idées.