Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Le Royaume-Uni devrait se concentrer sur l’établissement de normes mondiales pour les tests d’intelligence artificielle au lieu d’essayer de procéder lui-même à toutes les vérifications, selon une société assistant l’AI Safety Institute du gouvernement.
Marc Warner, directeur général de Faculté AI, a déclaré que l’institut nouvellement créé pourrait se retrouver « obligé » d’examiner un éventail de modèles d’IA – la technologie qui sous-tend les chatbots comme ChatGPT – en raison du travail de pointe du gouvernement en matière de sécurité de l’IA. .
Rishi Sunak a annoncé la création de l’AI Safety Institute (AISI) l’année dernière avant le sommet mondial sur la sécurité de l’IA, qui a obtenu l’engagement des grandes entreprises technologiques à coopérer avec l’UE et 10 pays, dont le Royaume-Uni, les États-Unis, la France et le Japon. sur le test de modèles d’IA avancés avant et après leur déploiement.
Le Royaume-Uni joue un rôle de premier plan dans cet accord en raison de ses travaux avancés sur la sécurité de l’IA, soulignés par la création de l’institut.
Warner, dont la société basée à Londres a des contrats avec l’institut britannique qui l’aident notamment à tester des modèles d’IA pour déterminer s’ils peuvent être incités à enfreindre leurs propres directives de sécurité, a déclaré que l’institut devrait être un leader mondial dans l’établissement de normes de test.
« Je pense qu’il est important qu’il établisse des normes pour le monde entier, plutôt que d’essayer de tout faire lui-même », a-t-il déclaré.
Warner, dont l’entreprise effectue également des travaux pour le NHS sur Covid et le ministère de l’Intérieur sur la lutte contre l’extrémisme, a déclaré que l’institut avait fait un « très bon départ » et que « je ne pense pas avoir jamais vu quoi que ce soit dans le gouvernement. aussi vite que ça.
Il a toutefois ajouté que « la technologie évolue également rapidement ». Il a déclaré que l’institut devrait mettre en place des normes que d’autres gouvernements et entreprises pourraient suivre, comme le « red teaming », où des spécialistes simulent une utilisation abusive d’un modèle d’IA, plutôt que de prendre en charge tout le travail lui-même.
Warner a déclaré que le gouvernement pourrait se retrouver dans une situation où il « ferait tout ce qu’il faut » et qu’un retard pourrait s’accumuler « là où il n’aurait pas la bande passante nécessaire pour accéder à tous les modèles assez rapidement ».
Faisant référence au potentiel de l’institut en tant qu’organisme de normalisation international, il a déclaré : « Ils peuvent établir des normes vraiment brillantes, de sorte que d’autres gouvernements, d’autres entreprises… puissent s’allier à ces normes. Il s’agit donc d’une vision à long terme beaucoup plus évolutive sur la manière d’assurer la sécurité de ces éléments.
Warner s’est entretenu avec le Guardian peu de temps avant qu’AISI ne publie une mise à jour sur son programme de tests la semaine dernière et a reconnu qu’il n’avait pas la capacité de tester « tous les modèles publiés » et qu’il se concentrerait uniquement sur les systèmes les plus avancés.
La semaine dernière, le Financial Times a rapporté que les grandes entreprises d’IA faisaient pression sur le gouvernement britannique pour qu’il accélère ses tests de sécurité des systèmes d’IA. Les signataires de l’accord de test volontaire incluent Google, le développeur ChatGPT OpenAI, Microsoft et Meta de Mark Zuckerberg.
Les États-Unis ont également annoncé la création d’un institut de sécurité de l’IA qui participera au programme de tests annoncé lors du sommet de Bletchley Park. La semaine dernière, l’administration Biden a annoncé la création d’un consortium pour aider la Maison Blanche à atteindre les objectifs définis dans son décret d’octobre sur la sécurité de l’IA, qui incluent l’élaboration de lignes directrices pour le filigrane du contenu généré par l’IA. Les membres du consortium, qui sera hébergé par l’institut américain, comprennent Meta, Google, Apple et OpenAI.
Le ministère britannique de la Science, de l’Innovation et de la Technologie a déclaré que les gouvernements du monde entier « doivent jouer un rôle clé » dans le test des modèles d’IA.
« Le Royaume-Uni fait avancer cet effort par le biais du premier institut de sécurité de l’IA au monde, qui mène des évaluations, des recherches et partage des informations, et améliore la compréhension collective de la sécurité de l’IA dans le monde », a déclaré un porte-parole. « Le travail de l’institut continuera à contribuer à informer les décideurs politiques du monde entier sur la sécurité de l’IA. »