Customize this title in french Downing Street tente de s’entendre sur une déclaration sur les risques liés à l’IA avec les dirigeants mondiaux | Intelligence artificielle (IA)

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les conseillers de Rishi Sunak tentent de parvenir à un accord entre les dirigeants mondiaux sur une déclaration mettant en garde contre les risques de l’intelligence artificielle alors qu’ils finalisent l’ordre du jour du sommet sur la sécurité de l’IA le mois prochain.

Les responsables de Downing Street ont parcouru le monde pour discuter avec leurs homologues chinois, européens et américains, alors qu’ils s’efforcent de se mettre d’accord sur les mots à utiliser dans un communiqué lors de la conférence de deux jours.

Mais il est peu probable qu’ils se mettent d’accord sur la création d’une nouvelle organisation internationale chargée d’examiner l’IA de pointe, malgré l’intérêt du Royaume-Uni à donner au groupe de travail gouvernemental sur l’IA un rôle mondial.

Le sommet de Sunak sur l’IA produira un communiqué sur les risques des modèles d’IA, fournira une mise à jour sur les directives de sécurité négociées par la Maison Blanche et se terminera par des pays « partageant les mêmes idées » débattant de la manière dont les agences de sécurité nationale peuvent examiner les versions les plus dangereuses de la technologie.

La possibilité d’une certaine forme de coopération internationale sur l’IA de pointe pouvant constituer une menace pour la vie humaine sera également discutée lors de la dernière journée du sommet, les 1er et 2 novembre à Bletchley Park, selon un projet d’ordre du jour consulté par le Guardian. .

Le projet fait référence à la création d’un « Institut de sécurité de l’IA » pour permettre l’examen minutieux des modèles d’IA frontaliers en matière de sécurité nationale – terme désignant les versions les plus avancées de la technologie.

Cependant, la semaine dernière, le représentant du Premier ministre au sommet a minimisé la création d’une telle organisation, tout en soulignant que « la collaboration est essentielle » dans la gestion des risques liés à l’IA aux frontières.

Dans un article publié la semaine dernière sur X, anciennement connu sous le nom de Twitter, Matt Clifford a écrit : « Il ne s’agit pas de créer une seule nouvelle institution internationale. Nous pensons que la plupart des pays voudront développer leurs propres capacités dans ce domaine, notamment pour évaluer les modèles frontières.

3/ A quoi cela pourrait-il ressembler ? Il ne s’agit *pas* de créer une seule nouvelle institution internationale. Nous pensons que la plupart des pays voudront développer leurs propres capacités dans ce domaine, notamment pour évaluer les modèles frontières.

– Matt Clifford (@matthewclifford) 3 octobre 2023

Jusqu’à présent, le Royaume-Uni ouvre la voie dans le processus d’IA frontalière, en créant un groupe de travail sur l’IA frontalière sous la direction de l’entrepreneur technologique Ian Hogarth. Le vice-Premier ministre Oliver Dowden a déclaré le mois dernier qu’il espérait que le groupe de travail « puisse évoluer pour devenir une structure institutionnelle permanente, avec une offre internationale sur la sécurité de l’IA ».

Clifford a annoncé la semaine dernière qu’environ 100 personnes participeraient au sommet, parmi lesquelles des ministres du monde entier, des chefs d’entreprise, des universitaires et des représentants de la société civile internationale.

Selon le projet d’ordre du jour, le sommet comprend dès le premier jour une discussion en trois volets basée sur une discussion sur les risques associés aux modèles frontières, une discussion sur l’atténuation de ces risques et une discussion sur les opportunités de ces modèles.

Cela serait suivi d’un court communiqué signé par les délégations des pays qui exprimerait un consensus sur les risques et les opportunités des modèles frontières.

Les entreprises participant au sommet, parmi lesquelles devraient figurer le développeur de ChatGPT OpenAI, Google et Microsoft, publieront ensuite des détails sur la manière dont elles adhèrent aux engagements en matière de sécurité de l’IA convenus avec la Maison Blanche en juillet. Ces engagements comprennent des tests de sécurité externes des modèles d’IA avant leur publication et un examen continu de ces systèmes une fois qu’ils sont opérationnels.

Selon un article paru la semaine dernière dans Politico, la Maison Blanche met à jour les engagements volontaires – en référence à la sécurité, à la cybersécurité et à la manière dont les systèmes d’IA pourraient être utilisés à des fins de sécurité nationale – et pourrait faire une annonce ce mois-ci.

La deuxième journée comprendra un rassemblement plus restreint d’environ 20 personnes, y compris des pays « partageant les mêmes idées », selon le projet d’ordre du jour, avec une conversation sur la place que pourrait prendre l’IA dans cinq ans et les opportunités positives de l’IA liées aux objectifs de développement durable. Cela comprenait une discussion sur un institut de sécurité.

Dans son fil de discussion sur X, Clifford a déclaré que le Royaume-Uni restait désireux de collaborer avec d’autres pays sur la sécurité de l’IA.

« La collaboration est essentielle pour garantir que nous pouvons gérer les risques liés à Frontier AI – avec la société civile, les universitaires, les experts techniques et d’autres pays », a-t-il écrit.

Un porte-parole du gouvernement a déclaré : « Nous avons été très clairs sur le fait que ces discussions impliqueront l’exploration de domaines de collaboration potentielle en matière de recherche sur la sécurité de l’IA, y compris l’évaluation et les normes.

« Des discussions internationales sur ce travail sont déjà en cours et progressent bien, notamment en discutant de la manière dont nous pouvons collaborer entre les pays et les entreprises et avec des experts techniques pour évaluer les modèles frontières. Il existe de nombreuses façons différentes d’y parvenir et nous sommes impatients de convoquer cette conversation en novembre lors du sommet.



Source link -57