Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsAssis dans une cabane construite à cet effet dans le domaine historique de Bletchley Park, les responsables britanniques pensaient avoir réussi un coup d’État diplomatique.Sur scène, devant eux se trouvait la secrétaire britannique à la technologie, Michelle Donelan, et derrière elle se trouvaient des représentants de haut niveau des États-Unis et de la Chine, réunis pour la première fois pour discuter de la réglementation internationale de l’intelligence artificielle.Mieux encore, les deux pays faisaient partie des 28 signataires de la « Déclaration de Bletchley », un accord visant à travailler ensemble sur des normes de sécurité susceptibles d’empêcher les systèmes d’IA de se retourner contre l’humanité.Rishi Sunak a déclaré jeudi : « Certains ont dit que nous ne devrions même pas inviter la Chine ; d’autres ont dit que nous ne pourrions jamais parvenir à un accord avec eux. Tous deux avaient tort. Une stratégie sérieuse pour la sécurité de l’IA doit commencer par impliquer toutes les principales puissances mondiales de l’IA, et toutes ont signé le communiqué de Bletchley Park.»Les délégués se sont dits ravis que la Chine soit non seulement présente, mais joue un rôle substantiel dans les discussions – même si les responsables de Pékin n’ont pas été invités à assister aux discussions plus sensibles du deuxième jour.Les responsables britanniques, dirigés par le facilitateur chevronné Jonathan Black et l’investisseur technologique Matt Clifford, ont passé des semaines à persuader Pékin d’assister au sommet et de signer le communiqué, notamment en autorisant les responsables à assister aux deux jours du sommet.Cependant, derrière ces revers diplomatiques, il y a des signes que les grandes puissances mondiales se bousculent pour obtenir une position. Chacun souhaite jouer un rôle prééminent lorsqu’il s’agit de fixer les règles régissant le développement de l’IA, conscient que cela pourrait également contribuer à faire pencher la balance en faveur de ses propres priorités et entreprises nationales.Certains responsables britanniques espéraient obtenir l’approbation internationale pour utiliser le groupe de travail britannique sur l’IA comme plate-forme internationale pour tester de nouveaux systèmes avant qu’ils ne soient rendus publics. Au lieu de cela, Gina Raimondo, la secrétaire américaine au Commerce, a annoncé que son gouvernement développerait son propre institut de ce type et que les deux travailleraient en étroite collaboration.Joe Biden a également publié son propre décret sur l’IA quelques jours seulement avant le début du sommet – bien que des diplomates britanniques aient déclaré que cela avait contribué à concentrer les discussions à Bletchley.Sunak espérait un accord selon lequel la Grande-Bretagne deviendrait une plaque tournante des tests de sécurité de l’IA, mais les États-Unis ont également des projets dans cette direction. Photographie : Chris J. Ratcliffe/EPAL’UE, quant à elle, est déjà bien avancée dans l’élaboration de ses propres nouvelles réglementations en matière d’IA. Věra Jourova, Le vice-président de la Commission européenne chargé des valeurs et de la transparence a déclaré que le Royaume-Uni était à la traîne par sa « propre décision ». Sunak soutient qu’il est trop tôt pour légiférer. « Comment pouvons-nous rédiger des lois qui ont du sens pour quelque chose que nous ne comprenons pas encore pleinement ? » il a dit la semaine dernière.Des désaccords existent également sur ce qui devrait arriver avec l’IA open source, qui permet à chacun d’utiliser et de développer de nouveaux modèles. Les gouvernements britannique et américain craignent que cela puisse permettre aux citoyens de causer des dommages sociaux à grande échelle, tandis que les Français sont beaucoup plus enthousiastes quant à ses possibilités. Yann LeCun, pionnier français de l’IA et scientifique en chef de l’IA chez Meta, la société mère de Facebook, est un ardent défenseur de l’open source. »Certains pays – dont certains dans l’Union européenne, la France parmi eux et certains dans les pays du Sud – sont plus généralement intéressés par la disponibilité de cette technologie dans plusieurs pays », a déclaré Tino Cuellar, président du Carnegie Endowment for International Peace, qui a assisté au sommet.Néanmoins, les responsables de plusieurs pays estiment qu’ils jettent les bases d’un système capable de relier diverses formes de réglementation nationale.Sunak a annoncé jeudi que les pays du monde entier avaient convenu de créer un groupe mondial de scientifiques pour déterminer ce que l’IA peut réellement faire, sur le modèle du Groupe d’experts intergouvernemental sur l’évolution du climat. Les entreprises ont également accepté de permettre aux gouvernements de contrôler la sécurité de leurs modèles les plus avancés, même si cela ne sera pas obligatoire.Certains comparent le nouveau système probable aux règles de contrôle du trafic aérien, où certaines normes minimales sont acceptées dans le monde développé mais où les pays sont libres d’insister sur des normes plus strictes. D’autres parlent de construire quelque chose qui ressemble davantage à un processus d’approbation des médicaments, dans lequel certains pays acceptent les décisions prises par les régulateurs des autres.Les personnes présentes jeudi dans le lieu principal du sommet ont décrit qu’il était à moitié plein, de nombreux invités de haut niveau, dont Justin Trudeau, le premier ministre du Canada, ayant décidé de se connecter à distance.Mais de nombreux acteurs du secteur étaient ravis de voir les dirigeants mondiaux discuter des menaces contre lesquelles ils mettaient en garde en privé, et dans certains cas publiquement, depuis des années.Max Tegmark, figure clé de la campagne visant à suspendre le développement avancé de l’IA, a déclaré : « Je travaille depuis environ 10 ans, dans l’espoir qu’un jour il y ait un sommet international sur la sécurité de l’IA. Voir cela se produire de mes propres yeux – et c’était étonnamment bien – était en fait très émouvant.
Source link -57