Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes entreprises technologiques les plus avancées permettront pour la première fois aux gouvernements de contrôler leurs outils d’intelligence artificielle, a annoncé Rishi Sunak, alors que le Premier ministre cherche à combattre une menace qui, selon lui, est potentiellement aussi grave que la guerre nucléaire.Des sociétés telles que Meta, Google Deep Mind et OpenAI ont accepté d’autoriser les régulateurs à tester leurs derniers produits d’IA avant de les rendre publics, ce qui, selon les responsables, ralentira la course au développement de systèmes capables de rivaliser avec les humains.Sunak a fait cette annonce jeudi après un sommet de deux jours à Bletchley Park au cours duquel un groupe diversifié comprenant l’homme le plus riche du monde, le vice-président des États-Unis et un haut responsable du gouvernement chinois ont convenu que l’IA représente un risque grave pour l’humanité.S’adressant aux journalistes à la fin du sommet, Sunak a déclaré : « Je crois que les réalisations de ce sommet feront pencher la balance en faveur de l’humanité. »Le Premier ministre a également annoncé un soutien international à un organisme d’experts inspiré du Groupe d’experts intergouvernemental sur l’évolution du climat, qui serait présidé par l’un des « parrains » de l’IA moderne.S’exprimant à la clôture du premier sommet sur la sécurité de l’IA, Sunak a déclaré que les accords conclus avec plusieurs pays et sociétés d’IA avaient considérablement réduit la menace posée par la technologie.Cependant, il a été contraint de défendre le caractère volontaire de l’accord sur les tests, son gouvernement refusant d’introduire une législation visant à freiner le développement de l’IA.Expliquant que le Royaume-Uni devait agir plus rapidement que ne le permettait un calendrier législatif, il a déclaré : « La technologie se développe à un tel rythme que les gouvernements doivent s’assurer que nous pouvons suivre le rythme. »Il a déclaré qu’à terme, des « exigences contraignantes » seraient probablement nécessaires pour les entreprises d’IA.Dans le cadre de l’accord annoncé à Bletchley Park, des gouvernements et des sociétés d’IA partageant les mêmes idées ont convenu de travailler ensemble pour tester la sécurité des nouveaux modèles d’IA avant et après leur lancement. Les modèles d’IA, qui sous-tendent des outils tels que le chatbot ChatGPT, seront testés en collaboration avec les gouvernements contre une série de dangers, notamment la sécurité nationale, la sûreté et les préjudices sociétaux.Cette décision fait suite à la publication cette semaine d’un décret par la Maison Blanche exigeant que les grandes entreprises technologiques soumettent les résultats des tests de leurs modèles au gouvernement américain avant qu’ils ne soient rendus publics.Sunak a déclaré que les tests seraient dirigés par de nouveaux instituts de sécurité de l’IA aux États-Unis et au Royaume-Uni, l’organisme britannique se positionnant comme une « plaque tournante mondiale » pour l’initiative multilatérale – qui n’inclut pas la participation de la Chine.L’accord de test est soutenu par l’UE et 10 pays, dont les États-Unis, le Royaume-Uni, le Japon, la France et l’Allemagne. Les principales sociétés d’IA qui ont accepté de tester sont Google, OpenAI, Amazon, Microsoft et Meta.Sunak a déclaré que le secrétaire général de l’ONU, António Guterres, avait contribué à obtenir le soutien de la communauté internationale pour qu’un groupe d’experts publie un rapport sur « l’état de la science de l’IA ». »Cette idée s’inspire de la façon dont le Groupe d’experts intergouvernemental sur l’évolution du climat a été créé pour parvenir à un consensus scientifique international », a déclaré Sunak. « Avec le soutien du secrétaire général de l’ONU, chaque pays s’est engagé à nommer des experts. »Yoshua Bengio, connu comme l’un des parrains de l’IA moderne, présidera la production du premier rapport de sécurité. Bengio, lauréat du prix ACM Turing – l’équivalent informatique du prix Nobel – a été un éminent défenseur de la prudence dans le débat sur le développement de l’IA.Il était le principal signataire d’une lettre publiée en mars appelant à une pause de six mois dans les expériences géantes d’IA, et il a soutenu une déclaration en mai avertissant que le risque d’extinction dû à l’IA devrait être traité avec la même priorité que l’atténuation du risque sociétal. des pandémies et de la guerre nucléaire.S’adressant aux journalistes plus tôt jeudi, Sunak a évoqué la comparaison entre le nucléaire et la pandémie. « Les personnes qui développent elles-mêmes cette technologie ont souligné le risque que l’IA peut poser et il est important de ne pas être alarmiste à ce sujet. Il y a un débat sur ce sujet. Les gens de l’industrie eux-mêmes ne sont pas d’accord et nous ne pouvons pas en être certains », a-t-il déclaré. »Mais il y a des raisons de croire que cela peut présenter un risque d’une ampleur telle que les pandémies et la guerre nucléaire, et c’est pourquoi, en tant que dirigeants, nous avons la responsabilité d’agir pour prendre les mesures nécessaires pour protéger les gens, et c’est exactement ce que nous faisons ». ce que je fais.L’IA est un « copilote » et non une menace pour l’emploi, déclare Rishi Sunak – vidéoLes propos de Sunak font écho à ceux d’Elon Musk, avec qui il doit animer une conversation jeudi soir, qui sera diffusée sur la plateforme de médias sociaux du milliardaire technologique X. Musk a déclaré aux journalistes lors du sommet de mercredi que l’IA était « l’une des plus grandes menaces ». à l’humanité ».Les préoccupations autour de l’IA – terme désignant les systèmes informatiques capables d’effectuer des tâches généralement associées à des êtres intelligents – vont de la menace d’une désinformation produite en masse lors des élections aux systèmes avancés échappant au contrôle et menaçant l’humanité.Les annonces du Premier ministre constituent le point culminant d’une deuxième journée d’activité diplomatique intense lors du sommet international sur la sécurité de l’IA.Les responsables britanniques ont été ravis de pouvoir publier un communiqué au début du sommet, signé par 28 gouvernements, dont le Royaume-Uni, les États-Unis, l’UE et la Chine. La déclaration dite de Bletchley promettait que les signataires travailleraient ensemble sur des normes de sécurité communes dans le cadre d’un processus que les responsables ont comparé aux sommets de la Cop sur la crise climatique.Les tentatives de Sunak de positionner le Royaume-Uni comme leader mondial dans l’élaboration de nouvelles règles en matière d’IA ont été en partie éclipsées mercredi par l’annonce par la secrétaire américaine au Commerce, Gina Raimondo, d’un nouvel institut de sécurité de l’IA à Washington. Les responsables britanniques ont déclaré qu’ils espéraient travailler en étroite collaboration avec le nouvel institut américain et d’autres pour créer un réseau d’organisations similaires qui pourraient effectuer des tests dans le monde entier, l’accord multilatéral sur les tests constituant un cadre pour cette collaboration.S’exprimant lors d’une conférence de presse à la clôture du sommet, Sunak a déclaré qu’il reconnaissait les inquiétudes quant au potentiel de suppression d’emplois de l’IA, mais que les travailleurs devraient considérer la technologie comme un « copilote ». »Je sais que c’est une anxiété que les gens ressentent », a-t-il déclaré. « Nous devrions considérer l’IA bien plus comme un copilote que comme quelque chose qui va nécessairement remplacer le travail de quelqu’un. L’IA est un outil qui peut aider presque tout le monde à faire son travail mieux, plus rapidement, et c’est ainsi que nous voyons déjà son déploiement.
Source link -57