Customize this title in french Pourquoi le « jamboree de vanité » de Sunak sur la sécurité de l’IA a été en fait… un succès | Technologie

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsFou Max Tegmark, le sommet sur l’intelligence artificielle de la semaine dernière à Bletchley Park a été un moment émouvant. Le professeur du MIT et chercheur en IA était à l’origine d’une lettre cette année appelant à une pause dans le développement de systèmes avancés. Cela ne s’est pas produit, mais cela a constitué une contribution cruciale à l’élan politique et académique qui a abouti au rassemblement de Bletchley. »[The summit] m’a en fait rendu plus optimiste. Cela a vraiment dépassé mes attentes », m’a-t-il dit. «Je travaille depuis environ 10 ans, dans l’espoir qu’un jour il y ait un sommet international sur la sécurité de l’IA. Voir cela se produire de mes propres yeux – et cela est étonnamment bien fait – était très émouvant.Tenant un billet de 50 £ avec le visage du décrypteur de Bletchley, Alan Turing, Tegmark a ajouté que le génie informatique – une figure fondamentale de l’histoire de l’IA – avait eu raison. « Je suis d’accord avec Turing : le résultat par défaut si nous nous précipitons pour construire des machines beaucoup plus intelligentes que nous est que nous perdons le contrôle de notre avenir et que nous serons probablement anéantis. »Mais Tegmark pense que des progrès ont été réalisés à Bletchley. Voici un bref résumé de ce qui s’est passé.La déclaration de BletchleyLe sommet a débuté par un communiqué signé par près de 30 gouvernements, dont les États-Unis et la Chine, ainsi que par l’UE. Rishi Sunak a qualifié la déclaration de « tout à fait incroyable », ayant réussi à amener des superpuissances concurrentes et des pays ayant des points de vue variés sur le développement de l’IA à s’entendre sur un message commun.La déclaration commence par une référence à l’IA offrant « d’énormes opportunités mondiales » avec le potentiel de « transformer et améliorer le bien-être humain, la paix et la prospérité » – mais la technologie doit être conçue d’une manière « centrée sur l’humain, digne de confiance et responsable ». . L’accent est également mis sur la coopération internationale, notamment en faisant référence à un « réseau international inclusif de recherche scientifique » sur la sécurité de l’IA.Mais la section la plus remarquable faisait référence à l’objectif central du sommet : s’assurer que l’IA de pointe – le terme désignant les systèmes les plus avancés – ne devienne pas horriblement incontrôlable. Faisant référence au potentiel de catastrophe de l’IA, il a déclaré : « Il existe un potentiel de dommages graves, voire catastrophiques, délibérés ou non, découlant des capacités les plus importantes de ces modèles d’IA. »Cette phrase accrocheuse était précédée d’une référence à des préjudices plus immédiats comme les cyberattaques et la désinformation. Le débat sur la question de savoir si l’IA pourrait anéantir l’humanité est en cours – certains pensent également que les craintes sont exagérées – mais il semble y avoir un consensus sur le fait que la désinformation générée par l’IA est une préoccupation immédiate à laquelle il faut répondre.L’ambition de Sunak de faire du sommet un événement régulier a été réalisée. La Corée du Sud organisera un événement virtuel dans six mois et la France accueillera un sommet à part entière dans 12 mois.Le Royaume-Uni n’a peut-être pas réussi à convaincre les dirigeants mondiaux de regarder la caméra, mais il les a amenés à s’entendre sur la création d’un cadre de sécurité pour l’IA. Photographie : Léon Neal/Getty ImagesAlors, ces mots soigneusement assemblés mèneront-ils à des changements réglementaires ou législatifs ? Charlotte Walker-Osborn, partenaire technologique du cabinet d’avocats international Morrison Foerster, affirme que la déclaration « favorisera probablement un certain niveau de consensus législatif et gouvernemental international autour des principes clés de la réglementation de l’IA ». Par exemple, elle cite des principes fondamentaux tels que la transparence sur le moment et la manière dont l’IA est utilisée, les informations sur les données utilisées dans les systèmes de formation et l’exigence de fiabilité (couvrant tout, des résultats biaisés aux deepfakes).Cependant, Walker-Osborn estime qu’une « approche véritablement uniforme est peu probable » en raison des « approches différentes en matière de réglementation et de gouvernance en général » selon les pays. Néanmoins, la déclaration marque une étape importante, ne serait-ce que parce qu’elle reconnaît que l’IA ne peut pas continuer à se développer sans une surveillance plus forte.Rapport sur l’état de l’IASunak a annoncé un rapport sur « l’état de la science de l’IA » lors du sommet, le premier étant présidé par Yoshua Bengio, l’un des trois soi-disant « parrains de l’IA », qui a remporté le prix ACM Turing – l’équivalent informatique du prix Nobel. – en 2018 pour ses travaux sur l’intelligence artificielle. Le groupe qui rédigera le rapport comprendra d’éminents universitaires en IA et sera soutenu par un comité consultatif composé des pays qui ont participé au sommet (les États-Unis et la Chine en feront donc partie).Bengio était signataire de la lettre de Tegmark et a également signé une déclaration en mai avertissant que l’atténuation du risque d’extinction due à l’IA devrait être une priorité mondiale aux côtés des pandémies et de la guerre nucléaire. Il prend au sérieux le sujet de la sécurité de l’IA.Le Premier ministre britannique a déclaré que l’idée était inspirée par le Groupe d’experts intergouvernemental sur l’évolution du climat et soutenue par le secrétaire général de l’ONU, António Guterres. qui ont assisté au sommet. Cependant, il ne s’agira pas d’un projet hébergé par l’ONU et l’institut de sécurité de l’IA, soutenu par le gouvernement britannique, accueillera le bureau de Bengio pour le rapport.Tests de sécurité internationauxUn groupe de gouvernements participant au sommet et de grandes sociétés d’IA ont convenu de collaborer pour tester leurs modèles d’IA avant et après leur publication. Les 11 gouvernements signataires comprenaient l’UE, les États-Unis, le Royaume-Uni, l’Australie et le Japon – mais pas la Chine. Les huit sociétés comprenaient Google, le développeur ChatGPT OpenAI, Microsoft, Amazon et Meta.Le Royaume-Uni a déjà conclu des partenariats entre son institut de sécurité de l’IA et son homologue américain (ce qui a été annoncé avant le sommet de la semaine dernière) ainsi qu’avec Singapour, pour collaborer sur les tests de sécurité. Il s’agit d’une démarche volontaire et il existe un certain scepticisme quant à l’impact qu’auront les annonces de Bletchley si elles ne sont pas étayées par une réglementation. Sunak a déclaré aux journalistes la semaine dernière qu’il n’était pas encore prêt à légiférer et qu’il fallait d’abord tester davantage les modèles avancés (bien qu’il ait ajouté que des « exigences contraignantes » seraient probablement nécessaires à un moment donné).ignorer la promotion de la newsletter passéeAlex Hern se penche chaque semaine sur la façon dont la technologie façonne nos vies », »newsletterId »: »tech-scape », »successDescription »: »La plongée hebdomadaire d’Alex Hern dans la façon dont la technologie façonne nos vies »} » config= » »renderingTarget »: »Web », »darkModeAvailable »:false « >Avis de confidentialité: Les newsletters peuvent contenir des informations sur des organismes de bienfaisance, des publicités en ligne et du contenu financé par des tiers. Pour plus d’informations, consultez notre Politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletterCela signifie que le décret de la Maison Blanche sur l’utilisation de l’IA, publié la même semaine que le sommet, et la prochaine loi sur l’IA de l’Union européenne sont en avance sur le Royaume-Uni en ce qui concerne l’introduction d’une nouvelle réglementation contraignante sur la technologie. »En ce qui concerne le comportement des constructeurs de modèles… la loi européenne sur l’IA et le décret du président Biden auront probablement un impact plus important », déclare Martha Bennett, analyste principale chez Forrester.D’autres, néanmoins, sont satisfaits de la façon dont Bletchley a façonné le débat et réuni des points de vue disparates. La professeure Dame Muffy Calder, directrice adjointe et directrice du Collège des sciences et de l’ingénierie de l’Université de Glasgow, craignait que le sommet ne s’attarde trop sur les risques existentiels et non sur les « problèmes réels et actuels ». Cette peur, estime-t-elle, a été apaisée. « Le sommet et la déclaration vont au-delà des seuls risques liés à « l’IA frontalière » », dit-elle. « Par exemple, des questions telles que la transparence, l’équité, la responsabilité, la réglementation, une surveillance humaine appropriée et les cadres juridiques sont toutes explicitement évoquées dans la déclaration. Tout comme la coopération. C’est bien. »En savoir plus sur cette histoireLa semaine à…

Source link -57