Customize this title in french Qui est en charge? Les capitales occidentales se bousculent pour prendre la tête de l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Appuyez sur play pour écouter cet article Exprimé par l’intelligence artificielle. C’est une semaine décisive pour le contrôle de l’intelligence artificielle. Lundi, la Maison Blanche a publié son décret très attendu sur tout, du financement de nouvelles formes de technologie à la répression des abus potentiels. Le même jour, le groupe des principales économies démocratiques du G7 a annoncé un code non contraignant distinct pour freiner ce qu’on appelle l’IA générative – des outils comme ChatGPT qui ont captivé l’imagination du public cette année. Pour ne pas être en reste, le Royaume-Uni organisera à partir de mercredi un sommet de deux jours sur la sécurité de l’IA, avec parmi ses invités la vice-présidente américaine Kamala Harris et la présidente de la Commission européenne Ursula von der Leyen. En arrière-plan, l’Union européenne travaille également sur ses propres nouvelles lois qui devraient être finalisées d’ici décembre. Pourtant, le carrousel d’annonces axées sur l’IA et d’événements géopolitiques de cette semaine souligne également une vérité clé : les gouvernements occidentaux ont encore du mal à se projeter comme leaders dans une course technologique qui a à la fois fasciné et alarmé leurs citoyens. De nombreux responsables européens, britanniques et américains qui se sont entretenus avec POLITICO étaient impatients de souligner que les démocraties tiraient dans la même direction. Mais plusieurs d’entre eux ont encore critiqué leurs homologues d’autres pays, soit pour ne pas avoir légiféré assez rapidement, soit pour avoir échoué à promouvoir l’innovation. « Nous chantons tous sur le même cantique », a déclaré un responsable occidental impliqué dans ces négociations mondiales sur l’IA, qui a bénéficié de l’anonymat pour discuter de questions sensibles. « Mais il s’agit en grande partie d’une question de politique de détail, et les politiciens veulent montrer aux électeurs qu’ils sont aux commandes. » L’enjeu est de savoir qui contrôlera le développement futur d’une technologie qui a suscité l’espoir de progrès spectaculaires dans des domaines tels que la science médicale, tout en faisant craindre qu’elle puisse saper la démocratie et même déclencher une guerre nucléaire. Au cours de l’année dernière, la montée en puissance des services d’IA générative ChatGPT d’OpenAI et Bard de Google a donné un premier aperçu de ce qui pourrait nous arriver. Ces systèmes peuvent produire du texte, des vidéos et des images réalistes de manière à faire croire aux gens que ces services automatisés ont leur propre esprit. Les hommes politiques et les décideurs politiques ont été désireux de montrer leurs compétences en matière de gestion de l’IA, en collaborant souvent avec des gouvernements partageant les mêmes idées, tout en rivalisant pour se présenter comme des pionniers mondiaux. Lors du sommet britannique de cette semaine, les dirigeants devraient soutenir de nouveaux efforts visant à promouvoir ce que l’on appelle « l’IA responsable », selon le communiqué final de l’événement obtenu par POLITICO. Ce terme reflète un effort distinct de gouvernance de l’IA annoncé par les Nations Unies la semaine dernière. – fait référence au fait d’empêcher la technologie de causer des dommages à la société. De nombreux efforts de gouvernance occidentaux répartis dans les pays du G7, l’UE et l’Amérique du Nord partagent une histoire similaire remontant aux engagements non contraignants pris par l’Organisation de coopération et de développement économiques, un groupe composé principalement de pays riches, en 2019. Cela inclut les engagements des entreprises et des gouvernements à renforcer la transparence sur la manière dont les systèmes d’IA sont créés ; des contrôles plus approfondis sur la manière dont ces modèles accèdent aux données des personnes ; et une plus grande collaboration internationale sur les normes et la manière dont ces services complexes sont déployés à l’échelle mondiale. Lors du sommet britannique de cette semaine, les dirigeants devraient soutenir de nouveaux efforts visant à promouvoir la soi-disant « IA responsable », selon le communiqué final de l’événement obtenu par POLITICO | Peter Nicholls/POOL/AFP via Getty Images Le vaste décret de 110 pages de la Maison Blanche est un exemple clair de la façon dont l’administration de Joe Biden s’adresse à un public majoritairement national tout en se présentant comme un leader mondial. Selon ces propositions, les agences fédérales américaines se verront accorder davantage de pouvoirs pour superviser la manière dont l’IA est déployée dans leurs domaines spécifiques, comme le logement, la protection des consommateurs et la sécurité nationale. Washington utilisera également son vaste pouvoir d’achat via des contrats gouvernementaux pour inciter les entreprises d’IA à améliorer leurs régimes de transparence et de protection des données, tout en promouvant les États-Unis comme un innovateur clé dans une technologie qui façonnera probablement les 20 prochaines années. Un responsable américain, s’exprimant sous couvert d’anonymat, a déclaré que les États-Unis voulaient montrer au monde qu’ils pouvaient encourager des entreprises de premier plan et une surveillance avant-gardiste. « Il y a ici un élément d’autorité morale », a déclaré Nathaniel Fick, l’ambassadeur itinérant des États-Unis pour la politique numérique et le cyberespace, au podcast technologique de POLITICO. « Cela montre que les États-Unis vont de l’avant en se tenant – cette administration, le gouvernement américain, se tenant – à une norme. » Eurosceptiques Mais les efforts de Washington en faveur de la gouvernance de l’IA ont été accueillis avec un grand scepticisme à Bruxelles, où les responsables européens étaient désireux de promouvoir leur propre version de la législation sur l’IA – via la prochaine loi sur l’intelligence artificielle du bloc – auprès du plus grand nombre de pays possible. Trois responsables de la Commission européenne ont déclaré à POLITICO qu’ils saluaient les efforts de l’administration Biden. Mais il s’est demandé combien de choses pourraient être faites sans mettre à jour fondamentalement la législation américaine à l’image de ce qui était prévu dans l’UE. L’une de ces personnes a déclaré que Bruxelles continuerait à suivre son propre règlement. Les propositions de l’UE interdiront certaines versions de la technologie, comme l’utilisation de l’IA pour fournir des scores sociaux aux gens – ce que la Chine, qui promeut également son leadership mondial en matière d’IA, a déjà dévoilé. Les efforts de Washington en faveur de la gouvernance de l’IA ont été accueillis avec un grand scepticisme à Bruxelles, où les responsables de l’UE étaient désireux de promouvoir leur propre version de la législation sur l’IA | Puce Somodevilla/Getty Images « Tout le monde reconnaît les risques potentiels », a déclaré à POLITICO Věra Jourová, responsable du numérique de l’Union européenne. Actuellement, les responsables américains et européens travaillent ensemble sur des normes techniques pour l’IA dans le cadre du Conseil commercial et technologique UE-États-Unis, une réunion semestrielle entre hauts fonctionnaires qui se tiendra la prochaine fois à Washington en décembre. Mais deux responsables de la Commission ont minimisé l’idée selon laquelle l’Europe serait à la traîne du leadership de la Maison Blanche. Contrairement à Bruxelles, le Capitole manque de législation axée sur l’IA. Les politiciens européens également Restons optimistes quant au fait que d’autres pays copieront la législation du bloc – dans une répétition de ce qui s’est produit dans d’autres domaines numériques comme les lois sur la protection des données et les médias sociaux. « Nous aimons ce que nous voyons dans le décret. Mais ce n’est pas la même chose que ce que nous faisons ici », a déclaré l’un des responsables de la Commission. « Nous légiférons – et eux ne le font pas. » Londres emprunte une voie différente : se concentrer presque exclusivement sur les risques existentiels potentiels si l’intelligence artificielle tombe entre de mauvaises mains. Dans le cadre du sommet de deux jours de cette semaine, les responsables britanniques ont invité des pays partageant les mêmes idées, ainsi que des adversaires potentiels comme la Chine, à réfléchir aux mesures à prendre face aux problèmes de sécurité liés aux armes biologiques et à la désinformation en ligne. Ils souhaitent également créer un nouveau réseau de chercheurs sur le modèle du Groupe d’experts intergouvernemental sur l’évolution du climat de l’ONU, qui publiera un rapport annuel sur l’état de l’IA. Rishi Sunak, le Premier ministre britannique, a également annoncé son intention de créer un « AI Safety Institute » qui superviserait la manière dont OpenAI et Deepmind de Google développent leurs derniers modèles d’IA. Un responsable britannique, qui a obtenu l’anonymat pour parler des délibérations en cours, espérait que les États-Unis – qui ont annoncé des plans similaires – uniraient leurs forces à l’initiative britannique, en particulier sur d’éventuels problèmes de sécurité nationale. « Ma vision, et…

Source link -57