Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Rishi Sunak a annoncé la création d’un institut britannique pour la sécurité de l’IA, mais a refusé de soutenir un moratoire sur le développement avancé de la technologie.
Le Premier ministre a déclaré que l’institut serait une première mondiale et testerait de nouveaux types d’IA pour une gamme de risques allant de la génération de désinformation à la menace existentielle.
Annonçant cette décision avant le sommet mondial de la semaine prochaine sur la sécurité de l’IA à Bletchley Park, Sunak a déclaré que l’institut « ferait progresser les connaissances mondiales sur la sécurité de l’IA ».
« Il examinera, évaluera et testera soigneusement de nouveaux types d’IA afin que nous comprenions de quoi chaque nouveau modèle est capable », a-t-il déclaré dans un discours à la Royal Society, une association de scientifiques de premier plan.
Il a déclaré qu’il explorerait « tous les risques, depuis les préjudices sociaux comme les préjugés et la désinformation jusqu’aux risques les plus extrêmes de tous ». Un prototype de l’institut de sécurité existe déjà au sein du groupe de travail britannique sur l’IA des frontières, qui examine la sécurité des modèles d’IA de pointe et a été créé cette année.
Sunak a déclaré qu’une pause dans le développement de modèles puissants n’était pas réalisable. Lorsqu’on lui a demandé après le discours s’il soutiendrait un moratoire ou une interdiction du développement d’une forme d’IA très performante connue sous le nom d’intelligence artificielle générale, il a répondu : « Je ne pense pas que ce soit pratique ou exécutoire. Par principe, le Royaume-Uni est, à juste titre, une économie et une société qui encouragent l’innovation pour tout le bien qu’elle peut apporter. Et je pense que c’est la bonne approche.
Le débat sur la sécurité de l’IA a atteint un nouveau sommet en mars lorsqu’une lettre ouverte signée par des milliers de personnalités technologiques de premier plan, dont Elon Musk, a appelé à une pause immédiate dans la création d’IA « géantes » pendant au moins six mois. Il avertissait que les laboratoires d’IA étaient « coincés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».
Sunak a déclaré qu’il n’était toujours pas clair si la Chine participerait au sommet, bien que Pékin ait reçu une invitation à y assister aux côtés de dirigeants du secteur technologique et d’autres dirigeants mondiaux. Le Premier ministre a déclaré qu’il ne pouvait pas dire avec « 100 % de certitude » si les responsables chinois se joindraient à l’accord.
Une déclaration distincte signée par des dirigeants du secteur technologique en mai et référencée par Sunak jeudi, faisait référence au traitement des risques d’extinction liés au développement de l’IA sur un pied d’égalité avec les armes nucléaires et les pandémies.
Un développement potentiel de l’IA qui inquiète certains experts est l’AGI, terme désignant un système capable d’effectuer un ensemble de tâches au niveau de l’intelligence humaine ou au-delà.
Sunak s’exprimait après que le gouvernement a publié son évaluation des risques pour la sécurité de l’IA, y compris l’admission qu’une menace existentielle provenant de la technologie ne pouvait être exclue.
« Compte tenu de l’incertitude considérable entourant la prévision des développements de l’IA, il n’existe pas suffisamment de preuves pour exclure que des systèmes d’IA de pointe hautement performants, s’ils sont mal alignés ou insuffisamment contrôlés, pourraient constituer une menace existentielle », indique un document gouvernemental publié mercredi.
Parmi les autres menaces détaillées dans les documents de risque du gouvernement figurent la capacité des systèmes à concevoir des armes biologiques, à produire en masse une désinformation « hyper-ciblée » et à provoquer des perturbations substantielles sur le marché du travail.
Sunak a déclaré que le pire scénario d’une menace existentielle provenant d’un système « superintelligent » qui échappe au contrôle humain était un scénario qui divisait l’opinion parmi les experts et pourrait ne pas se produire du tout. Il a néanmoins ajouté que les principaux développeurs d’IA avaient exprimé leurs inquiétudes quant aux risques existentiels.
« Aussi incertains et improbables que soient ces risques, s’ils se manifestaient, les conséquences seraient incroyablement graves. Et alors que nombre des plus grands développeurs de cette technologie mettent eux-mêmes en garde contre ces risques, les dirigeants ont la responsabilité de les prendre au sérieux et d’agir », a-t-il déclaré.
Sunak a ajouté qu’il profiterait du sommet, qui aura lieu les 1er et 2 novembre, pour appeler à la formation d’un groupe d’experts de surveillance de l’IA similaire au Groupe d’experts intergouvernemental sur l’évolution du climat.
« La semaine prochaine, je proposerai que nous établissions un groupe d’experts véritablement mondial, nommés par les pays et les organisations participants. [the summit] publier un rapport sur l’état de la science de l’IA », a-t-il déclaré.