Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les résultats sont basés sur des entretiens avec plus de 200 personnes sur plus d’un an – parmi lesquels des dirigeants de grandes sociétés d’IA, des chercheurs en cybersécurité, des experts en armes de destruction massive et des responsables de la sécurité nationale au sein du gouvernement.
Le Département d’État américain n’a pas répondu aux demandes de commentaires.
« L’IA est déjà une technologie économiquement transformatrice. Elle pourrait nous permettre de guérir des maladies, de faire des découvertes scientifiques et de surmonter des défis que nous pensions autrefois insurmontables », a déclaré à CNN Jeremie Harris, PDG et co-fondateur de Gladstone AI.
« Mais cela pourrait également entraîner des risques sérieux, y compris des risques catastrophiques, dont nous devons être conscients », a déclaré Harris. « Et un nombre croissant de preuves – y compris des recherches et analyses empiriques publiées dans les plus grandes conférences mondiales sur l’IA – suggèrent qu’au-dessus d’un certain seuil de capacité, les IA pourraient potentiellement devenir incontrôlables. »
La porte-parole de la Maison Blanche, Robyn Patterson, a déclaré que le décret du président Joe Biden sur l’IA est « l’action la plus importante qu’un gouvernement dans le monde ait prise pour saisir la promesse et gérer les risques de l’intelligence artificielle ».
« Le président et le vice-président continueront à travailler avec nos partenaires internationaux et exhorteront le Congrès à adopter une législation bipartite pour gérer les risques associés à ces technologies émergentes », a déclaré Patterson.
« Besoin clair et urgent » d’intervenir
Les chercheurs mettent en garde contre deux dangers centraux largement posés par l’IA.
Premièrement, a déclaré Gladstone AI, les systèmes d’IA les plus avancés pourraient être transformés en armes pour infliger des dommages potentiellement irréversibles. Deuxièmement, le rapport indique que certains laboratoires d’IA craignent qu’à un moment donné, ils ne « perdent le contrôle » des systèmes mêmes qu’ils sont en train de développer, avec « des conséquences potentiellement dévastatrices pour la sécurité mondiale ».
« L’essor de l’IA et de l’AGI [artificial general intelligence] a le potentiel de déstabiliser la sécurité mondiale d’une manière qui rappelle l’introduction des armes nucléaires », indique le rapport, ajoutant qu’il existe un risque de « course aux armements », de conflit et d' »accidents mortels à l’échelle des ADM ».
Le rapport de Gladstone AI appelle à de nouvelles mesures radicales visant à faire face à cette menace, notamment le lancement d’une nouvelle agence d’IA, imposant des garanties réglementaires « d’urgence » et des limites sur la puissance informatique pouvant être utilisée pour former des modèles d’IA.
« Il existe un besoin clair et urgent pour le gouvernement américain d’intervenir », écrivent les auteurs du rapport.
Le rapport note que bien que le travail ait été réalisé pour le Département d’État, ses opinions « ne reflètent pas celles » de l’agence ni du gouvernement américain dans son ensemble.
Un avis gouvernemental publié en 2022 par le Bureau du Fonds de non-prolifération et de désarmement du Département d’État montre que le gouvernement proposait de payer jusqu’à 250 000 dollars pour une évaluation des « risques de prolifération et de sécurité » liés à l’IA avancée.
Harris, directeur de Gladstone AI, a déclaré que le « niveau d’accès sans précédent » dont disposait son équipe aux responsables des secteurs public et privé avait conduit à des conclusions surprenantes. Gladstone AI a déclaré avoir parlé aux équipes techniques et de direction du propriétaire de ChatGPT, OpenAI, Google DeepMind, Meta et Anthropic, société mère de Facebook.
« En cours de route, nous avons appris des choses qui donnent à réfléchir », a déclaré Harris dans une vidéo publiée sur le site Web de Gladstone AI annonçant le rapport. « En coulisses, la situation en matière de sûreté et de sécurité dans l’IA avancée semble assez inadéquate par rapport aux risques pour la sécurité nationale que l’IA pourrait introduire assez prochainement. »
Le rapport de Gladstone AI indique que les pressions concurrentielles poussent les entreprises à accélérer le développement de l’IA « au détriment de la sûreté et de la sécurité », ce qui laisse penser que les systèmes d’IA les plus avancés pourraient être « volés » et « utilisés comme armes » contre les États-Unis.
Les conclusions s’ajoutent à une liste croissante d’avertissements sur les risques existentiels posés par l’IA – y compris de la part de certaines des personnalités les plus puissantes du secteur.
Il y a près d’un an, Geoffrey Hinton, connu comme le « parrain de l’IA », a quitté son emploi chez Google et a dénoncé la technologie qu’il avait contribué à développer. Hinton a déclaré qu’il y avait 10 % de chances que l’IA conduise à l’extinction de l’humanité au cours des trois prochaines décennies.
Les chefs d’entreprise sont de plus en plus préoccupés par ces dangers, même s’ils investissent des milliards de dollars dans l’IA. L’année dernière, 42 % des PDG interrogés lors du Sommet des PDG de Yale ont déclaré que l’IA avait le potentiel de détruire l’humanité d’ici cinq à dix ans.
Capacités d’apprentissage semblables à celles des humains
Dans son rapport, Gladstone AI a noté certaines des personnalités éminentes qui ont mis en garde contre les risques existentiels posés par l’IA, notamment Elon Musk, la présidente de la Federal Trade Commission, Lina Khan, et un ancien cadre supérieur d’OpenAI.
Certains employés d’entreprises d’IA partagent des préoccupations similaires en privé, selon Gladstone AI.
« Une personne travaillant dans un laboratoire d’IA bien connu a exprimé l’opinion que si un modèle d’IA spécifique de nouvelle génération était un jour publié en libre accès, ce serait ‘horriblement mauvais' », indique le rapport, « car le potentiel de persuasion du modèle Ces capacités pourraient « briser la démocratie » si jamais elles étaient exploitées dans des domaines tels que l’ingérence électorale ou la manipulation des électeurs. »
Gladstone a déclaré avoir demandé à des experts en IA des laboratoires frontaliers de partager en privé leurs estimations personnelles de la probabilité qu’un incident d’IA puisse entraîner des « effets globaux et irréversibles » en 2024. Les estimations variaient entre 4 pour cent et jusqu’à 20 pour cent, selon au rapport, qui souligne que les estimations étaient informelles et probablement sujettes à des biais importants.
L’un des plus grands jokers est la rapidité avec laquelle l’IA évolue – en particulier l’AGI, qui est une forme hypothétique d’IA dotée d’une capacité d’apprentissage semblable à celle d’un humain, voire d’un surhumain.
Le rapport indique que l’AGI est considéré comme le « principal facteur de risque catastrophique dû à une perte de contrôle » et note qu’OpenAI, Google DeepMind, Anthropic et Nvidia ont tous déclaré publiquement que l’AGI pourrait être atteint d’ici 2028 – bien que d’autres pensent que c’est beaucoup plus loin. .
Gladstone AI note que les désaccords sur les délais de l’AGI rendent difficile l’élaboration de politiques et de garanties et qu’il existe un risque que si la technologie se développe plus lentement que prévu, la réglementation pourrait « s’avérer nuisible ».