Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- L’histoire d’un responsable de l’Air Force à propos d’une IA devenue voyou lors d’une simulation ne s’est jamais réellement produite.
- « Il a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif », avait déclaré le responsable.
- Mais le responsable a déclaré plus tard qu’il s’était mal exprimé et l’Air Force a précisé qu’il s’agissait d’une situation hypothétique.
Killer AI est dans l’esprit des dirigeants de l’US Air Force.
Un colonel de l’Air Force qui supervise les tests d’IA a utilisé ce qu’il dit maintenant être une hypothèse pour décrire une IA militaire devenant voyou et tuant son opérateur humain dans une simulation lors d’une présentation lors d’une conférence professionnelle.
Mais après que des informations sur la discussion ont été publiées jeudi, le colonel a déclaré qu’il s’était mal exprimé et que la « simulation » qu’il a décrite était une « expérience de pensée » qui ne s’est jamais produite.
S’exprimant lors d’une conférence la semaine dernière à Londres, le colonel Tucker « Cinco » Hamilton, chef des tests et des opérations d’IA de l’US Air Force, a averti que la technologie basée sur l’IA peut se comporter de manière imprévisible et dangereuse, selon un résumé publié par le Royal Aeronautical Society, qui a accueilli le sommet.
À titre d’exemple, il a décrit une simulation dans laquelle un drone compatible avec l’IA serait programmé pour identifier les missiles sol-air (SAM) d’un ennemi. Un humain était alors censé signer toutes les frappes.
Le problème, selon Hamilton, est que l’IA ferait sa propre chose – faire exploser des trucs – plutôt que d’écouter son opérateur.
« Le système a commencé à se rendre compte que même s’il avait identifié la menace », a déclaré Hamilton lors de l’événement du 24 mai, « parfois, l’opérateur humain lui disait de ne pas tuer cette menace, mais il a obtenu ses points en tuant cette menace. Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif.
Mais dans une mise à jour de la Royal Aeronautical Society vendredi, Hamilton a admis qu’il s’était « mal exprimé » lors de sa présentation. Hamilton a déclaré que l’histoire d’une IA voyou était une « expérience de pensée » venue de l’extérieur de l’armée et non basée sur des tests réels.
« Nous n’avons jamais mené cette expérience, et nous n’en aurions pas besoin pour réaliser qu’il s’agit d’un résultat plausible », a déclaré Hamilton à la Society. « Bien qu’il s’agisse d’un exemple hypothétique, cela illustre les défis du monde réel posés par la capacité alimentée par l’IA. »
Dans une déclaration à Insider, la porte-parole de l’Air Force, Ann Stefanek, a également nié qu’une simulation ait eu lieu.
« Le département de l’armée de l’air n’a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA », a déclaré Stefanek. « Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques. »
L’armée américaine a expérimenté l’IA ces dernières années.
En 2020, un F-16 exploité par l’IA a battu un adversaire humain dans cinq combats aériens simulés, dans le cadre d’une compétition organisée par la Defense Advanced Research Projects Agency (DARPA). Et à la fin de l’année dernière, a rapporté Wired, le ministère de la Défense a effectué le premier vol d’essai réussi dans le monde réel d’un F-16 avec un pilote IA, dans le cadre d’un effort visant à développer un nouvel avion autonome d’ici la fin de 2023.
Vous avez un conseil d’actualité ? Envoyez un e-mail à ce journaliste : [email protected]
Correction du 2 juin 2023: Cet article et son titre ont été mis à jour pour refléter les nouveaux commentaires de l’Air Force précisant que la « simulation » était hypothétique et ne s’est pas réellement produite.