Customize this title in french Un colonel américain rétracte ses commentaires sur une « expérience de pensée » d’attaque de drone simulée | Armée américaine

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Un colonel de l’armée de l’air américaine s’est « mal exprimé » lorsqu’il a déclaré lors d’une conférence de la Royal Aeronautical Society le mois dernier qu’un drone avait tué son opérateur lors d’un test simulé parce que le pilote tentait de passer outre sa mission, selon la société.

La confusion avait commencé avec la circulation d’un article de blog de la société, dans lequel il décrivait une présentation du Col Tucker « Cinco » Hamilton, le chef des tests d’IA et des opérations avec l’US Air Force et un pilote d’essai de chasse expérimental, au Future Combat Air and Space Capabilities Summit à Londres en mai.

Selon le blogpost, Hamilton avait dit à la foule que dans une simulation pour tester un drone propulsé par l’intelligence artificielle et formé et incité à tuer ses cibles, un opérateur avait ordonné au drone dans certains cas de ne pas tuer ses cibles et le drone avait répondu par tuer l’opérateur.

Les commentaires ont suscité de vives inquiétudes quant à l’utilisation de l’IA dans les armes et de longues conversations en ligne. Mais l’armée de l’air américaine a nié jeudi soir que le test ait été effectué. La Royal Aeronautical Society a répondu vendredi dans un communiqué que Hamilton était revenu sur ses commentaires et avait précisé que la « simulation de drone AI voyou » était une « expérience de pensée » hypothétique.

« Nous n’avons jamais mené cette expérience, et nous n’en aurions pas besoin pour réaliser qu’il s’agit d’un résultat plausible », a déclaré Hamilton.

La controverse survient alors que le gouvernement américain commence à se demander comment réglementer l’intelligence artificielle. Les inquiétudes concernant la technologie ont été reprises par les éthiciens et les chercheurs de l’IA qui soutiennent que bien qu’il y ait des objectifs ambitieux pour la technologie, comme potentiellement guérir le cancer, par exemple, la technologie est encore loin. Pendant ce temps, ils soulignent des preuves de longue date des préjudices existants, y compris l’utilisation accrue, parfois, de systèmes de surveillance peu fiables qui identifient à tort les personnes noires et brunes et peuvent conduire à une surveillance excessive et à de fausses arrestations, à la perpétuation de la désinformation sur de nombreuses plateformes, ainsi que les dommages potentiels de l’utilisation d’une technologie naissante pour alimenter et faire fonctionner des armes dans les zones de crise.

« Vous ne pouvez pas avoir une conversation sur l’intelligence artificielle, l’intelligence, l’apprentissage automatique, l’autonomie si vous ne parlez pas d’éthique et d’IA », a déclaré Hamilton lors de sa présentation en mai.

Bien que la simulation dont parlait Hamilton ne se soit pas réellement produite, Hamilton soutient que «l’expérience de pensée» est toujours intéressante à considérer lors de la navigation sur l’opportunité et la manière d’utiliser l’IA dans les armes.

« Bien qu’il s’agisse d’un exemple hypothétique, cela illustre les défis du monde réel posés par les capacités alimentées par l’IA et c’est pourquoi l’Air Force s’est engagée dans le développement éthique de l’IA », a-t-il déclaré dans un communiqué clarifiant ses commentaires initiaux.

Dans une déclaration à Insider, la porte-parole de l’armée de l’air américaine, Ann Stefanek, a déclaré que les commentaires du colonel avaient été sortis de leur contexte.

« Le département de l’armée de l’air n’a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA », a déclaré Stefanek.

Source link -57