Customize this title in frenchComment une fausse photo AI d’une explosion du Pentagone est devenue virale et a brièvement effrayé les actions

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Une photographie falsifiée d’une explosion près du Pentagone s’est largement répandue sur les réseaux sociaux lundi matin, faisant brièvement baisser les actions américaines, ce qui pourrait être le premier exemple d’une image générée par l’IA faisant bouger le marché.

Juste après 10 heures, heure de l’Est, lorsque la photo circulait, le Standard & Poor’s 500 a baissé d’environ 0,3 % pour atteindre un creux de session. Lorsque la nouvelle est apparue que l’image était un canular, l’indice a rapidement rebondi.

La fausse photo, qui est apparue pour la première fois sur Facebook, montrait un grand panache de fumée qui, selon un utilisateur de Facebook, se trouvait près du quartier général de l’armée américaine en Virginie.

Il s’est rapidement propagé sur les comptes Twitter qui atteignent des millions d’abonnés, y compris le réseau d’information contrôlé par l’État russe RT et le site d’informations financières ZeroHedge, un participant au nouveau système de vérification Twitter Blue de la société de médias sociaux.

Un officier de service du Pentagone a déclaré dans un e-mail à Bloomberg qu’aucun incident n’avait été signalé lundi matin. Le département de police d’Arlington a également tweeté : « Aucune explosion ou incident ne se produit dans ou à proximité de la réserve du Pentagone, et il n’y a pas de danger immédiat ni de danger pour le public ».

Avant que des sources officielles ne contestent la photo et les comptes Twitter qui la diffusent, les internautes ont souligné que l’image pourrait avoir été générée par une intelligence artificielle.

Nick Waters, un chercheur du groupe de renseignement open source Bellingcat, a déclaré dans une interview que le choc d’entendre parler d’une rumeur d’explosion près du Pentagone l’a amené à examiner la photo.

« Découvrez la façade du bâtiment et la façon dont la clôture se fond dans les barrières de la foule », a-t-il déclaré sur Twitter. « Il n’y a pas non plus d’autres images, vidéos ou personnes postant en tant que témoins de première main. »

Au fur et à mesure des faits, les comptes Twitter responsables de la diffusion de la photo ont commencé à supprimer leurs tweets ou à publier des corrections. RT et ZeroHedge ont supprimé les tweets avec l’image, et ZeroHedge a déclaré que la photo avait été confirmée comme fausse. Un compte payant sur Twitter appelé Bloomberg Feed qui a également publié la photo a été suspendu lundi matin.

Un porte-parole de Bloomberg News a déclaré que Bloomberg Feed et un compte Twitter appelé Walter Bloomberg, qui a également publié le rapport, ne sont pas affiliés à Bloomberg News.

Bien que l’origine de l’image reste incertaine, la spéculation selon laquelle elle a été générée par l’IA a renforcé les inquiétudes selon lesquelles les technologies émergentes qui facilitent la création d’images et d’autres contenus accéléreront la propagation de la désinformation.

Sur Facebook, le compte qui a publié pour la première fois la fausse photo – aux côtés d’autres articles publiés liés au groupe complotiste QAnon – avait une étiquette « fausses informations » ajoutée à son article d’origine. Facebook a bloqué l’accès à la publication et a déclaré que l’image avait été « vérifiée par des vérificateurs de faits indépendants ».

Twitter et Meta Platforms, qui possède Facebook, n’ont pas répondu aux demandes de commentaires. RT n’a pas non plus immédiatement répondu.

Écrivains de Bloomberg Daniel Zuidijk, Courtney McBride et Katrina Lewis contribué à ce rapport.

Source link -57