Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Appuyez sur play pour écouter cet article Exprimé par l’intelligence artificielle. À PROPOS DES IMAGES : Le programme d’IA Midjourney ne se contente pas de créer des images. Il peut analyser une image et fournir une invite – ou un langage descriptif – qui aurait pu être utilisé pour la créer. Nous avons sélectionné certaines des photographies les plus emblématiques du siècle dernier et lui avons demandé de le faire. Nous avons ensuite réinjecté les invites résultantes dans Midjourney. Les images que vous voyez dans cette histoire, qui n’a pris que quelques secondes pour générer, sont le résultat. Mais attendez! Pouvez-vous distinguer le vrai du faux ? Répondez à notre quiz avant de lire. Appelez-le L’histoire de deux selfies. Peu de temps après que deux membres de l’équipe indienne de lutte ont été arrêtés à New Delhi alors qu’ils protestaient contre un harcèlement sexuel présumé de la part du président de la fédération nationale de lutte, deux photos presque identiques du duo ont commencé à circuler en ligne. Tous deux montraient les deux femmes à l’intérieur d’un fourgon de police parmi des policiers et d’autres membres de leur équipe. Mais dans l’un d’entre eux, ils avaient l’air sombre. Dans l’autre, ils rayonnaient de joie – comme si l’arrestation n’était qu’une mascarade. Pendant des heures, la photo des lutteurs souriants a circulé sur les réseaux sociaux, republiée par les partisans du président de la fédération, alors même que les journalistes, les vérificateurs des faits et les deux femmes la qualifiaient de fausse. Ce n’est que bien plus tard qu’une analyse comparant leurs sourires à des photos antérieures a prouvé que ces sourires n’étaient pas authentiques. Ils ont été ajoutés par la suite, très probablement par des logiciels gratuits disponibles dans le commerce tels que FaceApp, qui utilise l’intelligence artificielle pour manipuler numériquement les images. Des histoires comme celle-ci laissent présager un avenir qui approche à grands pas, dans lequel rien ne peut être considéré comme tel qu’il semble être. Les images, vidéos et audio générés par l’IA sont déjà déployés dans les campagnes électorales. Il s’agit notamment de fausses photos de l’ancien président américain Donald Trump serrant et embrassant le principal conseiller COVID du pays, Anthony Fauci ; une vidéo en Pologne mélangeant des images réelles du Premier ministre de droite Mateusz Morawiecki avec des extraits de sa voix générés par l’IA ; et un « enregistrement » deepfake du chef du parti travailliste britannique Keir Starmer en train de faire une crise. Bien que toutes ces informations aient été rapidement divulguées ou démystifiées, elles ne seront pas les dernières et celles qui arriveront seront de plus en plus difficiles à repérer. À mesure que les outils d’IA s’améliorent, le réel deviendra impossible à distinguer de la fiction, alimentant la désinformation politique et sapant les efforts visant à tout authentifier, des gaffes électorales aux crimes de guerre lointains. L’expression « preuves photographiques » risque de devenir une relique d’une époque ancienne. IMAGE ORIGINALE: Creative Commons via Wikimédia Invite générée par Midjourney : Che Guevara dans un gilet rouge, un chapeau et une veste, dans le style d’une forte expression faciale, Keith Carter, photo de presse associée, coton olive, Hans Memling, image fixe du film, détail qui cligne des yeux et vous le manquez –ar 99:128. Photo-illustration par Ellen Boonen et Midjourney Le déluge à venir Dans une certaine mesure, le risque posé par l’IA n’est pas nouveau. Les images manipulées sont aussi anciennes que la photographie elle-même. Le premier faux remonte à 1840 : Hippolyte Bayard était un bricoleur français qui prétendait, avec quelque mérite, avoir inventé la photographie. Pour protester contre le manque de reconnaissance officielle de son exploit, il a créé une image prétendant montrer son propre cadavre, intitulée « Autoportrait en noyé ». D’autres fraudes pré-numériques incluent des photos de 1917 de petites fées ailées qui ont trompé le créateur de Sherlock Holmes, Arthur Conan Doyle, ainsi que le penchant du dictateur soviétique Joseph Staline pour la disparition de fonctionnaires en disgrâce à partir de photographies en noir et blanc. Plus récemment, des outils comme Adobe Photoshop – un logiciel si omniprésent qu’il est devenu un verbe – et les filtres sur les applications de réseaux sociaux ont démocratisé la supercherie visuelle. Ce que fait l’IA, c’est l’amener à un autre niveau. Les générateurs d’images comme Midjourney, DALL-E 3 et Stable Diffusion apportent trois nouveautés. Accessibilité : ne vous embêtez pas à apprendre Photoshop ; écrivez simplement quelques lignes et attendez dix secondes. Qualité : l’IA crée déjà des images convaincantes de sujets farfelus, et cela ne fera que s’améliorer. Échelle : préparez-vous à des flots de fausses images produites à l’échelle industrielle. Les experts en désinformation sont pour la plupart détendus quant au risque que les images de l’IA trompent de larges pans du public. Bien sûr, beaucoup ont été trompés par une photo du pape vêtu d’une veste blanche bouffante ou par une image floue d’un Julian Assange barbu dans sa cellule de prison – mais il s’agissait d’images à faible enjeu. En mai, un tweet montrant de la fumée noire s’élevant du Pentagone est brièvement devenu viral, mais a été rapidement démystifié. IMAGE ORIGINALE: Creative Commons via Wikimédia Invite générée par Midjourney : un groupe d’enfants courent vers le sable brûlant, à la manière de corps déformés, dao trong le, photographie démoniaque, scènes de guerre, controversées, craie, clichés francs de personnages célèbres –ar 32:19. Photo-illustration par Ellen Boonen et Midjourney « L’IA réduit considérablement les barrières à l’entrée et permet des utilisations plus convaincantes et plus créatives de la tromperie. Mais le résultat n’est que du spam », a déclaré Carl Miller, chercheur au Centre d’analyse des médias sociaux du groupe de réflexion britannique Demos. «Il existe déjà un haut niveau de scepticisme parmi le public à l’égard d’images bouleversantes provenant de lieux peu fiables ou inconnus.» Le dividende du menteur Le véritable danger réside probablement dans l’autre côté du problème : un public de plus en plus habitué à ne pas se fier à ses propres yeux. Ces photos prises en mars, montrant l’arrestation de l’ancien président américain Donald Trump, étaient clairement fausses. Mais qu’en est-il de ces photos du chef de guerre mercenaire russe Eugène Prigojine dans une série de perruques scandaleuses et de fausses barbes ? (Il s’avère qu’ils sont probablement authentiques). « Il y a tellement de reportages sur les fausses nouvelles et sur l’IA que cela crée une atmosphère dans laquelle la légitimité de beaucoup de choses peut être remise en question », a déclaré Benjamin Strick, directeur des enquêtes à but non lucratif du Center for Information Resilience et praticien chevronné de l’ouverture. -renseignement source ou OSINT. « Surtout dans les États dictatoriaux, ils aiment dire que tout fait gênant n’est qu’un mensonge ou une ‘propagande occidentale’. » Le phénomène s’est manifesté en juin, lorsque des comptes de médias sociaux pro-Kremlin diffusant un faux récit selon lequel le chef du renseignement militaire ukrainien, Kyrylo Budanov, était mort, ont rejeté une vidéo de lui parlant comme étant un « deepfake ». (Budanov est bien vivant et donne des interviews télévisées.) Alors qu’une guerre à grande échelle éclate entre Israël et le Hamas, préparez-vous à des formes de désinformation de plus en plus insidieuses qui se disputent vos yeux, rendant de plus en plus difficile de savoir quoi croire. Le scénario cauchemardesque de Strick est celui d’un monde où les tyrans et les hommes forts utilisent ce qu’il appelle le « dividende du menteur ». Le terme, inventé dans un article publié en 2018 par les universitaires américains Robert Chesney et Danielle Citron, désigne la stratégie consistant à rejeter toute preuve picturale de violations des droits de l’homme ou de crimes de guerre comme étant fausse. « Les dictateurs n’ont qu’à intervenir et déclarer que tout n’est qu’un mensonge fabriqué par l’IA », a déclaré Strick. Technofix Pour résoudre certains des problèmes causés par les images générées par l’IA, des entreprises, notamment Intel, ainsi que OpenAI, le fabricant de DALL-E 3 et de ChatGPT, ont créé des outils basés sur l’IA pour repérer les médias créés par l’IA. Certains développeurs ont commencé à associer à leurs images des filigranes – cachés ou évidents – les identifiant comme étant synthétiques. Mais les détecteurs sont imparfaits et, compte tenu du rythme actuel des innovations, les efforts visant à les améliorer risquent de ressembler…
Source link -57