Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLundi, alors que les Américains envisageaient la possibilité d’une inculpation de Donald Trump et d’une promenade présidentielle perp, Eliot Higgins a donné vie à l’hypothétique. Higgins, le fondateur de Bellingcat, un groupe d’enquêtes open source, a demandé la dernière version de l’outil d’art génératif d’IA Midjourney pour illustrer le spectacle d’une arrestation de Trump. Il a produit des photos éclatantes d’une mer de policiers traînant le 45e président au sol.Higgins ne s’est pas arrêté là. Il a généré une série d’images qui sont devenues de plus en plus absurdes : Donald Trump Jr. et Melania Trump hurlant à une foule d’officiers qui l’arrêtent ; Trump pleurant dans la salle d’audience, pompant du fer avec ses codétenus, nettoyant les latrines d’une prison et finissant par s’évader de prison par un égout un soir de pluie. L’histoire, que Higgins tweeté au cours de deux jours, se termine avec Trump pleurant dans un McDonald’s dans sa combinaison orange. pic.twitter.com/V6Y8hHnGRN – Eliot Higgins (@EliotHiggins) 21 mars 2023Tous les tweets sont convaincants, mais seule la scène de l’arrestation de Trump est devenue méga virale, recueillant 5,7 millions de vues ce matin. Les gens ont immédiatement commencé à se tordre les mains sur la possibilité que les créations de Higgins soient dupées sans méfiance public dans pensée que Trump avait effectivement été arrêté, ou conduisant à la chute de notre système juridique. « Beaucoup de gens ont copié les images générées par l’IA d’Eliot de l’arrestation de Trump et certains les partagent comme réelles. D’autres ont généré beaucoup d’images similaires et de nouvelles continuent d’apparaître. S’il vous plaît, arrêtez ça », le compte de démystification populaire HoaxEye tweeté. « Dans 10 ans, le système judiciaire n’acceptera aucune forme de preuve de première ou de seconde main qui ne soit pas sur les lieux au moment de l’arrestation », a déclaré un utilisateur anonyme de Twitter. fretté. « Le seul mot de confiance sera celui de l’agent qui a procédé à l’arrestation et du polygraphe. le système judiciaire sera étouffé par des preuves falsifiées/falsifiées.Cette peur, bien que compréhensible, s’appuie sur un avenir dystopique imaginaire qui est enraciné dans les préoccupations du passé plutôt que dans les réalités de notre étrange présent. Les gens semblent désireux d’attribuer à l’imagerie de l’IA un pouvoir de persuasion qu’elle n’a pas encore démontré. Plutôt que d’imaginer des façons émergentes de perturber ces outils, les alarmistes s’inspirent des tropes de désinformation des premiers jours du Web social, lorsque les canulars lo-fi devenaient régulièrement viraux.Ces préoccupations ne correspondent pas à la réalité de la réponse générale au fil de Higgins. Certaines personnes ont partagé les images simplement parce qu’elles pensaient qu’elles étaient drôles. D’autres ont fait remarquer à quel point les outils d’IA-art se sont améliorés en si peu de temps. Comme l’écrivain Parker Molloy indiqué, la première version de Midjourney, initialement testée en mars 2022, pouvait à peine restituer des visages célèbres et regorgeait de pépins surréalistes. La version cinq, utilisée par Higgins, a été lancée en version bêta la semaine dernière et a toujours des problèmes avec les mains et les petits détails, mais elle a pu recréer une image quasi photoréaliste de l’arrestation dans le style d’une photo de presse.Lis: Les deepfakes Trump AI ont eu un effet secondaire involontaireMais malgré ces sauts technologiques, très peu de gens semblent vraiment croire que les images d’IA de Higgins sont réel. Cela peut être une conséquence, en partie, de la virer volume de fausse IA Trump-arrestation images qui ont rempli Twitter cette semaine. Si vous examinez les tweets de citation et les commentaires sur ces images, ce qui émerge n’est pas une réaction crédule mais sceptique. Dans un cas d’un compte indésirable essayant de faire passer les photos pour réelles, un utilisateur Twitter au hasard a répondu par faire remarquer les défauts et les incohérences de l’image : « Jambes, doigts, uniformes, tout autre détail complexe lorsque vous regardez de près. Je dirais que vous avez littéralement des rochers pour le cerveau, mais j’insulterais les rochers.J’ai demandé à Higgins, qui est lui-même un enquêteur et démystificateur en ligne qualifié, ce qu’il pense de la réponse. « Il semble que la plupart des gens qui en sont fous sont des gens qui pensent que d’autres pourraient penser qu’ils sont réels », m’a-t-il dit par e-mail. (Higgins a également déclaré que son accès Midjourney avait été révoqué, et Nouvelles de BuzzFeed signalé que les utilisateurs ne sont plus en mesure d’inviter l’outil artistique à l’aide du mot arrêté. Midjourney n’a pas immédiatement répondu à une demande de commentaire.)L’attitude décrite par Higgins suit les recherches publiées le mois dernier par la revue universitaire Nouveaux médias et société, qui a constaté que « le prédicteur le plus puissant et le plus fiable du danger perçu de la désinformation était la perception que les autres sont plus vulnérables à la désinformation que soi-même » – un phénomène appelé effet à la troisième personne. L’étude a révélé que les participants qui ont déclaré être plus préoccupés par la désinformation étaient également plus susceptibles de partager des récits alarmistes et des avertissements concernant la désinformation. Une étude précédente sur l’effet à la troisième personne a également révélé qu’un engagement accru sur les réseaux sociaux tend à accroître à la fois l’effet à la troisième personne et, indirectement, la confiance des gens dans leur propre connaissance d’un sujet.Le cycle d’actualités Trump-IA-art semble être la parfaite illustration de ces phénomènes. C’est un véritable pseudo événement : Une fausse image entre dans le monde ; les personnes concernées l’amplifient et le décrient comme dangereux pour un public perçu comme vulnérable qui peut ou non exister ; les reportages font écho à ces préoccupations.Il y a de nombreuses raisons réelles de s’inquiéter de la montée en puissance de l’IA générative, qui peut produire de manière fiable des textes convaincants qui sont en réalité truffés d’erreurs factuelles. L’art, la vidéo et les outils sonores de l’IA ont tous le potentiel de créer pratiquement n’importe quel mélange de médias « deepfakes » que vous pouvez imaginer. Et ces outils s’améliorent pour produire des résultats réalistes à un rythme quasi exponentiel. Il est tout à fait possible que les craintes de futures campagnes de désinformation ou d’usurpation d’identité se révèlent prophétiques.Mais les photos de l’arrestation de Trump révèlent également comment les conversations sur les menaces potentielles des médias synthétiques ont tendance à s’appuyer sur des craintes généralisées que les consommateurs d’informations peuvent et tomberont pour n’importe quoi – des tropes qui ont persisté alors même que nous nous sommes habitués à vivre dans un environnement social indigne de confiance. -environnement médiatique. Ces tropes ne sont pas tous bien fondés : tout le monde n’a pas été exposé aux trolls russes, tous les Américains ne vivent pas dans des bulles de filtres et, comme les chercheurs l’ont montré, tous les sites de fausses informations ne sont pas aussi influents. Il existe d’innombrables exemples de théories du complot horribles, absurdes et populaires qui prospèrent en ligne, mais elles ont tendance à être des mensonges moins paresseux et précipités que des exemples complexes de construction du monde. Elles découlent d’idéologies profondément enracinées ou d’un consensus qui se forme dans les cercles politiques ou sociaux. En ce qui concerne les technologies naissantes telles que l’IA générative et les grands modèles de langage, il est possible que la véritable préoccupation soit un ensemble entièrement nouveau de mauvais comportements que nous n’avons pas encore rencontrés.Lire : Les prophéties de QChris Moran, responsable de l’innovation éditoriale chez Le gardiena offert un tel exemple. La semaine dernière, son équipe a été contactée par un chercheur demandant pourquoi le journal avait supprimé un article spécifique de ses archives. Moran et son équipe ont vérifié et découvert que l’article en question n’avait pas été supprimé, car il n’avait jamais été écrit ou publié : ChatGPT avait entièrement halluciné l’article. (Moran a refusé de partager des détails sur l’article. Mon collègue Ian Bogost a rencontré quelque chose de similaire récemment lorsqu’il a demandé à ChatGPT de trouver un atlantique histoire de tacos : Il a fabriqué le titre « L’attrait durable des tacos », soi-disant par Amanda Mull.)La situation a été rapidement résolue mais a laissé Moran instable. « Imaginez cela dans une zone sujette aux théories du complot », a-t-il dit plus tard. tweeté. « Ces hallucinations sont fréquentes. Nous pouvons voir beaucoup de conspirations alimentées par des articles « supprimés » qui n’ont jamais été écrits.L’exemple…
Source link -57