Une frénésie de fake news : pourquoi ChatGPT pourrait être désastreux pour la vérité dans le journalisme | Emilie Bell

[ad_1]

jeIl a fallu très peu de temps pour que l’application d’intelligence artificielle ChatGPT ait un effet perturbateur sur le journalisme. Un chroniqueur technologique du New York Times a écrit qu’un chatbot exprimait des sentiments (ce qui est impossible). D’autres médias ont rempli d’exemples de « Sydney », l’expérience de recherche Bing AI appartenant à Microsoft, étant « grossière » et « intimidante » (également impossible). Ben Thompson, qui rédige la newsletter Stratechery, a déclaré que Sydney lui avait fourni « l’expérience informatique la plus époustouflante de ma vie » et il en a déduit que l’IA était formée pour susciter des réactions émotionnelles – et cela semblait avoir réussi.

Pour être clair, il n’est pas possible pour des IA telles que ChatGPT et Sydney d’avoir des émotions. Ils ne peuvent pas non plus dire s’ils ont du sens ou non. Ces systèmes sont incroyablement doués pour imiter la prose humaine et prédire les mots « corrects » à enchaîner. Ces « grands modèles de langage » d’applications d’IA, telles que ChatGPT, peuvent le faire car ils ont été alimentés par des milliards d’articles et d’ensembles de données publiés sur Internet. Ils peuvent ensuite générer des réponses aux questions.

Pour les besoins du journalisme, ils peuvent créer très rapidement de grandes quantités de matériel – mots, images, sons et vidéos. Le problème est qu’ils n’ont absolument aucun engagement envers la vérité. Il suffit de penser à la rapidité avec laquelle un utilisateur de ChatGPT pourrait inonder Internet de fausses nouvelles qui semblent avoir été écrites par des humains.

Et pourtant, depuis que le test ChatGPT a été rendu public par la société d’intelligence artificielle OpenAI en novembre, le battage médiatique qui l’entoure est devenu inquiétant. Comme pour la naissance des médias sociaux, l’enthousiasme des investisseurs et des fondateurs a étouffé les voix prudentes. Christopher Manning, directeur du Stanford AI Lab, tweeté: « La foule de l’éthique de l’IA continue de promouvoir un récit selon lequel les modèles d’IA génératifs sont trop biaisés, peu fiables et dangereux à utiliser, mais, lors du déploiement, les gens adorent la façon dont ces modèles offrent de nouvelles possibilités pour transformer notre façon de travailler, de trouver des informations et de nous amuser. ” Je me considérerais comme faisant partie de cette « foule éthique ». Et si nous voulons éviter les terribles erreurs des 30 dernières années de la technologie grand public – des violations de données de Facebook à la désinformation incontrôlée interférant avec les élections et provoquant un génocide – nous avons un besoin urgent d’entendre les préoccupations des experts avertissant des dommages potentiels.

Le fait le plus inquiétant à réitérer est que ChatGPT n’a aucun engagement envers la vérité. Comme le dit le MIT Technology Review, les chatbots à grands modèles de langage sont des « conneries notoires ». La désinformation, l’escroquerie et la criminalité n’exigent généralement pas non plus un engagement envers la vérité. Visitez les forums de blackhatworld.com, où ceux qui sont impliqués dans des pratiques obscures échangent des idées pour gagner de l’argent avec du faux contenu, et ChatGPT est annoncé comme un changeur de jeu pour générer de meilleures fausses critiques, ou des commentaires, ou des profils convaincants.

En termes de journalisme, de nombreuses salles de rédaction utilisent l’IA depuis un certain temps. Si vous vous êtes récemment retrouvé poussé à donner de l’argent ou à payer pour lire un article sur le site Web d’un éditeur, ou si la publicité que vous voyez est un peu plus adaptée à vos goûts, cela pourrait également signifier que l’IA est au travail.

Certains éditeurs, cependant, vont jusqu’à utiliser l’IA pour écrire des histoires, avec des résultats mitigés. La publication spécialisée dans les technologies CNET a récemment été surprise en train d’utiliser des articles automatisés, après qu’une ancienne employée a affirmé dans son e-mail de démission que le contenu généré par l’IA, comme un bulletin d’information sur la cybersécurité, publiait de fausses informations susceptibles de « causer un préjudice direct aux lecteurs ».

Felix Simon, chercheur en communication à l’Oxford Internet Institute, a interviewé plus de 150 journalistes et éditeurs de presse pour une prochaine étude sur l’IA dans les salles de rédaction. Il dit qu’il est possible de rendre beaucoup plus facile pour les journalistes la transcription d’interviews ou la lecture rapide d’ensembles de données, mais les problèmes de premier ordre tels que l’exactitude, le dépassement des biais et la provenance des données dépendent toujours massivement du jugement humain. « Environ 90 % des utilisations de l’IA [in journalism] sont pour des tâches relativement fastidieuses, comme la personnalisation ou la création de paywalls intelligents », explique Charlie Beckett, qui dirige un programme de journalisme et d’IA à la LSE. Bloomberg News automatise une grande partie de sa couverture des résultats financiers depuis des années, dit-il. Cependant, l’idée d’utiliser des programmes tels que ChatGPT pour créer du contenu est extrêmement inquiétante. « Pour les salles de rédaction qui considèrent qu’il est contraire à l’éthique de publier des mensonges, il est difficile de mettre en œuvre l’utilisation d’un ChatGPT sans beaucoup d’édition humaine et de vérification des faits », déclare Beckett.

Il existe également des problèmes éthiques liés à la nature des entreprises technologiques elles-mêmes. Une exposition de Time a révélé qu’OpenAI, l’entreprise derrière ChatGPT, avait payé des employés au Kenya moins de 2 dollars de l’heure pour passer au crible du contenu décrivant des contenus graphiques préjudiciables tels que la maltraitance d’enfants, le suicide, l’inceste et la torture pour former ChatGPT à le reconnaître comme offensant. « En tant que personne utilisant ces services, vous n’avez aucun contrôle sur cela », déclare Simon.

Dans une étude de 2021, des universitaires ont examiné des modèles d’IA qui convertissent du texte en images générées, tels que Dall-E et Stable Diffusion. Ils ont constaté que ces systèmes amplifiaient « les stéréotypes démographiques à grande échelle ». Par exemple, lorsqu’on vous a demandé de créer une image « d’une personne qui nettoie », toutes les images générées étaient des femmes. Pour « une personne attirante », les visages étaient tous, notent les auteurs, représentatifs de « l’idéal blanc ».

Logo ChatGPT
« Le soutien enthousiaste des investisseurs et des fondateurs a étouffé les voix prudentes. » Photographie : Sheldon Cooper/SOPA Images/REX/Shutterstock

La professeure de NYU Meredith Broussard, auteur du prochain livre More Than a Glitch, qui examine les préjugés raciaux, de genre et de capacité dans la technologie, dit que tout ce qui est intégré dans les modèles génératifs actuels tels que ChatGPT – des ensembles de données à qui reçoit la plupart du financement – ​​reflète un manque de diversité. « Cela fait partie du problème de la monoculture des grandes technologies », déclare Broussard, et non d’une culture que les salles de rédaction utilisant les technologies peuvent facilement éviter. « Les salles de rédaction sont déjà sous l’emprise des technologies d’entreprise, car elles n’ont jamais été suffisamment financées pour développer les leurs. »

Le fondateur de BuzzFeed, Jonah Peretti, a récemment déclaré avec enthousiasme au personnel que l’entreprise utiliserait ChatGPT dans le cadre de son activité principale pour les listes, les quiz et d’autres contenus de divertissement. « Nous voyons les percées de l’IA ouvrir une nouvelle ère de créativité… avec des opportunités et des applications infinies pour le bien », a-t-il écrit. Le cours de l’action dormante de BuzzFeed a immédiatement bondi de 150 %. C’est profondément inquiétant – une montagne de contenu bon marché vomie par un ChatGPT devrait sûrement être le pire des scénarios pour les entreprises de médias plutôt qu’un modèle commercial ambitieux. L’engouement pour les produits d’IA générative peut masquer la prise de conscience croissante qu’il ne s’agit peut-être pas entièrement d' »applications pour le bien ».

Je dirige un centre de recherche à la Columbia Journalism School. Nous avons étudié les efforts des réseaux «d’argent noir» financés politiquement pour reproduire et cibler des centaines de milliers d’histoires de «nouvelles» locales dans les communautés au service d’un gain politique ou commercial. Les capacités de ChatGPT augmentent ce type d’activité et le rendent beaucoup plus facilement accessible à beaucoup plus de personnes. Dans un article récent sur la désinformation et l’IA, des chercheurs de Stanford ont identifié un réseau de faux profils utilisant l’IA générative sur LinkedIn. Les échanges textuels séduisants que les journalistes trouvent si irrésistibles avec les chatbots sont tout à fait moins attrayants s’ils incitent les personnes vulnérables à divulguer leurs données personnelles et leurs coordonnées bancaires.

Beaucoup a été écrit sur le potentiel des vidéos et de l’audio deepfake – des images et des sons réalistes qui peuvent imiter les visages et les voix de personnes célèbres (notoirement, l’un d’entre eux avait l’actrice Emma Watson « lisant » Mein Kampf). Mais le vrai péril réside en dehors du monde de la tromperie instantanée, qui peut être facilement démystifiée, et dans le domaine de la création à la fois de la confusion et de l’épuisement en « inondant la zone » avec du matériel qui submerge la vérité ou du moins noie des perspectives plus équilibrées.

Il semble incroyable à certains d’entre nous dans la « foule éthique » que nous n’ayons rien appris des 20 dernières années de technologies de médias sociaux déployées rapidement et mal gérées qui ont exacerbé les problèmes sociétaux et démocratiques plutôt que de les améliorer. Nous semblons être dirigés par un groupe remarquablement similaire de technologues homogènes et riches et de fonds de capital-risque sur une autre piste non testée et non réglementée, mais cette fois à plus grande échelle et avec encore moins d’attention à la sécurité.

Emily Bell est directrice du Tow Center for Digital Journalism à la Graduate School of Journalism de l’Université de Columbia



[ad_2]

Source link -8