Customize this title in french ChatGPT crée de faux articles Guardian. Voici comment nous répondons | Chris Moran

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

LLe mois dernier, un de nos journalistes a reçu un e-mail intéressant. Un chercheur était tombé sur la mention d’un article du Guardian, écrit par le journaliste sur un sujet précis quelques années auparavant. Mais la pièce se révélait insaisissable sur notre site Web et dans la recherche. Le titre avait-il peut-être changé depuis son lancement ? Avait-il été intentionnellement supprimé du site Web en raison d’un problème que nous avions identifié ? Ou avions-nous été forcés de le retirer par le sujet de la pièce par des moyens légaux ?

Le journaliste ne se souvenait pas d’avoir écrit l’article spécifique, mais le titre ressemblait certainement à quelque chose qu’ils auraient écrit. C’était un sujet avec lequel ils étaient identifiés et avaient un dossier de couverture. Craignant qu’il y ait eu une erreur de notre côté, ils ont demandé à des collègues de revenir dans nos systèmes pour la retrouver. Malgré les enregistrements détaillés que nous conservons de tout notre contenu, et en particulier autour des suppressions ou des problèmes juridiques, ils n’ont pu trouver aucune trace de son existence.

Pourquoi? Parce qu’il n’avait jamais été écrit.

Heureusement, le chercheur nous avait dit qu’ils avaient effectué leurs recherches en utilisant ChatGPT. En réponse à des questions sur des articles à ce sujet, l’IA en avait simplement inventé. Sa fluidité et les vastes données de formation sur lesquelles il repose signifiaient que l’existence de la pièce inventée semblait même crédible à la personne qui ne l’avait absolument pas écrite.

D’énormes quantités ont été écrites sur la tendance de l’IA générative à fabriquer des faits et des événements. Mais cette ride spécifique – l’invention des sources – est particulièrement troublante pour les organes de presse et les journalistes de confiance dont l’inclusion ajoute de la légitimité et du poids à un fantasme écrit de manière convaincante. Et pour les lecteurs et l’écosystème de l’information au sens large, cela ouvre de toutes nouvelles questions sur la fiabilité des citations et pourrait bien alimenter les théories du complot sur la suppression mystérieuse d’articles sur des questions sensibles qui n’ont jamais existé en premier lieu.

Si cela semble être un cas limite, il est important de noter que ChatGPT, depuis un démarrage à froid en novembre, a enregistré 100 millions d’utilisateurs mensuels en janvier. TikTok, incontestablement un phénomène numérique, a mis neuf mois pour atteindre le même niveau. Depuis lors, nous avons vu Microsoft implémenter la même technologie dans Bing, faisant pression sur Google pour qu’il emboîte le pas avec Bard.

Ils implémentent maintenant ces systèmes dans Google Workspace et Microsoft 365, qui détiennent une part de marché de plus de 90 % entre eux. Une étude récente portant sur 1 000 étudiants aux États-Unis a révélé que 89 % avaient utilisé ChatGPT pour les aider à faire leurs devoirs. La technologie, avec tous ses défauts, s’est normalisée à une vitesse incroyable et est désormais au cœur de systèmes qui agissent comme point clé de découverte et de créativité pour une partie importante du monde.

Il y a deux jours, notre équipe d’archives a été contactée par un étudiant demandant un autre article manquant d’un journaliste nommé. Il n’y avait là encore aucune trace de l’article dans nos systèmes. La source? ChatGPT.

Il est facile de se laisser entraîner dans les détails de l’IA générative, car elle est intrinsèquement opaque. Les idées et les implications, déjà explorées par des universitaires de multiples disciplines, sont extrêmement complexes, la technologie se développe rapidement et les entreprises détenant d’énormes parts de marché existantes l’intègrent aussi vite que possible pour obtenir des avantages concurrentiels, se perturber mutuellement et surtout satisfaire actionnaires.

Mais la question pour les organisations de presse responsables est simple et urgente : que peut faire cette technologie en ce moment, et comment peut-elle bénéficier à un reportage responsable à un moment où l’écosystème de l’information au sens large est déjà sous la pression de la désinformation, de la polarisation et des mauvais acteurs.

C’est la question à laquelle nous sommes actuellement confrontés au Guardian. Et c’est pourquoi nous n’avons pas encore annoncé de nouveau format ou produit basé sur l’IA générative. Au lieu de cela, nous avons créé un groupe de travail et une petite équipe d’ingénieurs pour se concentrer sur l’apprentissage de la technologie, en tenant compte des questions de politique publique et de propriété intellectuelle qui l’entourent, en écoutant les universitaires et les praticiens, en discutant avec d’autres organisations, en consultant et en formant notre personnel et en explorant de manière sûre et responsable comment la technologie fonctionne lorsqu’elle est appliquée à un usage journalistique.

Ce faisant, nous avons constaté qu’en plus de nous demander comment nous pouvons utiliser l’IA générative, nous réfléchissons de plus en plus à ce à quoi sert le journalisme et à ce qui le rend précieux. Nous sommes enthousiasmés par le potentiel, mais notre première tâche doit être de le comprendre, de l’évaluer et de décoder son impact potentiel sur le monde.

Dans les prochaines semaines, nous publierons une explication claire et concise de la manière dont nous prévoyons d’utiliser l’IA générative. En termes simples, nous continuerons à nous tenir aux normes journalistiques les plus élevées et à rester responsables envers nos lecteurs et le monde pour le journalisme que nous publions. Alors que tant de choses ont changé au cours des six derniers mois, à cet égard crucial, rien n’a changé du tout.

Chris Moran est le responsable de l’innovation éditoriale du Guardian

Source link -57