Customize this title in french Le journalisme IA devient de plus en plus difficile à distinguer du journalisme à l’ancienne, généré par l’homme | Ian Tucker

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

UN il y a quelques semaines, j’ai tweeté un appel aux journalistes indépendants pour me présenter des idées de reportage pour la section science et technologie de la nouvelle revue de l’observateur. Sans surprise, étant donné les gros titres, les craintes et l’intérêt pour les chatbots LLM (grand modèle de langage) tels que ChatGPT, de nombreuses suggestions qui ont afflué se sont concentrées sur l’intelligence artificielle – y compris un argumentaire sur la façon dont elle est utilisée pour prédire la déforestation en Amazonie.

Une soumission cependant, d’un étudiant en génie qui avait publié quelques articles sur Medium, semblait surfer sur la vague de l’intelligence artificielle avec plus de culot. Il a proposé trois idées de reportages : des présentations sur l’agriculture innovante, le stockage de données et le potentiel thérapeutique de la réalité virtuelle. Bien que cohérents, les emplacements avaient une autorité fade à leur sujet, une structure de paragraphe répétitive et des fins optimistes, qui, si vous avez joué avec ChatGPT ou lu les derniers mésaventures du chatbot Google Bard, sont des indices de contenu généré par le chatbot.

Je les ai montrés à un collègue. « Ils se sentent synthétiques », a-t-il déclaré. Un autre les a décrits comme ayant le ton d’un « document de police d’assurance-vie ». Nos soupçons étaient-ils fondés ? J’ai décidé de demander à ChatGPT. Le bot n’en était pas si sûr : « Les textes auraient pu être écrits par un humain, car ils démontrent un haut niveau de connaissance et d’expertise du domaine, et ne contiennent aucune erreur ou incohérence évidente », a-t-il répondu.

Les chatbots, cependant, ont la réputation de fabriquer la vérité et d’inventer des sources, alors peut-être qu’ils ne sont pas les vérificateurs de faits les plus fiables. J’ai suggéré que s’il y a une chose que les chatbots devraient pouvoir faire, c’est de reconnaître la sortie d’un chatbot. Chatbot n’était pas d’accord. Un écrivain humain pourrait imiter un chatbot, a-t-il déclaré, et à l’avenir « les chatbots pourraient être capables de générer un texte qui ne se distingue pas de l’écriture humaine ».

Comme pour tout ce qu’un chatbot « dit », il faut être sceptique – la technologie sur laquelle ils sont construits crée des choses qui semblent plausibles. S’il s’avère également exact, ce n’est pas le résultat du raisonnement ou de l’intelligence. Si le chatbot était un peu plus intelligent, il aurait pu suggérer que je place le contenu suspect via le classificateur de texte d’OpenAI. Lorsque je l’ai fait, deux des emplacements ont été classés « probablement » générés par l’IA. Sur les deux articles de blog Medium portant le nom de l’étudiant, l’un a été classé « possible » et l’autre « probable ».

J’ai décidé de lui envoyer un e-mail et de lui demander si ses pitchs avaient été écrits par un chatbot. Sa réponse a été honnête : « Je dois avouer que vous avez raison dans votre hypothèse selon laquelle mon écriture a effectivement été générée avec l’aide de la technologie de l’IA. »

Mais il n’a pas honte : « Mon objectif est de tirer parti de la puissance de l’IA pour produire un contenu de haute qualité qui répond aux besoins de mes clients et lecteurs. Je crois qu’en combinant le meilleur des deux mondes – la créativité humaine et la technologie de l’IA – nous pouvons réaliser de grandes choses. » Même cet e-mail, selon le détecteur d’OpenAI, a été « probablement » généré par l’IA.

Bien que le Observateur ne l’emploiera pas pour écrire des articles, il semble bien placé pour postuler à un emploi chez Newsquest, qui a annoncé la semaine dernière le rôle de 22 000 £ de journaliste alimenté par l’IA pour son opération de nouvelles locales.

Il est difficile de prédire comment l’IA affectera le journalisme – on peut supposer que Newsquest sera conscient que des médias tels que Journal des hommes et Cnet ont utilisé l’IA pour écrire des articles sur la santé et les finances personnelles, mais ceux-ci se sont révélés pleins d’inexactitudes et de faussetés. Et qu’en janvier, BuzzFeed a annoncé qu’il utiliserait l’IA pour « améliorer les quiz », mais a rapidement déployé le contenu de l’IA dans d’autres zones du site. « Buzzy », leur « assistant IA créatif », a produit une quarantaine de guides de voyage, avec un style d’écriture Futurisme décrit comme « incroyablement galvaudé ».

Ces articles sont étiquetés comme écrits avec l’aide de ou par un chatbot. Mais lors de la recherche d’un article, les journalistes peuvent utiliser des chatbots pour résumer les rapports ou suggérer des questions à une personne interrogée. Si de petits morceaux de ce texte généré par l’IA se retrouvent dans un article, cela doit-il être divulgué ? Cela a été examiné lors d’une discussion du San Francisco Press Club la semaine dernière, que l’animatrice du panel, Rachel Metz de Bloomberg, a résumée comme suit : « Dans quelle mesure est-il important pour vous que les nouvelles que vous lisez soient écrites par un humain? »

Au Observateur nous disons « très important ». Des questions comme celle-ci sont examinées par toutes les agences de presse, y compris par nos collègues du Gardienqui étudient plus largement l’effet de la technologie sur le journalisme.

Pendant ce temps, le Observateur reste sans IA. Lorsque vous parcourez d’autres sources d’information, méfiez-vous du contenu qui se lit comme du matériel promotionnel pour les services financiers.

Source link -57