Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
L’un des problèmes des chatbots d’IA conversationnels à ce stade est qu’ils ont tendance à halluciner. En d’autres termes, ils constituent des informations pour répondre à la demande de l’utilisateur. ChatGPT est un modèle de langage conçu pour donner à l’utilisateur une réponse à une question et, ce faisant, le chatbot AI fournira des informations pour combler les vides, même si ce qu’il propose n’est pas vrai.
La décision de Schwartz d’utiliser ChatGPT pourrait lui coûter ses 30 ans de carrière juridique
Un avocat a utilisé ChatGPT pour faire des « recherches juridiques » et a cité un certain nombre de cas inexistants dans un dossier, et a maintenant beaucoup de problèmes avec le juge pic.twitter.com/AJSE7Ts7W7
—Daniel Feldman (@d_feldman) 27 mai 2023
Cherchant à améliorer son dossier, Schwartz s’est tourné vers ChatGPT pour l’aider à trouver des affaires similaires qui ont été portées devant les tribunaux. ChatGPT a produit une liste de ces affaires : Varghese contre China Southern Airlines, Shaboon contre Egyptair, Petersen contre Iran Air, Martinez contre Delta Airlines, Estate of Durden contre KLM Royal Dutch Airlines et Miller contre United Airlines. » Cela ressemble à une liste décente de cas à citer au juge. Il n’y avait qu’un tout petit problème ; aucun de ces cas n’était réel ! Ils ont tous été inventés par ChatGPT.
L’avocat n’a jamais considéré que le chatbot IA pouvait lui donner de fausses informations
L’équipe juridique d’Avianca et le juge ont rapidement réalisé qu’ils ne pouvaient trouver aucun des cas cités dans le dossier de Schwartz. Dans un affidavit qu’il a déposé auprès du tribunal, Schwartz a inclus une capture d’écran de son interaction avec ChatGPT et a déclaré qu’en ce qui concerne le chatbot conversationnel AI, il « ignorait la possibilité que son contenu puisse être faux ». Le juge a prévu une audience le mois prochain pour « discuter des sanctions potentielles » pour Schwartz.
Que cela soit un avertissement pour tous ceux qui envisagent de confier à l’IA une partie de leur travail. Vous pourriez penser que vous gagnez du temps, mais vous pourriez avoir plus de problèmes si vous remplacez votre propre travail acharné par les résultats d’un chatbot IA. Je ne voudrais jamais que mes articles soient écrits par l’IA et non seulement vous vous faites du mal en utilisant l’IA, mais vous mentez à votre public soit en revendiquant la paternité de quelque chose que vous n’avez pas écrit, soit parce que vous fournissez peut-être à votre public -up informations.
Peu importe si vous êtes un étudiant qui envisage d’utiliser un chatbot IA pour vous aider avec un article que vous devez rédiger ou un avocat qui cherche à citer des cas. Les chatbots IA peuvent halluciner et vous donner de fausses informations. Cela ne veut pas dire qu’ils ne peuvent pas être utiles et pourraient vous orienter dans la bonne direction. Mais une fois le pointage effectué, c’est à vous de vous assurer que les informations que vous obtenez sont légitimes.