Customize this title in frenchUn avocat risque d’être puni après que ChatGPT lui ait donné de faux cas à citer dans un mémoire soumis au tribunal

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

L’un des problèmes des chatbots d’IA conversationnels à ce stade est qu’ils ont tendance à halluciner. En d’autres termes, ils constituent des informations pour répondre à la demande de l’utilisateur. ChatGPT est un modèle de langage conçu pour donner à l’utilisateur une réponse à une question et, ce faisant, le chatbot AI fournira des informations pour combler les vides, même si ce qu’il propose n’est pas vrai.

Le New York Times (via Mashable) a rendu compte d’un avocat nommé Steven Schwartz de Levidow, Levidow & Oberman qui a travaillé comme avocat pendant 30 ans. Mais grâce à ChatGPT, Schwartz pourrait se retrouver à la recherche d’un nouveau métier. Vous voyez, Schwartz représentait un client nommé Roberto Mata qui poursuivait la compagnie aérienne colombienne Avianca après que son genou a été blessé par un chariot de service qui l’a percuté pendant un vol.

La décision de Schwartz d’utiliser ChatGPT pourrait lui coûter ses 30 ans de carrière juridique

Avianca a tenté d’obtenir qu’un juge rejette l’affaire et les avocats de Mata, dont Schwartz, ont soumis un mémoire contenant des affaires similaires qui ont été entendues au tribunal dans le but de prouver au juge que l’affaire ne devait pas être rejetée. Mais c’est là que ChatGPT et Schwartz ont merdé. Schwartz a déposé l’affaire lorsqu’elle a atterri pour la première fois devant un tribunal d’État et a fourni les recherches juridiques lors de son transfert à la Cour fédérale de Manhattan.

Cherchant à améliorer son dossier, Schwartz s’est tourné vers ChatGPT pour l’aider à trouver des affaires similaires qui ont été portées devant les tribunaux. ChatGPT a produit une liste de ces affaires : Varghese contre China Southern Airlines, Shaboon contre Egyptair, Petersen contre Iran Air, Martinez contre Delta Airlines, Estate of Durden contre KLM Royal Dutch Airlines et Miller contre United Airlines. » Cela ressemble à une liste décente de cas à citer au juge. Il n’y avait qu’un tout petit problème ; aucun de ces cas n’était réel ! Ils ont tous été inventés par ChatGPT.

L’avocat n’a jamais considéré que le chatbot IA pouvait lui donner de fausses informations

L’équipe juridique d’Avianca et le juge ont rapidement réalisé qu’ils ne pouvaient trouver aucun des cas cités dans le dossier de Schwartz. Dans un affidavit qu’il a déposé auprès du tribunal, Schwartz a inclus une capture d’écran de son interaction avec ChatGPT et a déclaré qu’en ce qui concerne le chatbot conversationnel AI, il « ignorait la possibilité que son contenu puisse être faux ». Le juge a prévu une audience le mois prochain pour « discuter des sanctions potentielles » pour Schwartz.

Que cela soit un avertissement pour tous ceux qui envisagent de confier à l’IA une partie de leur travail. Vous pourriez penser que vous gagnez du temps, mais vous pourriez avoir plus de problèmes si vous remplacez votre propre travail acharné par les résultats d’un chatbot IA. Je ne voudrais jamais que mes articles soient écrits par l’IA et non seulement vous vous faites du mal en utilisant l’IA, mais vous mentez à votre public soit en revendiquant la paternité de quelque chose que vous n’avez pas écrit, soit parce que vous fournissez peut-être à votre public -up informations.

Peu importe si vous êtes un étudiant qui envisage d’utiliser un chatbot IA pour vous aider avec un article que vous devez rédiger ou un avocat qui cherche à citer des cas. Les chatbots IA peuvent halluciner et vous donner de fausses informations. Cela ne veut pas dire qu’ils ne peuvent pas être utiles et pourraient vous orienter dans la bonne direction. Mais une fois le pointage effectué, c’est à vous de vous assurer que les informations que vous obtenez sont légitimes.



Source link -57