Customize this title in frenchLes avocats qui ont utilisé la fausse jurisprudence de ChatGPT sont condamnés à une amende de 5 000 $

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Un juge fédéral a infligé jeudi des amendes de 5 000 $ à deux avocats et à un cabinet d’avocats dans une affaire sans précédent dans laquelle ChatGPT a été accusé d’avoir soumis des recherches juridiques fictives dans le cadre d’une réclamation pour blessure dans l’aviation.

Le juge P. Kevin Castel a déclaré que les avocats avaient agi de mauvaise foi. Mais il a tenu compte de leurs excuses et de leurs tentatives de rectification pour décider de ne pas imposer de sanctions plus sévères afin de s’assurer qu’eux-mêmes ou d’autres ne laisseront plus les outils d’intelligence artificielle les inciter à produire de faux antécédents juridiques dans leurs arguments.

« Les progrès technologiques sont monnaie courante et il n’y a rien de fondamentalement inapproprié à utiliser un outil d’intelligence artificielle fiable pour l’assistance », a écrit Castel. « Mais les règles existantes imposent un rôle de contrôle aux avocats pour garantir l’exactitude de leurs documents. »

Le juge a déclaré que les avocats et leur cabinet, Levidow, Levidow & Oberman, « ont abandonné leurs responsabilités lorsqu’ils ont soumis des opinions judiciaires inexistantes avec de fausses citations et citations créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à respecter les fausses opinions après la décision judiciaire ». les ordres remettaient leur existence en question.

Dans un communiqué, le cabinet d’avocats a déclaré qu’il se conformerait à l’ordonnance de Castel, mais a ajouté: «Nous sommes respectueusement en désaccord avec la conclusion selon laquelle quiconque dans notre cabinet a agi de mauvaise foi. Nous avons déjà présenté nos excuses à la Cour et à notre client. Nous continuons de croire que face à ce que même la Cour a reconnu être une situation sans précédent, nous avons commis une erreur de bonne foi en ne croyant pas qu’une technologie pourrait fabriquer des affaires à partir de tout.

L’entreprise a déclaré qu’elle envisageait de faire appel.

Castel a déclaré que la mauvaise foi résultait de l’incapacité des avocats à répondre correctement au juge et à leurs adversaires légaux lorsqu’il a été remarqué que six affaires judiciaires répertoriées pour étayer leurs arguments écrits du 1er mars n’existaient pas.

Le juge a cité des «explications changeantes et contradictoires» offertes par l’avocat Steven A. Schwartz. Il a déclaré que l’avocat Peter LoDuca avait menti au sujet d’être en vacances et avait été malhonnête en confirmant la véracité des déclarations soumises à Castel.

Lors d’une audience plus tôt ce mois-ci, Schwartz a déclaré qu’il avait utilisé le chatbot alimenté par l’intelligence artificielle pour l’aider à trouver des précédents juridiques à l’appui de l’affaire d’un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d’un vol en 2019.

Microsoft investit quelque 10 milliards de dollars dans OpenAI, la société derrière ChatGPT.

Le chatbot, qui génère des réponses de type essai aux invites des utilisateurs, a suggéré plusieurs cas impliquant des accidents d’aviation que Schwartz n’avait pas été en mesure de trouver par les méthodes habituelles utilisées dans son cabinet d’avocats. Plusieurs de ces cas n’étaient pas réels, des juges mal identifiés ou impliquaient des compagnies aériennes qui n’existaient pas.

Le juge a déclaré que l’une des fausses décisions générées par le chatbot avait « certains traits qui sont superficiellement cohérents avec les décisions judiciaires réelles », mais il a déclaré que d’autres parties contenaient du « charabia » et étaient « absurdes ».

Dans une opinion écrite distincte, le juge a rejeté la réclamation sous-jacente de l’aviation, affirmant que le délai de prescription avait expiré.

Les avocats de Schwartz et LoDuca n’ont pas immédiatement répondu à une demande de commentaire.

Source link -57