Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
© Reuter. PHOTO DE DOSSIER : Le juge en chef américain John Roberts s’exprime lors des funérailles de la juge à la retraite de la Cour suprême des États-Unis, Sandra Day O’Connor, à la cathédrale nationale de Washington, à Washington, aux États-Unis, le 19 décembre 2023. REUTERS/Evelyn Hockstein/File Photo
Par John Kruzel
WASHINGTON (Reuters) – L’intelligence artificielle représente une bénédiction mitigée pour le domaine juridique, a déclaré le juge en chef de la Cour suprême des États-Unis, John Roberts, dans un rapport de fin d’année publié dimanche, appelant à « la prudence et l’humilité » alors que l’évolution de la technologie transforme la façon dont les juges et les avocats agissent. sur leur travail.
Roberts a adopté un ton ambivalent dans son rapport de 13 pages. Il a déclaré que l’IA avait le potentiel d’améliorer l’accès à la justice pour les justiciables indigents, de révolutionner la recherche juridique et d’aider les tribunaux à résoudre les affaires plus rapidement et à moindre coût, tout en soulignant les problèmes de confidentialité et l’incapacité de la technologie actuelle à reproduire la discrétion humaine.
« Je prédis que les juges humains existeront pendant un certain temps », a écrit Roberts. « Mais avec la même confiance, je prédis que le travail judiciaire – en particulier au niveau des procès – sera considérablement affecté par l’IA. »
Le commentaire du juge en chef constitue son débat le plus significatif à ce jour sur l’influence de l’IA sur le droit, et coïncide avec un certain nombre de tribunaux inférieurs qui se débattent sur la meilleure façon de s’adapter à une nouvelle technologie capable de réussir l’examen du barreau mais également encline à générer des contenu, connu sous le nom d’« hallucinations ».
Roberts a souligné que « toute utilisation de l’IA nécessite prudence et humilité ». Il a mentionné un cas où les hallucinations de l’IA ont conduit des avocats à citer des cas inexistants dans des documents judiciaires, ce qui, selon le juge en chef, est « toujours une mauvaise idée ». Roberts n’a pas précisé que le phénomène « avait fait la une des journaux cette année ».
La semaine dernière, par exemple, Michael Cohen, ancien conseiller et avocat de Donald Trump, a déclaré dans des documents judiciaires dévoilés la semaine dernière qu’il avait donné par erreur à son avocat de fausses citations générées par un programme d’IA qui ont été versées dans un dossier officiel du tribunal. D’autres cas d’avocats incluant des cas hallucinés par l’IA dans des mémoires juridiques ont également été documentés.
Le mois dernier, une cour d’appel fédérale de la Nouvelle-Orléans a fait la une des journaux en dévoilant ce qui semble être la première règle proposée par l’une des 13 cours d’appel américaines visant à réglementer l’utilisation d’outils d’IA générative comme ChatGPT d’OpenAI par les avocats comparaissant devant elle.
La règle proposée par la 5e Cour d’appel des États-Unis exigerait que les avocats certifient qu’ils ne se sont pas appuyés sur des programmes d’intelligence artificielle pour rédiger leurs mémoires ou que des humains ont vérifié l’exactitude de tout texte généré par l’IA dans leurs dossiers judiciaires.