ChatGPT reconnu coupable d’avoir fabriqué des affaires et des citations pour le dépôt d’un avocat à la Cour fédérale de Manhattan

ChatGPT found guilty of fabricating cases and citations for a Manhattan lawyer

Couper les coins ronds : Les frais juridiques ne sont certainement pas bon marché, donc lorsque nous retenons une représentation juridique, nous supposons que nous payons pour le temps et l’expertise de ce professionnel juridique. Plutôt que de fournir les services typiques retenus, un avocat de Manhattan a tenté de raccourcir le processus de recherche en laissant ChatGPT citer ses références de cas pour un dépôt auprès de la Cour fédérale. Et comme il l’a découvert à ses dépens, la vérification des faits est assez importante, surtout lorsque votre IA a un penchant pour inventer des faits.

L’avocat Steven A. Schwartz a été retenu par un client pour le représenter dans une affaire de lésions corporelles contre Avianca Airlines. Selon l’affirmation, le client de Schwartz aurait été frappé au genou avec un chariot de service lors d’un vol en 2019 vers l’aéroport international Kennedy.

Comme on pouvait s’y attendre dans ce type de situation juridique, la compagnie aérienne a demandé à un juge fédéral de Manhattan de jeter l’affaire, ce à quoi Schwartz s’est immédiatement opposé. Jusqu’à présent, cela ressemble à un échange de salle d’audience assez typique. C’est-à-dire jusqu’à ce que Schwartz, qui n’avait jamais utilisé ChatGPT auparavant, décide qu’il était temps de laisser la technologie parler.

ChatGPT reconnu coupable davoir fabrique des affaires et des citations

Dans son opposition à la demande d’Avianca, Schwartz a soumis un mémoire de 10 pages citant plusieurs décisions de justice pertinentes. Les citations faisaient référence à des affaires similaires, notamment Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et Varghese c. China Southern Airlines. Selon l’article du New York Times, la dernière citation a même fourni une longue discussion sur la loi fédérale et « l’effet néfaste de la suspension automatique d’un délai de prescription ».

Bien qu’il semble que Schwartz soit venu armé et prêt à défendre l’affaire, il y avait un problème sous-jacent : aucun de ces cas n’est réel. Martinez, Zicherman et Varghese n’existent pas. ChatGPT les a tous fabriqués dans le seul but de soutenir la soumission de Schwartz.

Confronté à l’erreur du juge P. Kevin Castel, Schwartz a reconnu qu’il n’avait aucune intention de tromper le tribunal ou la compagnie aérienne. Il a également regretté de s’être fié au service d’intelligence artificielle, admettant qu’il n’avait jamais utilisé ChatGPT et qu’il « ignorait la possibilité que son contenu soit faux ». Selon les déclarations de Schwartz, il a tenté à un moment donné de vérifier l’authenticité des citations en demandant à l’IA si les cas étaient en fait réels. Il a simplement répondu « oui ».

Le juge Castel a ordonné une audience de suivi le 8 juin pour discuter des sanctions potentielles liées aux actions de Schwartz. L’ordonnance de Castel a présenté avec précision les nouvelles situations étranges comme « une circonstance sans précédent », jonchée de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Et dans un cruel coup du sort, le cas de Schwartz pourrait très bien finir comme l’une des citations utilisées dans les futures affaires judiciaires liées à l’IA.


Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :

YouTube video