En mai, l’avocat Steven A. Schwartz (du cabinet new-yorkais Levidow, Levidow & Oberman) a soumis un dossier juridique de 10 pages au nom d’un client qui poursuit une compagnie aérienne. Le mémoire, selon le New York Times, citait plus d’une demi-douzaine de « décisions » qui étaient « pertinentes » pour l’affaire.
Mais aucun des « cas » cités dans le mémoire n’était réel. Tous ont été générés artificiellement par le chatbot ChatGPT. Et le jeudi 8 juin, Schwartz doit comparaître devant un juge de Manhattan et faire face à « d’éventuelles sanctions ».
Dans une déclaration déposée le mardi 6 juin, Schwartz a expliqué : « Je n’avais tout simplement aucune idée que ChatGPT était capable de fabriquer des citations entières de cas ou des opinions judiciaires, en particulier d’une manière qui semblait authentique…. Cela a été profondément embarrassant à la fois sur le plan personnel et professionnel, car ces articles seront disponibles pour les années à venir. »
Le client de Schwartz dans l’affaire est Roberto Mata, qui a poursuivi Avianca Airlines et a allégué qu’il avait été blessé lorsqu’un chariot de service en métal s’est cogné le genou lors d’un vol d’El Salvador à New York. Les avocats d’Avianca ont demandé à un juge de rejeter l’affaire, et lorsque les avocats de Mata se sont opposés, ils ont présenté le dossier problématique de dix pages pour montrer pourquoi ils croyaient que Roberto Mata c. Avianca Inc. devrait procéder.
Mais les « cas » cités dans le mémoire – tels que Martinez contre Delta Air Lines et Zicherman contre Korean Air Lines – n’étaient pas des cas réels. Ils avaient été générés artificiellement par ChatGPT.
Les avocats de Schwartz ont demandé au juge P. Kevin Castel de ne pas imposer de sanctions à Schwartz ou à Levidow, Levidow & Oberman.
Les avocats ont fait valoir: « Des sanctions ne serviraient à rien. M. Schwartz et l’entreprise sont déjà devenus les enfants de l’affiche pour les dangers de se frotter aux nouvelles technologies; leur leçon a été apprise. »
L’expert juridique David Lat a déclaré au New York Times : « Cette affaire s’est répercutée sur l’ensemble de la profession juridique. C’est un peu comme regarder une épave de voiture. Mais c’est aussi une précieuse leçon sur les dangers de se fier à (l’intelligence artificielle ) outils dans la pratique juridique. »