Avvocato nei guai per aver usato ChatGPT, che ha “inventato” i Precedenti legali"!

Immagine generata da Lexica.art.

La vicenda dell’avvocato statunitense finito nei guai per aver presentato in tribunale dei precedenti legali inventati da ChatGPT è un disastro informatico-giuridico che ha già fatto il giro del mondo anche nei media non specialistici.

Ma in molti degli articoli che ne hanno parlato mancano i link diretti ai documenti originali, che sono particolarmente ghiotti per gli appassionati di intrighi giudiziari e che grazie a Internet possiamo consultare con un semplice clic. E soprattutto manca un dettaglio non trascurabile: gli avvocati nei guai sono due, non uno.

Tutto è iniziato a febbraio 2022, con un’azione legale (Mata vs. Avianca, Inc.) avviata presso un tribunale federale nello Stato di New York da un uomo, Roberto Mata, contro la compagnia aerea Avianca per una lesione personale che afferma di aver subìto a bordo di un aereo della compagnia. L’uomo sarebbe stato colpito al ginocchio da un carrello portavivande durante un volo. Lo so, non è un caso drammatico alla Perry Mason, ma portate pazienza: ne vale la pena.

Gli avvocati della compagnia aerea hanno presentato un’istanza di rigetto per questioni di competenza, ma il legale che rappresenta l’uomo, l’avvocato Peter LoDuca, si è opposto a questa istanza portando i dettagli, meticolosamente elencati, di una lunga serie di precedenti che davano ampia ragione a lui e al suo assistito (pagine 4 e 5 di questo documento). 

Ma a questo punto è successa una cosa strana: i legali della Avianca hanno fatto notare al tribunale che negli archivi ufficiali non c’era alcuna traccia dei numerosi precedenti citati dall’avvocato LoDuca, tranne uno, che però comunque parlava di un altro argomento (nota di pag. 5 della risposta, documento n. 24, marzo 2023, mostrata qui sotto). 

E così il tribunale ha chiesto all’avvocato LoDuca di presentare delle copie di questi precedenti che risultavano misteriosamente introvabili (documento n. 25).

Potreste aspettarvi a questo punto che LoDuca abbia ammesso il proprio errore e si sia scusato profondamente, ma non è andata così. LoDuca ha preso tempo e poi ha presentato al giudice, miracolosamente, le copie di quei precedenti inesistenti. O meglio, ne ha presentato degli estratti, affermando in una dichiarazione giurata che li aveva trovati in un “database online” (documento n. 29, 25 aprile 2023). Però non ha precisato quale database.

Gli avvocati della Avianca hanno ribadito che nonostante questi estratti non riuscivano a trovare da nessuna parte i precedenti citati dalla controparte (documento n. 30). E così il giudice, il 4 maggio 2023, ha intimato all’avvocato LoDuca di comparire e spiegargli perché non doveva essere sanzionato per aver “citato al Tribunale dei casi inesistenti” e per aver “sottoposto al Tribunale… copie di opinioni giudiziarie inesistenti”. Il giudice ha precisato che si trattava di “circostanze senza precedenti”, facendo forse un gioco di parole sul doppio significato di senza precedenti” (documento n. 31).

Il 25 maggio 2023 l’avvocato LoDuca ha rivelato al tribunale che non era stato lui a ricercare e compilare i precedenti, ma un collega, Steven Schwartz (documento n. 32). Ed è qui che c’è da mettersi le mani nei capelli, perché a sua volta Schwartz ha dichiarato (documento n. 32.1) che lui aveva “consultato il sito web di intelligenza artificiale Chat GPT [sic] per ampliare le ricerche legali svolte” e che questa consultazione gli aveva permesso di trovare e citare quei precedenti introvabili. Ha dichiarato testualmente che “le citazioni e i pareri in questione sono stati forniti da Chat GPT, che ha anche fornito le fonti legali e garantito l’affidabilità dei suoi contenuti”.

Schwarz ha persino allegato le schermate nelle quali ha chiesto assurdamente a ChatGPT di confermare che i precedenti che il software aveva citato esistessero veramente. E ChatGPT, con la sua consueta parlantina così sicura di sé che nasconde il fatto che le sue risposte sono pura fantasia informatica, ha dichiarato che i precedenti erano reali e che erano reperibili negli archivi di ricerca legale, come per esempio Westlaw e LexisNexis.



L’avvocato Schwartz ha poi aggiunto che era “inconsapevole della possibilità che i contenuti [generati da ChatGPT] potessero essere falsi” e che “non aveva intenzione di ingannare il Tribunale o gli imputati”.

Il giudice federale non l’ha presa bene, comprensibilmente, anche perché i due avvocati, LoDuca e Schwartz, non hanno ammesso il proprio errore madornale la prima volta che è stato segnalato, ma hanno insistito di aver ragione anche dopo il richiamo del tribunale. E Schwartz è nei guai anche perché ha certificato delle dichiarazioni fraudolente del collega LoDuca a proposito di quei precedenti inventati. I due avvocati si sono procurati dei difensori, e ora non resta che attendere l’udienza del prossimo 8 giugno.

Non c’è traccia, in tutta questa tragicommedia di profonda incompetenza, delle reazioni del povero signor Roberto Mata, l’assistito dei due avvocati, che adesso ha scoperto di essere nelle mani di due legali i cui comportamenti sembrano presi di peso dalle comiche di Stanlio e Ollio (perlomeno se ai tempi di Stanlio e Ollio ci fossero stati i computer).

Insomma, nonostante mesi di segnalazioni continue, e su tutti i media, degli errori e delle cosiddette allucinazioni di ChatGPT, due avvocati (non due studentelli qualsiasi) erano convinti che lo si potesse usare come fonte autorevole e che le sue risposte fossero così affidabili da non avere bisogno di verifiche indipendenti. Viene da chiedersi quanti altri professionisti, in ruoli altrettanto importanti, stiano facendo lo stesso tipo di errore e stiano già usando a sproposito ChatGPT per gettare le basi per altri disastri.

Fonti aggiuntive: @kendraserra@dair-community.social; Ars Technica.

Commenti