La figuraccia dell’avvocato che ha citato sentenze false “suggerite” da ChatGPT

Steven Schwartz ha rappresentato un passeggero in una causa contro la compagnia aerea Avianca. Si era affidato al chatbot per trovare alcuni precedenti contro l'archiviazione

01/06/2023 di Redazione Giornalettismo

Un caso emblematico che, al momento, dovrebbe mettere al riparo dal timore che l’intelligenza artificiale possa sostituire l’essere umano in ogni lavoro. Questa vicenda arriva dagli Stati Uniti, direttamente dal Tribunale di Manhattan, dove un avvocato ha deciso di affidarsi quasi completamente alle ricerche e ai suggerimenti dell’AI per trovare sentenze a sostegno del proprio assistito in una causa contro una compagnia aerea colombiana. Peccato per lui che le sentenze citate fossero false, con una pessima figura (e non solo) per lui e per ChatGPT.

LEGGI ANCHE > Un giudice del Texas ha vietato agli avvocati di usare contenuti prodotti con ChatGPT

La vicenda nasce dalla causa intentata da un cittadino, R. M., nei confronti di Avianca. L’uomo ha citato in giudizio la compagnia aerea colombiana dopo esser stato colpito e ferito a un ginocchio da un carrello porta vivande mentre si trovava a bordo di un loro velivolo. Per ottenere un risarcimento danni, lo stesso R. M. si era affidato al rinomato studio legale Levidow e Oberman che aveva deciso di affidare questa causa all’avvocato Steven Schwartz. Nel corso del dibattimento, la compagnia aerea aveva chiesto al giudice del tribunale di Manhattan l’archiviazione del caso, ma il legale della controparte non si voleva dare per vinto. Da lì la (poco) geniale idea di chiedere al chatbot sviluppato da OpenAI casi analoghi precedenti in cui non si era proceduto con l’archiviazione.

Sentenze false su ChatGPT, il caso di un avvocato americano

Peccato per lui – e per il suo cliente – che quanto suggerito da ChatGPT fosse completamente falso. Anzi, sentenze letteralmente inventate e mai avvenute.

Sentenze come “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines” sono state letteralmente inventate dal chatbot. L’avvocato Schwartz, nella stesura del suo documento legale, aveva specificato di aver usufruito del supporto di ChatGPT, dichiarando anche che la stessa intelligenza artificiale avesse confermato la veridicità di quei casi analoghi di archiviazione respinta.

La figura barbina

Una volta consegnato quel documento legale al giudice Kevin Castel, sono iniziate tutte le verifiche di rito. Gli uffici del Tribunale di Manhattan hanno cercato approfonditamente i dettagli di quelle sentenze (con ChatGPT che aveva persino fornito numeri e dettagli di quelle “decisioni” precedenti), non trovando nulla in nessun archivio. Alla fine, dunque, l’amara ammissione: quelle erano sentenza false su ChatGPT. L’avvocato, oltre alla figura barbina, rischia dei provvedimenti e delle sanzioni per essersi rivolto a uno strumento sicuramente non accurato per stilare la linea del proprio assistito.

Share this article