Come si può regolamentare l’utilizzo di ChatGPT in aula da parte degli avvocati?

La proposta è di chiedere agli avvocati di redigere una "Certificazione obbligatoria relativa all'intelligenza artificiale generativa"

01/06/2023 di Ilaria Roncone

Ci troviamo di fronte a qualcosa che non è mai accaduto prima – o meglio, c’è un precedente nel 2013 di cui abbiamo parlato nel nostro monografico di oggi dedicato all’argomento AI nei tribunali ma è rimaso un caso isolato finora – e che, come tutto ciò che è nuovo, necessità di essere regolamentato. Il tema della regolamentazione dell’intelligenza artificiale nei vari ambiti della vita è urgente da mesi e ora gli addetti ai lavori – dopo il divieto di un giudice in Texas di usare contenuti prodotti da ChatGPT quando a giudicare è lui – devono occuparsi di questo tema. Una prima idea su come regolamentare l’uso di ChatGPT in tribunale l’ha fornita proprio il giudice in questione.

LEGGI ANCHE >>> Un giudice del Texas ha vietato agli avvocati di usare contenuti prodotti con ChatGPT

ChatGPT in tribunale: proposta una certificazione per regolamentarne l’uso

Nella sede federale del distretto settentrionale del Texas, quella del giudice Starr che ha fatto da apripista rispetto al tema, è comparsa la “Certificazione obbligatoria relativa all’intelligenza artificiale generativa”. Non è ben chiaro se la si stia già utilizzando – come riporta la prima fonte ad aver parlato della questione (una rivista di settore), ripresa anche da TechCrunch – e se sia nata come conseguenza della decisione del giudice.

Questi certificati dovrebbero «attestare […] che nessuna parte del deposito è stata redatta dall’intelligenza artificiale generativa (come ChatGPT, Harvey.AI o Google Bard) o che qualsiasi testo redatto dall’intelligenza artificiale generativa è stata studiata per verificarne l’accuratezza, utilizzando reporter di stampa o database legali tradizionali, da un essere umano». A tutti gli avvocati che compaiono davanti alla Corte dovrebbe essere richiesto di depositare il documento che lo attesti.

Il punto è che ChatGPT ha un alto potenziale di utilizzo in questo mestiere proprio per le sue capacità riassuntive ed esplicative: buona parte del lavoro di un avvocato consiste nel cercare casi precedenti e spiegarli, cosa che – se fatta fare all’AI – permetterebbe di risparmiare moltissimo tempo. Il rischio è, appunto, che ChatGPT entri nelle aule dei tribunali sempre più spesso e se l’uso non viene dichiarato e regolamentato, i rischi sono altissimi (basti pensare, appunto, all’avvocate che si è presentando in aula citando sei casi precedenti inventati).

«Piattaforme soggette ad allucinazioni e pregiudizi»

Nell’ordine permanente del giudice – che i giudici federali emanano e che vanno ad aggiungersi, per gli avvocati, alle regole distrettuali locali e alle normali regole federali di procedura civile e penale – vengono fatte una serie di considerazioni sull’AI utilizzato in ambito giuridico. «Queste piattaforme sono incredibilmente potenti e hanno molti usi nella legge – si legge nell’ordine – ma il briefing reale non è uno di questi perché, allo stato attuale delle cose, questi sistemi sono soggetti ad allucinazioni e pregiudizi. Inventano persino citazioni».

Per quanto riguarda i pregiudizi, invece, questo diventa un problema di affidabilità. «Mentre gli avvocati giurano di mettere da parte i propri pregiudizi e convinzioni personali per sostenere fedelmente la legge e rappresentare i propri clienti, l’intelligenza artificiale generativa è il prodotto della programmazione ideata da esseri umani che non dovevano prestare tale giuramento».

«In quanto tali – prosegue il documento – questi sistemi non sono legati a nessun cliente, allo stato di diritto o alle leggi e alla Costituzione degli Stati Uniti (o, come indicato sopra, alla verità). Non vincolati da alcun senso del dovere, dell’onore o della giustizia, tali programmi agiscono secondo il codice del computer piuttosto che la convinzione, sulla base della programmazione piuttosto che del principio».

Stabilito questo, viene comunque data la possibilità agli avvocati di avvalersi dell’AI in aula dovendo – però – giustificare la scelta: «Qualsiasi parte che ritenga che una piattaforma abbia l’accuratezza e l’affidabilità necessarie per il briefing legale può richiedere un congedo e spiegare perché». La scelta è quella che la Corte annulli «qualsiasi deposito di un avvocato che non presenti un certificato sul registro che attesti che l’avvocato ha letto i requisiti specifici del giudice della Corte e comprende che sarà ritenuto responsabile ai sensi della Regola 11 per il contenuto di qualsiasi deposito che firma e presenta alla Corte, indipendentemente dal fatto che l’intelligenza artificiale generativa abbia redatto una parte di tale deposito».

Share this article