Caso Loomis, come l’AI entrò in un tribunale già nel 2013

Fu utilizzato un software basato su algoritmi per condannare un uomo a sei anni di carcere. Ma da lì vennero a galla problemi di discriminazione

01/06/2023 di Enzo Boldi

La vicenda dell’avvocato americano che si è affidato (sbagliando) a ChatGPT per redigere un documento legale a sostegno della sua tesi non è la prima volta in cui l’intelligenza artificiale ha varcato le soglie di un tribunale. Per scovare l’esordio di software basati su algoritmi e AI durante un processo occorre tornare al 2013, sempre negli Stati Uniti. Al famoso caso Loomis che aveva – anche all’epoca – provocato numerose polemiche. Non per la sentenza di condanna nei confronti dell’imputato, ma per gli strumenti utilizzati nel processo decisionale che portò alla condanna a sei anni di reclusione.

LEGGI ANCHE > La figuraccia dell’avvocato che ha citato sentenze false “suggerite” da ChatGPT

Prima di entrare nel dettaglio di questi strumenti, sintetizziamo cosa accadde l’11 febbraio del 2013. Durante la notte, ci fu una sparatoria in Kane Street (nella città di Burlington, in Wisconsin). I presenti chiamarono le forze dell’ordine, fornendo anche una descrizione del veicolo da cui erano stati esplosi quei due colpi. La polizia, poi, riuscì a individuare quel veicolo (rubato) e da lì ne scaturì un inseguimento che si concluse con l’impatto della vettura contro un cumulo di neve. I due a bordo, tentarono la fuga a piedi, senza riuscirci. A bordo c’erano Eric L. Loomis (all’epoca 31enne) e un altro uomo, Michael Vang. Sotto i sedili e nel portabagagli gli agenti trovarono un fucile a canna corta (calibro 12), alcune munizioni e due cartucce utilizzate. Questo provocò l’arresto dei due uomini.

Da lì ne scaturì il processo, con i due accusati (come complici) di numerosi reati: dalla guida pericolosa, al mancato stop all’alta della polizia, passando per la guida di una vettura rubata e il possesso di armi da fuoco. Nell’agosto del 2013, Loomis si dichiarò colpevole solo per la fuga dalle forze dell’ordine, ma il Tribunale del Wisconsin condannò lui e Michale Vang alla pena di sei anni di detenzione. Senza possibilità di usufruire di permessi e sconti di pena per via dei precedenti. E non solo. Perché il giudice utilizzò un software – chiamato “Compas”, acronimo di “Correctional Offender Management Profiling for Alternative Sanctions” – basato sugli algoritmi.

Caso Loomis, l’AI usata in processo già nel 2013

Proprio l’utilizzo del software Compas, sviluppato da Equivant (che all’epoca si chiamava Northpointe), ha sollevato polemiche e perplessità sulla soluzione del caso Loomis. Prima di entrare nel merito delle criticità, spieghiamo (in breve) i parametri alla base di questo strumento: tra i fattori analizzati (anche in termine previsionali e statistici per arrivare a una sentenza di condanna) ci sono sono età, sesso, storia criminale e altri dati socio-demografici. Da qui l’algoritmo calcola un punteggio di rischio per quantificare la “durata” della condanna”. Quando si parla di “dati socio-demografici” occorre sempre valutare la situazione in modo approfondito: status sociale ed “etnia” di riferimento rischiano di essere un fattore statistico penalizzante per molte delle comunità che vivono negli Stati Uniti. Ma questo è solo uno delle tre principali contestazioni mosse nei confronti della sentenza del caso Loomis e del sistema giuridico che utilizza questo tipo di software algoritmici a sostegno di una sentenza di condanna. Proviamo a spiegare le criticità:

  • Assenza di trasparenza. Essendo COMPAS è un software-algoritmo proprietario privato, le caratteristiche del suo funzionamento sono protette dal segreto commerciale. Dunque, informazioni non accessibili al pubblico. Questo aspetto porta all’impossibilità di verificare se e quanto l’algoritmo sia imparziale o presenti dei pregiudizi sistematici.
  • Pregiudizi e discriminazione. Questo punto, dunque, si ricollega all’assenza di trasparenza per la natura privata del software. E nel 2016, un’indagine condotta da ProPublica rivelò come Compas potesse essere pregiudizievole nei confronti delle persone che fanno parte della comunità afroamericana. L’analisi, infatti, dimostrò come l’algoritmo sovrastimava il cosiddetto “rischio di recidiva” (elemento evidenziato anche dal caso Loomis) per quel che riguarda i neri, mentre sottostimava quell’indice per gli imputati bianchi.
  • Inaffidabilità. Secondo uno studio pubblicato nel gennaio del 2018 sulla rivista Science Advances, i cosiddetti “punteggi di rischio” del software e degli algoritmi di Compas erano meno o parimenti accurati rispetto alle previsioni fatte da cittadini presi casualmente e senza nessuna esperienza del sistema giudiziario.

Tre aspetti che furono portati, nel corso degli anni, al centro dell’attenzione. Perché Loomis ricorse alla Corte Suprema dopo la sentenza di condanna sottolineando come l’utilizzo di Compas avesse condizionato la sua condanna per via dei pregiudizi. Ma i giudici decisero di respingere il ricorso, spiegando nelle motivazioni che l’imputato avrebbe ricevuto la stessa condanna con o senza l’ausilio dell’algoritmo. Ma con un avvertimento: l’utilizzo di algoritmi non vìola i diritti costituzionali, ma il suo utilizzo deve essere limitato.

 

Share this article