ChatGPT nelle banche? Per Fabrizio Gatti l’AI «non è abilitata né esperta»

Rispetto all'utilizzo di ChatGPT da parte delle banche per avere informazioni sul passato di chi chiede prestiti o mutui si deve andare cauti. Ne abbiamo parlato con il direttore editoriale di Today.it, Fabrizio Gatti, che ha fatto un esperimento in merito

27/09/2023 di Ilaria Roncone

Le banche utilizzano l’intelligenza artificiale per indagare sui clienti a cui devono concedere il mutuo. O almeno ci provano. Questo è quello che il giornalista e direttore editoriale per gli approfondimenti di Today.it, Fabrizio Gatti, ha fatto emergere in una delle sue ultime inchieste. Dopo la segnalazione di un amico informatico che lavora per una banca, ha avuto modo di chiedere a Bing – che ha integrato ChatGPT – informazioni sul suo conto. Il risultato? Bing restituisce parzialmente la verità sul giornalista, sovrapponendo il suo profilo a quello di un omonimo che è stato condannato per aver sottratto 6 milioni di euro alla Regione Piemonte.

Per quale ragione la segnalazione arriva da una banca? Perché, come abbiamo deciso di approfondire nel monografico di oggi, ci sono banche che attualmente stanno sperimentando l’utilizzo di intelligenze artificiali come ChatGPT di Microsoft e Bard di Google per chiedere informazioni sui clienti. La fonte di Fabrizio Gatti ha spiegato come, da quando è integrato con ChatGPT, nella sia banca stanno facendo sperimentazioni provando a « raccogliere informazioni da fonti aperte sui clienti che chiedono prestiti o mutui. Prima lo facevamo manualmente con Google, adesso potrebbe fare tutto ChatGpt da sola e in pochi secondi». Un esperimento che – allo stato attuale delle cose – rivela ciò che con l’intelligenza artificiale proprio non si può (e non si deve assolutamente) fare.

LEGGI ANCHE >>> Come si può regolamentare l’utilizzo di ChatGPT in aula da parte degli avvocati?

Il lavoro di ricerca per concedere mutui e prestiti non può essere svolto efficacemente dall’AI

Abbiamo contattato il direttore editoriale di Today.it per approfondire insieme non solo i risultati di questo suo esperimento ma anche le implicazioni. Una cosa è chiara: «L’amico che mi ha segnalato questa scoperta lavora in una banca e sta sperimentando, con tutti i controlli necessari ovviamente, l’impiego di queste applicazioni per accelerare il lavoro di ricerca dei dati su eventuali clienti. Escludo che banche, assicurazioni, enti che hanno a che fare col pubblico e hanno una responsabilità anche economica rispetto alle risposte che danno si affidino esclusivamente all’AI. Piuttosto, e la dimostrazione è che se ne occupa un informatico e non un addetto al credito, stanno facendo delle ricerche per verificare l’affidabilità».

Allo stato attuale delle cose, è evidente, l’utilizzo dell’Intelligenza Artificiale per minimizzare l’investimento di tempo nel lavoro di verifica dei requisiti si chi chiede un mutuo non solo è inutile, è anche dannoso. «Parlando dell’utilizzo di queste applicazioni in qualsiasi ambito, ma in particolar modo in quello bancario – spiega Gatti ai microfoni di Giornalettismo -, ritengo che l’errore più grave sia l’associazione del mio nome con quello di un omonimo che – quest’anno – è stato condannato per un grave reato nonostante in rete siano ben evidenti le differenze tra noi due».

«Io – essendomi venuto il dubbio che non sia in grado di distinguere le omonimie e le differenze che circolano in rete in merito alle date di nascita, ai luoghi di provenienza o a dove è stata fatta una certa azione – ho provato a inserire dei nomi di persone condannate con una data di nascita diversa. Come è normale che sia, ci sono persone comuni che condividono nome e cognome con altri che sono stati protagonisti di gravi fatti di cronaca. Ho scelto questo perché, ovviamente, sono persone delle quali si può trovare informazioni in rete. Il fatto che non sia in grado di distinguere quel dato matematico, che è la data di nascita, dimostra che l’applicazione – in questo uso – è ancora molto alle prime armi».

I pericoli dell’AI negli ambiti in cui sono inesperte

I vari esperimenti condotti da Gatti – come pure quelli che abbiamo condotto, in questi mesi, in redazione – indicano una direzione molto precisa: «Il pericolo, secondo me, è che noi si faccia un uso disinvolto di queste applicazioni chiedendo loro di dare risposte per le quali non sono ancora abilitate ed esperte. E non so se lo saranno, probabilmente sì, ma in questo momento no. Così facendo, si espone l’utilizzatore – come nel caso che mi riguarda – a una responsabilità civile e penale grave nei confronti di ciò che è stato raccolto. Il rischio è che ci sia una circolazione di informazioni verosimili, ma non vere, che di fatti rendono impossibili l’utilizzo dell’applicazione per questi scopi».

E dobbiamo considerare – oltretutto – che il rischio di utilizzare la rete come fonte è che le informazioni che ci vengono presentate siano non solo non certificate e non certificabili ma anche parziali, se non addirittura errate. E, attingendo a ciò che è pubblicato e presente in rete, non è necessariamente detto che il passato creditizio o la condanna di un comune cittadino siano in alcun modo stati resi noti.

«Probabilmente – ha proseguito Gatti – lo scopo per il quale è stata utilizzata ChatGPT da questo informatico che lavora in banca è eccessivo rispetto alle effettive capacità della tecnologia. Se questa ricerca fosse fatta all’interno di una banca dati, che contiene informazioni certificate, ritengo che la risposta sarebbe altrettanto certificabile da una verifica umana. Nel suo esperimento chiedendo conto di se stesso a ChatGPT, il giornalista ha atteso qualche mese per rifare la stessa domanda e il risultato lo ha sorpreso non poco: «Mentre a maggio associava semplicemente una parte della mia biografia con la parte della persona omonima che è stata oggetto della vicenda giudiziaria, nell’ultima versione dava una mia breve biografia corretta e finiva lì. Però alla mia domanda se avessi mai subito processo e se ero stato condannato, ha dato una risposta elaborata e ha concluso aggiungendo la questione dei 6 milioni di euro dicendo che “il giornalista si dichiara innocente e ha fatto ricorso in appello”. Quindi va oltre, attribuisce alla persona che non sono io il ruolo di giornalista. Si tratta di una confusione pazzesca».

Le capacità umane che l’AI non può replicare

Almeno per ora. Parlando dell’esperimento, abbiamo notato come il fatto che la condanna in primo grado al giornalista Fabrizio Gatti sia stata annullata non viene menzionato da ChatGPT. Per quale ragione, considerato che – seppure si sia dato minor rilievo alla faccenda – l’informazione sia presente in rete. Il punto è che l’AI dimostra, attingendo dalla rete, di dare maggiore rilievo a una condanna – sulla quale, quando riguarda un personaggio famoso, c’è molto materiale a livello giornalistico solitamente – rispetto all’annullamento o all’assoluzione – sulle quali, invece, si tende a parlare di meno, lasciando meno tracce in rete -.

Di parere concorde è il giornalista, che prosegue: «Questo spiega anche, tra l’altro, perché se faccio una ricerca in cinese su personaggi della storia che sono stati dittatori la risposta è completamente diversa da quella che ci aspetteremmo – e che effettivamente riceviamo – in italiano. Può essere questo il motivo e sicuramente è un elemento in più di dubbio, nel senso che nella nostra ricerca umana siamo in grado di distinguere e attribuire importanza anche a un singolo episodio che viene riportato tra mille. Invece un approccio statistico, a un singolo episodio riportato tra mille, dà un peso evidentemente inferiore rispetto agli altri mille. Sarebbe bello provare a creare un sistema chiuso in cui inserire enunciati sbagliati, tipo che la terra è piatta, e vedere che risposte si ottengono. Immagino sarebbero coerenti con la maggioranza delle informazioni presenti nel sistema chiuso».

L’unica conclusione sensata, quindi, è quella che vede l’uso delle tecnologie AI in determinati ambiti quantomeno prematuro poiché ciò che viene generato necessita comunque di un lavoro umano che richiede tempo per essere fatto, la scrematura di ciò che è errato rispetto a ciò che è invece corretto. Almeno per ora, possiamo dire che «queste macchine sono generalmente inutili nella ricerca di informazioni mentre sono straordinariamente efficaci nell’elaborazione di informazioni certificate, da qui la scrittura di codici, le traduzioni, la scrittura di testi».

Share this article