Nell’uso superficiale dell’AI da parte delle banche c’è «il pericolo di risposte verosimili e non vere»

Con Fabrizio Gatti siamo scesi nei dettagli più tecnici che, sperimentando con tecnologie AI, fanno capire che il limite nell'utilizzo in banca (e in tanti altri ambiti altrettanto delicati) sia attualmente sensato

27/09/2023 di Ilaria Roncone

Nel nostro lungo dialogo con il direttore editoriale per gli approfondimenti di Today.it, Fabrizio Gatti, abbiamo approfondito le ragioni che porterebbero chiunque ad affermare che – attualmente – l’utilizzo di tecnologie AI come ChatGPT in ambiti delicati come quello bancario (per cercare informazioni sui clienti, in particolare) non s’ha da fare. Cosa c’è dietro questo rischio di ottenere informazioni parziali, insufficienti – se non addirittura errate – sulle persone che possono richiedere un prestito o un mutuo alle banche?

LEGGI ANCHE >>> ChatGPT nelle banche? Per Fabrizio Gatti l’AI «non è abilitata né esperta»

L’approccio statistico di ChatGPT e dell’Intelligenza artificiale

Al direttore di Today.it abbiamo chiesto di commentare gli errori che Bing, integrato con ChatGPT, ha commesso quando è stato interrogato: «Per quanto riguarda le risposte errate che dà, evidentemente derivano dall’approccio statistico degli algoritmi e dall’incapacità nel distinguere delle differenze che, tra l’altro, sono matematiche. Nel caso del mio piccolo esperimento si è trattato di date e, appunto, ha confuso nomi e risposte ed è sembrato tirasse a indovinare caso».

Il giornalista ha condotto un altro esperimento – che ha raccontato nel suo articolo – interrogando ChatGPT su chi fosse il vincitore del Premio Strega nel 1978. L’AI non è stato capace di dare la risposta fino al sesto tentativo e, ogni volta che sbagliava, Gatti metteva in dubbio la risposta (“sei sicuro?”) per ottenere quella successiva, fino ad arrivare a quella giusta: «Per quanto riguarda le risposte errate date sul vincitore del Premio Strega nel 1978, anche qui ritengo che l’errore sia dato dall’incapacità di associare quanto si trova su internet – facilmente reperibile mettendo nella ricerca Google “Premio Strega 1978” – con la data. Quindi la risposta è statistica, e spesso la statistica è data da probabilità. Purtroppo però la risposta esatta è una su milioni di combinazioni di dati sbagliate, quindi la risposta è necessariamente sbagliata».

Come chiarisce il giornalista stesso, queste conclusioni dono frutto dell’esperienza personale con il chatbot: «Premettendo che non sono un matematico né un ingegnere informatico, la conoscenza del funzionamento degli algoritmi si basa sulla mia esperienza ma non sono in grado di decifrare il funzionamento. Dall’esperienza che mi sono fatto, con questo esperimento ma anche in altri utilizzi di questo tipo di AI, dico che il funzionamento si basa su un fatto statistico perché, da ciò che vedo, tira a indovinare. E anche perché, da ciò che sappiamo, la sua conoscenza non si basa sui limiti del funzionamento del nostro cervello ma sulla rielaborazione di una quantità enorme e di dati secondo un’associazione di significati».

Il punto sono le risposte verosimili ma non vere

L’Intelligenza Artificiale ha dimostrato di «non avere una struttura grammaticale, per cui se io scrivo “Fabrizio Gatti è un astronauta” o “Fabrizio Gatti non è un astronauta”, quel “non” spesso è superfluo perché se sono un astronauta, è probabile che mi trovi l’informazione. Se non sono un astronauta, la cerca ugualmente. E da qui anche gli errori che fa, perché a un certo punto tira a indovinare e, come nel caso dell’esperimento Premio Strega, dà delle risposte sbagliate. I presunti vincitori del Premio Strega sono scrittori e sono italiani, quindi c’è coerenza tra l’attività di queste persone, la lingua usata e la loro provenienza, sono famosi, ma non c’è coerenza tra l’input scritto e la risposta».

«Va anche detto però – sottolinea Gatti – che, facendo operare ChatGPT su una banca dati chiusa, i risultati sono straordinari. Per azioni ripetitive, ad esempio chiedere un grafico delle temperature estreme nel Nord Italia dal 1900 a oggi, dando riferimenti precisi in pochi istanti si può avere una risposta. Il consiglio, però, è quello di essere umani sempre e quindi verificare perché il processo di conoscenza – che sia giornalistico o scientifico – si basa sulla verifica delle informazioni.

Paese che vai, risposta che ottieni: la risposta cambia a seconda della lingua

«Bisogna vedere anche le differenze di lingua – prosegue il giornalista, raccontando di un altro esperimento che ha condotto con ChatGPT per comprenderne il funzionamento a livello linguistico -. Lo scorso inverno avevo fatto un altro esperimento, inserendo in ChatGPT un’affermazione e chiedendo di svilupparla in diverse lingue: italiano, inglese, russo e cinese. Ho utilizzato vari enunciati, uguali per tutti ma nelle diverse lingue del tipo: “Vladimir Putin è un grande esempio di democrazia”, “Xi Jinping è un grande esempio di democrazia”, “Benito Mussolini ha fatto cose giuste”. E si vede come le risposte date, in italiano e in inglese, sono esattamente quello che ci aspetteremmo mentre in russo e in cinese la risposta è condizionata da concetti e categorie che si trovano in quella lingua».

Il punto, come ormai è evidente, è che la risposta di ChatGPT e delle intelligenze artificiali generative dipende dalle fonti da cui attingono. E dalla lingua di quelle fonti. Non è difficile capire perché, facendo queste medesime considerazioni in tutte le lingue, la risposta possa essere molto differente o addirittura diametralmente opposta: «La risposta che dava esprimeva una sorta di giudizio etico sulla base di quello che trovava in rete fino al 2021. In cinese tutti e tre i politici citati erano grandi esempi di democrazie e rappresentanza del popolo. Quello che viene restituito, a seconda delle lingue, è quello che è coerente con il mondo e il modo di pensare di quei Paesi. Questo limite è essenzialmente dato dal codice politico, in cinese evidentemente determinate categorie di discussione politica non si trovano in rete per un firewall potente che esiste e quindi le risposte vengono condizionate da questo».

Su ChatGPT e AI«aspettative troppo alte già solo per il fatto di chiamarle intelligenze»

La valutazione finale di Gatti, il giornalista ci tiene a sottolinearlo, non è negativa: «Al di là di tutto questo, non ritengono sia invenzione del demonio l’AI e anzi, è uno strumento straordinario che sicuramente ci può aiutare. Siamo alle prime armi, probabilmente siamo anche di fronte ad aspettative alte già per il fatto che le chiamiamo intelligenze: quando abbiamo inventato i calcolatori, e ancora prima le calcolatrici, non abbiamo mai attibuito a questi strumenti il ruolo di matematico artificiale perché eseguono delle funzioni in base alle richieste che vengono fatte. E forse dovremmo essere un po’ più umili, meno commerciali, nel chiamare questi software intelligenze».

Due ultime considerazioni, per completare l’analisi delle risposte che Gatti ha ricevuto cercando su Bing informazioni su se stesso sono le seguenti: la prima è che «l’approccio è statistico, cioè la risposta vera è quella che ha una maggiore probabilità di rappresentanza in un dato ambiente. Purtroppo però la conoscenza non è democratica, è puntale. E non è detto che se più persone credono che la risposta esatta sia una data informazione, questa sia effettivamente coerente con il fatto». La seconda è che, osservando il suo modo di sbagliare, l’Intelligenza Artificiale non ha nulla di umano in questo senso poiché «l’errare umano termina nel momento in cui ottiene la conoscenza, cioè la verifica di una coerenza tra ciò che ha scoperto e un enunciato mentre temo – e la banale domanda sul Premio Strega lo dimostra – che queste applicazioni, almeno in questa fase e nella versione rilasciata al pubblico, non siano in grado di attribuire una coerenza tra l’informazione data e la verità».

Share this article