Quando il riconoscimento facciale utilizzato dalle banche è facilmente ingannabile
Le prove che il riconoscimento facciale di banche (ma anche app di dating e startup di criptovalute) è vulnerabile le fornisce uno studio di Sensity
18/05/2022 di Ilaria Roncone
Quanto è sicuro il riconoscimento facciale banche? Non particolarmente secondo una recente ricerca dell’azienda di sicurezza Sensity, specializzata nella classificazione di attacchi che sfruttano volti generati tramite AI. I test fatti dalle banche per verificare l’identità del cliente sono stati definiti «estremamente vulnerabili» rispetto agli attacchi fatti utilizzando deepfake, tanto da arrivare a dire che ai malintenzionati basta scambiare il loro volto con quello del cliente. Non sono solo le banche, inoltre, ad avere problemi di questo tipo: gli stessi problemi sono stati riscontrati in riconoscimenti facciali per app di incontri e startup di criptovalute.
LEGGI ANCHE >>> Storia di come L’Europa stia lavorando per costruire un sistema internazionale di riconoscimento facciale
Riconoscimento facciale banche e istituzioni facilmente ingannabile
Sensity ha analizzato le vulnerabilità che presentano i sistemi utilizzati da dieci leader di settore. Sfruttando la tecnologia del deepfake per copiare un volto campione da una carta di identità, quella stessa faccia è stata sovrapposta a un volto in un video così da superare il test. Generalmente questi test consistono nel guardare dritto nella telecamera dello smartphone o del laptop, alcune volte viene richiesto di girare la testa o di sorridere per mostrare di essere una persona reale e confrontabile con la foto del documento di identità fornito per il riconoscimento facciale.
«Abbiamo testato dieci soluzioni e abbiamo scoperto che nove di esse erano estremamente vulnerabili agli attacchi deepfake», ha spiegato il direttore operativo di Sensity, Francesco Cavalli, parlando con The Verge. «C’è una nuova generazione di potenza dell’IA che può rappresentare una seria minaccia per le aziende – chiarisce Cavalli – Immaginate cosa si può fare con gli account falsi creati con queste tecniche. E nessuno è in grado di rilevarli».
Per motivazioni di tipo legale i nomi delle banche coinvolte nel test sono stati detti a The Verge senza dare la possibilità di divulgarli. Come si sono comportati i fornitori di questi servizi scoprendo la vulnerabilità al deep fake che li caratterizza? Con disinteresse, stando a quanto dice Cavalli e «abbiamo deciso di pubblicare lo studio perché pensiamo che, a livello aziendale e in generale, il pubblico debba essere consapevole di queste minacce».
Gli evidenti pericoli per il sistema bancario
Il problema di un riconoscimento facciale facilmente aggirabile diventa evidente se il servizio fornito è a una banca: «Posso creare un conto; posso spostare denaro illegale in conti bancari digitali o portafogli di criptovalute – elenca una serie di esempi Cavalli – O magari posso chiedere un mutuo, perché oggi le società di prestito online sono in competizione tra loro per emettere prestiti il più velocemente possibile».
Per rendere un sistema di riconoscimento facciale a prova di frode (o quantomeno più difficilmente ingannabile) occorre utilizzare tecnologie come quella del Face ID di Apple i cui sensori non si limitano a riconoscere un volto ma vanno più in profondità, facendo riferimento anche alla forma fisica del volto.