Esiste un sistema che permette di ingannare facilmente il riconoscimento facciale

Una società di intelligenza artificiale iraniana sostiene di aver inventato una tecnica in grado di ingannare il riconoscimento facciale

24/06/2021 di Ilaria Roncone

Il sistema di riconoscimento facciale può essere ingannato. Questo l’annuncio di una società di intelligenza artificiale iraniana che sostiene di aver sviluppato una tecnica in grado di ingannare gli algoritmi di riconoscimento facciale semplicemente aggiungendo piccole porzioni di dati a un’immagine. Si chiama Adversa AI ed è un metodo ideato apposta per indurre l’AI a identificare nel volto di qualcuno le fattezze di qualcun altro andando ad alterare in maniera mirata l’immagine iniziale. Le porzioni di dati aggiunte, il “disturbo”, sono progettate in modo da ingannare gli algoritmi ma, al contempo, da fare sembrare che l’immagine modificata normale a occhio nudo.

LEGGI ANCHE >>> In Gran Bretagna hanno un serio problema con il riconoscimento facciale

Adversa AI in grado di ingannare il riconoscimento facciale

Il giornalista che si è occupato di scrivere questo approfondimento per Vice ha inviato la sua foto ai ricercatori. Dopo il lavoro di modifica, caricandola su un server di riconoscimento facciale, il redattore è stato scambiato per Marck Zuckerberg. Stessa cosa nel video sul sito web della società che ha annunciato Adversa AI: nell’esempio che spiega come funziona l’alterazione delle immagini, il CEO Alex Polyakov è stato modificato in maniera tale che l’algoritmo lo identificasse come Elon Musk.

Un sistema che, se utilizzato per fini criminali o venduto a terzi sempre per scopi poco puliti, può creare una marea di danni. Migliorano i sistemi di riconoscimento facciale ma, parallelamente, anche quelli per ingannare i sempre più sofisticati algoritmi sui quali si basa questa tecnologia. Questa tecnica, rispetto ad altre, presenta il vantaggio che si basa sull’alterazione della foto che viene inserita nel sistema di riconoscimento facciale non necessitando, in alcun modo, di una conoscenza interna rispetto a come quel sistema funziona.

Non ci sono evidenze dell’utilizzo di tecniche simili per fare hacking

Già l’anno scorso era stato ideato da alcuni ricercatori dell’Università di Chicago Fawkes, uno strumento in grado di ingannare il riconoscimento facciale. Lo stesso Adversa AI viene considerato dai ricercatori che l’hanno creato viene considerato una “scatola nera” nel senso che non si comprende totalmente la logica che si trova alla base del modo in cui le reti neurali che alterano le immagini riescono a fare quello che fanno.

La ricerca che ha dato frutto a Adversa AI deve ancora essere sottoposto a revisione paritaria (peer review) e la società dovrebbe pubblicare il tutto dopo aver terminato il processo di divulgazione responsabile, ovvero aver avvisato le società rispetto a come difendersi da questa vulnerabilità del sistema di riconoscimento facciale.

Share this article