Intelligenza artificiale e bufale: 3 tecniche per riconoscere un deepfake video

di Alessandra Delzotto | 13/10/2019

deepfake
  • I deepfake sono contenuti modificati con l'aiuto dell'intelligenza artificiale

  • Rappresentano un vero e proprio pericolo per la diffusione di notizie false

  • Come riconoscerli? Ce lo spiega Francesco Marconi del Wall Street Journal

Da qualche tempo a questa parte le bufale hanno un nuovo alleato: il deepfake. Si tratta di contenuti video, fotografici e audio modificati con l’aiuto dell’intelligenza artificiale e realizzati con il preciso intento di ingannare i loro fruitori. Nelle scorse settimane ha suscitato non poche critiche la decisione di Striscia la Notizia di mandare in onda un deepfake video che vedeva protagonista Matteo Renzi: al tg satirico è stato rimproverato di non aver sottolineato a sufficienza che si trattasse di un video manipolato, tanto che molti utenti sui social lo hanno preso per vero. Polemiche a parte, la preoccupazione principale che deriva dall’avvento di contenuti modificati grazie all’intelligenza artificiale riguarda soprattutto la loro capacità di produrre e diffondere notizie false difficilmente riconoscibili. I deepfake rappresentano insomma l’ultima frontiera delle bufale.

LEGGI ANCHE > Il video di Renzi a Striscia è un deepfake e in tanti ci stanno cascando

Dal 2018 il Wall Street Journal ha una sezione che studia i deepfake: Francesco Marconi ne è il responsabile

Lo sa bene Francesco Marconi, 33 anni, origini italo-portoghesi e dal 2018 responsabile Ricerca e sviluppo del Wall Street Journal, dove guida un team di esperti di machine learning, data scientist e giornalisti che lavorano quotidianamente per mettere a punto nuove soluzioni per smascherare i deepfake. E insegnare ai reporter a riconoscerli. Lo abbiamo incontrato a Torino – tappa del suo tour in Italia per il ciclo di conferenze organizzato da Intesa Sanpaolo dal titolo “Immaginare il futuro” – dove ci ha spiegato alcune delle tecniche elaborate dal suo team per riconoscere contenuti manipolati.

“Oggi non si fa che parlare di deepfake video, ma non dobbiamo dimenticare che una minaccia altrettanto allarmante arriva dagli audio modificati con l’aiuto dell’A.I”, esordisce Marconi. Lo scorso agosto il Wall Street Journal ha riportato il caso dell’amministratore delegato di una azienda energetica inglese a cui un gruppo di criminali aveva estorto 220 mila euro utilizzando un software che aveva permesso loro di imitare la voce di un suo superiore. “I primi risultati ottenuti con i deepfake audio erano piuttosto scadenti e avevano illuso i più che questo genere di contenuti fossero facilmente riconoscibili. Ma questa tecnologia evolve rapidamente“, mette in guardia Marconi.

Come si fa a riconoscere un video modificato con l’intelligenza artificiale? Ce lo spiega Francesco Marconi

É questo il problema fondamentale con i deepfake. “E l’avvento del 5G li faciliterà non poco. Presto sarà possibile creare in tempo reale contenuti manipolati con l’A.I.”, assicura Marconi. Per questo il lavoro del suo team si è rivelato in breve tempo fondamentale anche se, assicura, è un continuo gioco del gatto col topo. “Ogni volta che mettiamo a punto un nuovo sistema di verifica dei contenuti, ecco che arriva un aggiornamento che lo aggira”.  Ma quali sono i metodi ad oggi più affidabili per individuare contenuti modificati con l’aiuto dell’intelligenza artificiale?

Come distinguerli in un “battito di ciglia”

Un algoritmo sviluppato dai ricercatori della State University of New York (Suny) permette di identificare automaticamente e con precisione la posizione degli occhi nei video, e di tenere traccia di ogni battito di ciglia. Questo rilevamento è importante perché se nella realtà sbattiamo gli occhi ogni 2/10 secondi, i protagonisti feticci dei deepfake video non sono in grado di fare altrettanto. Questo tipo di tecnologia  attinge infatti a vasti database di immagini, più ne vengono usate per “istruire” un deep fake, tanto più realistico sarà il risultato, ma difficilmente si trovano in rete fotografie di persone con gli occhi chiusi. Dì qui l’utilità dell’algoritmo messo a punto dalla Suny

Individuare i deepfake grazie alle pulsazioni cardiache

Molte scene apparentemente statiche contengono in realtà minuscoli cambiamenti che l’occhio umano non è in grado di rilevare, come ad esempio impercettibili modifiche del colore della pelle provocate dallo scorrere del sangue. Alcuni ricercatori del Mit hanno messo a punto una tecnica per individuare le pulsazioni umane evidenziando questi cambiamenti nel colore della pelle altrimenti invisibili. In questo modo è possibile smascherare i protagonisti feticci dei deepfake.

 

Attenzioni alle immagini poco definite

Molti programmi ormai consentono di stoppare le riprese, ingrandire l’immagine e guardarle fotogramma per fotogramma. Questo permette di rivelare incongruenze della clip come scintillio e sfocatura intorno alla bocca o al viso, luci o movimenti innaturali, differenze tra i toni della pelle. Tutti segni rivelatori di un deepfake.