Il rischio dei deepfake in vista delle prossime elezioni sta aumentando

Categorie: Attualità

Non solo le presidenziali Usa 2024 ma, in generale, tutte le elezioni considerato il recentissimo caso di deepfake il giorno prima delle elezioni del sindaco di Chicago

Più tecnologie come quella di Midjourney e Stable Diffusion si affinano (basta considerare le recenti immagini di Putin e Trump arrestati), più diventa concreto il rischio di forti ingerenze nei periodi che precedono le elezioni politiche con la possibilità di basare la propaganda su fake news più vere che mai. Saranno più veloci i giganti della tecnologia, i media e le istituzioni a mettere a punto una serie di mezzi per contrastare la propaganda politica deepfake o nel mondo – negli Usa, per esempio, già nel 2024 – o arriveremo impreparati?



Considerata la rapidità con cui gli strumenti che generano testi e immagini sfruttando l’intelligenza artificiale si evolvono, è davvero difficile stabilirlo e – di recente – il co-conduttore di Pod Save America Tommy Vietor lo ha dimostrato nel corso di un episodio.

LEGGI ANCHE >>> AI, l’Apparenza che Inganna: le immagini che stanno beffando il mondo



Il deepfake che va affinandosi

Gestire i deepfake generati tramite intelligenza artificiale sarà la prossima sfida dei media. Cosa ci viene in mente, adesso, pensando alla propaganda deepfake? Abbiamo un video deepfake di Renzi passato a Striscia La Notizia, un account TikTok che genera contenuti deepfake di Putin e che è diventato popolarissimo e – ancora – i deepfake di personaggi pubblici e famosi che fanno pubblicità a questo o quell’altro brand.

Con tecniche che si fanno sempre più affinando e che fanno sì che le persone ci caschino sempre più facilmente, il rischio di essere truffati con contenuti che rientrano in questa categoria sta aumentando. E la propaganda politica pre elezioni non fa eccezione.



Quanto è facile fare propaganda politica deepfake?

Tornando a Pod Save America e a Tommy Vietor, il giornalista e ex membro dell’amministrazione Obama ha chiarito molto bene i rischi dei deepfake. Affermando di aver incontrato «un amico molto importante nel fine settimana», ha fatto sentire un audio esclusivo del presidente Joe Biden. Il contenuto generato con la startup ElevenLabs era verosimile, pieno di espressioni e battute che nessuno ha esitato ad attribuire al presidente Usa. Considerato che Biden ha partecipato a questo stesso show durante la sua campagna elettorale 2020 e che sembrava proprio lui dalla voce, nessuno ha dubitato.

Ma si trattava di un falso, come ha spiegato Vietor subito dopo averlo riprodotto, sottolineando come «questo sarà pericoloso per le elezioni future». Con un generatore di audio che crea contenuti con la voce dei politici e che ricalcano il loro modo di parlare, quanto facile può essere – nei mesi prima che si vada al voto – creare una notizia che diventi virale e che, anche se smentita, riesca comunque a penetrare l’immaginario comune e pilotare le scelte dei cittadini?

Il caso del deepfake del candidato sindaco di Chicago Paul Vallas

Si tratta di una vera e propria sfida per i media politici – come riporta anche Vanity Fair in un articolo di approfondimento – rispetto alla quale abbiamo già avuto la possibilità di assistere a un primo atto. Il giorno prima delle elezioni per il sindaco di Chicago, infatti, un account Twitter che fingeva di essere legato alla realtà giornalistica realmente esistente “Chicago Lakefront News” ha pubblicato una voce fuori campo di uno dei candidati (Paul Vallas) che parlava di sicurezza pubblica. Il video generato tramite deepfake, quindi completamente falso, ha ottenuto migliaia di visualizzazioni prima di essere eliminato.

Il tempismo del video, alla vigilia delle elezioni, è tutto. Riparare al danno causato dalla diffusione di disinformazione non è semplice, ancora peggio se accade alla vigilia di un’elezione e se è tanto verosimile quanto in questo caso. Lo staff del candidato ha dovuto smentire rapidamente quanto diffuso dal contenuto deepfake con la voce del politico, trovandosi a gestire un evento eccezionale nel già concitatissimo clima che precede una giornata di voto.

Analizzando il video, l’esperto di sicurezza e intelligenza artificiale della Northwestern Subrahmanian ha affermato che – nonostante esistano strumenti per capire se un video è falso con una precisione del 90% – ci sono ancora molti passi da fare nell’ambito dello smascheramento dei deefake. La ricerca è ancora all’inizio e – nel caso specifico – «le persone normali avrebbero difficoltà a capire se è vero o falso, ed è per questo che è così importante che aziende come Twitter si facciano avanti e identifichino rapidamente questi deepfake o, perlomeno, che li contrassegnino come potenziali tali, se pensano che potrebbero esserlo».

Cosa fanno le Big Tech contro i deepfake politici?

Una importante osservazione l’ha fatta Pranav Dixit, reporter di BuzzFeed News: «Ciò che è particolarmente preoccupante è che nessuna delle piattaforme ha definito una strategia per quanto riguarda l’IA generativa e i contenuti politici», dice parlando di TikTok, Meta e YouTube, non mancando di sottolineare come – invece – tutti si stiano prodigando per sviluppare la propria tecnologia generativa AI.

Creare gli strumenti che permetteranno di diffondere facilmente fake news politiche essendo consapevoli di questo pericolo e non facendo niente – prima delle elezioni Usa 2024 – per arginarlo potrebbe rivelarsi, nei prossimi anni, un errore madornale.