I volti noti protagonisti di deepfake iniziano a segnalare la questione

Dai deepfake alle voci artificialmente generate senza consenso, sempre più volti noti vengono utilizzati per creare truffare gli utenti di internet. I casi più recenti sono quelli di Tom Hanks e MrBeast

05/10/2023 di Ilaria Roncone

Il problema dei prodotti AI sempre più credibili – abbiamo dato voce, di recente, ai doppiatori e parlato dei problemi che la questione dell’AI utilizzata nell’industria dell’intrattenimento possono creare – si allarga anche ai deepfake sempre più credibili. Deepfake che, come abbiamo visto ultimamente, tendono a coinvolgere persone note proprio per mostrare al mondo il potenziale (in termini di truffa ma anche in termini di propaganda politica, come stiamo analizzando con il monografico di oggi). Facendo un recap degli ultimi volti noti coinvolti in questioni AI – con le relative segnalazioni dei diretti interessati anche a mezzo social, come nel caso di Tom Hanks – vediamo di inquadrare l’impennata sull’asticella del rischio dei contenuti sempre più verosimili generati tramite intelligenza artificiale.

LEGGI ANCHE >>> I rischi di HeyGen per il doppiaggio (e non solo)

Tom Hanks e MrBeast protagonisti di deepfake

 

Visualizza questo post su Instagram

 

Un post condiviso da Tom Hanks (@tomhanks)

«Attenzione! C’è un video che gira con una versione AI di me che promuove un qualche tipo di assicurazione dentistica. Io non ho niente a che fare con questo video»: queste le parole che accompagnano un frame del video in cui Tom Hanks denuncia l’esistenza di uno spot che generato con l’AI che ha preso il suo volto per associarlo a un brand senza la sua autorizzazione.

Anche il celebre youtuber MrBeast ha denunciato una questione simile che vede il suo volto e la sua voce prestati (o meglio, artificialmente generati) per una truffa su una presunta svendita di iPhone 15 a 2 $: «Molte persone stanno ricevendo questa mia pubblicità di truffa deepfake… le piattaforme di social media sono pronte a gestire l’ascesa dei deepfake IA? Questo è un problema serio». La truffa in questione gira su TikTok.

Intendiamoci, la pubblicità non è perfetta e – talvolta – non c’è sincronia tra il labiale e la voce. Il punto, però, è che – come abbiamo visto di recente con l’app AI Hey Gen che permette di parlare in maniera naturalissima e credibilissima in una lingua straniera – questo tipo di tecnologie vanno mano a mano perfezionandosi.

NBC ha provato a contattare TikTok per chiedere conto della diffusione massiccia di questi video (che è stato rimosso) ma il portavoce ha semplicemente indirizzato il giornale alle policy pubblicitarie della piattaforma («i media sintetici o manipolati che mostrano scene realistiche devono essere chiaramente divulgati o etichettati nel video»). Un’azione che, ovviamente, non dipende dalla piattaforma che pubblica il contenuto ma da colui che quel contenuto lo carica. Una persona che, evidentemente, non ha alcun interesse nel far sapere – proprio perché punta a truffare – che quel contenuto è stato artificialmente generato.

La fondamentale questione dell’assenza di consenso

Anche la voce di Zelda Williams, figlia film maker del celebre attore Robin Williams, si è unita a rinforzo del coro di persone che si dicono seriamente preoccupate per i risvolti che l’intelligenza artificiale sta prendendo. A parte definire inquietante e disturbante sentire la voce del padre defunto artificialmente generata, Williams ha fatto notare uno dei punti cardine più problematici della questione: Robin Williams non ha dato (e non ha potuto dare) il suo consenso affinché la sua voce fosse ricreata. Come non l’hanno dato (e, per ovvie e giuste ragioni, non lo darebbero) tutti quegli attori e quei doppiatori in vita che – così facendo – si vedrebbero portare via il lavoro dalla tecnologia.

Parlando di deepfake, diventa sempre più evidente quanto sia facile generarli (il web pullula di applicazioni più o meno facili da utilizzare ma, nella maggior parte dei casi, basta saper inserire una stringa di testo dettagliata al punto giusto) e quanto i risultati, visto l’addestramento costante e massivo che questi strumenti subiscono, migliorino di giorno in giorno.

Share this article