I rischi di HeyGen per il doppiaggio (e non solo)

Quali sono i rischi di software come HeyGen in generale e, nello specifico, nel mondo del doppiaggio? Ne abbiamo parlato con il doppiatore Luca Bottale

19/09/2023 di Ilaria Roncone

Uno dei primi pensieri che viene in mente vedendo come funziona HeyGen e il risultato che si è potuto ottenere, per esempio, con il video di Salvini che parla francese è che il doppiaggio possa essere messo a rischio. Analizzando il funzionamento dello strumento e alcuni dei suoi possibili utilizzi, in effetti, emergono una serie di rischi HeyGen che abbiamo individuato e dei quali abbiamo scelto di parlare insieme a Luca Bottale, doppiatore di lunga data e responsabile del tavolo sull’intelligenza artificiale dell’ADAP (Associazione Doppiatori Attori Pubblicitari), realtà che da 42 anni si occupa dell’ambito del doppiaggio riunendo i professionisti del settore.

LEGGI ANCHE >>> Cos’è HeyGen, il software AI utilizzato dalla Lega per far parlare Salvini in francese

HeyGen e i problemi che potrebbe creare per il doppiaggio

Partiamo da uno dei tanti contenuti che girano in rete generati inserendo come input un video, nello specifico il celebre intervento di Matteo Renzi a BBC da cui è nato il meme “shock because”.

Nell’intervista della giornalista di BBC News a Matteo Renzi vediamo quello che – almeno per ora – è un limite evidente per l’uso potenziale di HeyGen che vede lo strumento restituire un video in cui un attore che recita in inglese, grazie all’AI, parla italiano con tanto di movimento delle labbra generato grazie al software. Quando l’inquadratura punta sulla giornalista, che nel video originale ascolta Renzi, le labbra di lei si muovono mentre si sente la voce del leader di Italia Viva. Non è difficile capire che, almeno per ora, sarebbe impossibile sfruttare questo strumento per doppiare un film.

Oltre a questo limite, se ne individua anche un altro relativo agli abbonamenti: 30 crediti al mese – così come abbiamo già spiegato in un altro articolo – corrispondono a trenta minuti di video da convertire. Un limite che potrebbe essere aggirato creando un account business, probabilmente, e rivolgendosi direttamente all’azienda.

Per quanto riguarda, invece, il doppiaggio in un’altra lingua di uno spot pubblicitario in cui compare una sola persona che parla – per esempio – di un servizio o di un prodotto sembra possibile senza particolari intoppi. A tal proposito abbiamo chiesto a Luca Bottale quali sono le implicazioni nell’ambito dell’utilizzo delle voci nel doppiaggio e non solo, considerato che furti di voci – a partire da quella di Emma Watson alla quale è stato fatto leggere il Mein Kampf – sono già avvenuti.

«Una mia collega si è trovata su un sito a luci rosse, la sua voce è stata utilizzata per doppiare delle pubblicità. Lei è una voce pubblicitaria parecchio utilizzata e, giustamente, ha fatto notare come questa cosa possa danneggiarla dal punto di vista lavorativo perché magari può saltare fuori che un cliente non abbia piacere ad essere associato a quel tipo di contenuti per via della voce. Poi, se uno volesse prestare la voce per contenuti a luci rossi andrebbe benissimo, però dovrebbe saperlo ed essere pagato», fa presente Bottale, entrando poi nel ben noto ambito del diritto d’autore che i sistemi di intelligenza artificiale hanno dimostrato di non rispettare in nessun ambito.

Parlando delle politiche europee e dell’AI Act che, attualmente, è in fase di modifica con la Commissione Ue che ci sta lavorando, «le voci sono coperte da una sorta di copyright per la performance, ma non per la voce in quanto tale. In questo momento se uno replica la mia performance, allora in teoria potrebbe essere coperta – seppure ci sia ancora tanto da capire – ma se uno prende la mia voce, prende la mia voce». Con ADAP Bottale ha avuto modo, nella giornata di ieri a Bruxelles, di parlare con il ramo della commissione che si occupa dell’AI Act insieme ad altre associazioni che fanno parte di United Voice Artists e di capire come si sta muovendo l’organo europeo nei riguardi di una serie di richieste di emendamenti da loro fatte quest’anno: «Abbiamo proposto degli emendamenti all’AI Act per introdurre il discorso della voce perché questa non veniva minimamente menzionata».

«Nel doppiaggio – prosegue Bottale – stanno iniziando già ad esserci cose fatte con l’AI e c’è un altro problema. Il rischio è di ammazzare migliaia di posti di lavoro perché non si parla solo di attori e dei doppiatori, o comunque degli artisti della voce, ma anche di tutto l’indotto, quindi degli studi, degli ingegneri del suono e di tutto ciò che gravita intorno a uno studio di doppiaggio e uno studio pubblicitario perché come possiamo essere sostituiti noi, prima o poi potranno essere sostituiti anche loro. C’è stata anche una collega canadese che si è trovata ad essere la voce di TikTok e quindi tutte le pubblicità in lingua inglese su TikTok erano con la sua voce e nessuno l’ha pagata. Ha fatto causa e sono giunti a un accordo extra giudiziario, probabilmente perché TikTok non vuole arrivare a sentenza – a mio avviso – per non creare un precedente. In TikTok Italia rimangono voci di colleghi che, attualmente, fanno le pubblicità».

«Qualcuno di loro, anni fa, magari ha firmato un contratto per dare voce all’assistenze vocale di una qualche Big Tech ma in quei contratti non erano specificate a dovere delle cose, non era chiarito quale fosse l’utilizzo finale e comunque – essendo cambiata così velocemente la tecnologia – uno non ci pensava all’epoca: dovrebbe esserci un consenso informato da parte degli artisti. Un altro rischio – come è già successo per un film in Polonia – è che ci sia una sola persona che doppia tutti i personaggi e poi basta mescolare la mia voce con la sua, per esempio, e ne viene fuori una terza. Ancora, ci sono una marea di siti che vendono le voci da pochi centesimi a qualche euro. E sono voci di persone vere perché l’AI non crea nulla, prende qua e là e mixa».

Altri rischi nell’utilizzo di HeyGen

Le possibilità offerte da HeyGen sono moltissime: qui abbiamo caricato un’immagine di Antonio Gramsci ottenendo, come risultato, un video in cui il politico pronuncia una sua celebre citazione. Grazie a questa applicazione si possono fare moltissime cose, dal cambio degli abiti allo swap face fino a clonare la voce di una persona di cui si è caricato un video o un audio.

Gli utilizzi potenziali (e i rischi che ne derivano, compreso quello della truffa che si può fare con voci clonate chiedendo denaro in maniera verosimile) sono moltissimi e la possibilità di creare dei deepfake – contenuti video in cui una certa persona dice determinate parole che mai ha pronunciato nella realtà – sembra essere più che mai alla portata di chiunque possa pagare l’abbonamento a questa applicazione e a tutte quelle simili che stanno nascendo.

Share this article