HeyGen, i suoi fratelli e il rischio deepfake “cancellato” dall’AI Act

Il Regolamento europeo sull'intelligenza artificiale impone alle aziende di "marcare" i contenuti generati con l'AI. Dunque, il watermark o la filigrana aiuteranno l'utente a distinguere il vero dall'artefatto

19/09/2023 di Enzo Boldi

Siamo partiti dalla storia del video di Matteo Salvini che parla un francese fluente per arrivare a parlare di HeyGen, la piattaforma e il software di “Video Translate” utilizzato dal team che si occupa della comunicazione del Ministro delle Infrastrutture (nonché vicepremier e Segretario della Lega). Da qui può partire il ragionamento sul come sono regolamentati i deepfake in Europa che, a breve, saranno normati dall’AI Act (votato dal Parlamento Europeo e in attesa dell’approvazione finale dopo i colloqui con gli Stati membri).

LEGGI ANCHE > La storia del video social di Salvini che parla un francese perfetto

Partiamo da un presupposto: anche se fosse già in vigore l’AI Act, Matteo Salvini avrebbe comunque rispettato gli obblighi di legge, comunicando (come si evince dalla frase finale del suo tweet) di aver generato il contenuto video per invitare i francesi (sostenitori di Marine Le Pen) a Pontida con HeyGen. Ed è proprio qui che si centra il punto della questione: i deepfake non sono vietati, ma chi li realizza (comprese le piattaforme e le aziende) deve comunicare all’utente che non si tratta di un contenuto reale, ma generato dall’intelligenza artificiale.

Deepfake e AI Act, come interviene il Regolamento UE

In linea generale, l’AI Act parla esplicitamente di trasparenza. Non solo nella gestione dei dati utenti per l’addestramento dei modelli di intelligenza artificiale (compreso il rispetto del diritto d’autore), ma anche per quel che riguarda la “filigrana” (o il marchio) che deve essere presente su ogni contenuto di questo tipo per evitare confusione nell’utente. All’articolo 3 (punto 44-quinques), infatti, viene fornita la definizione di “deepfake”:

«Contenuto audio, immagine o video manipolato o sintetico che appare falsamente autentico o veritiero e che raffigura persone che sembrano dire o fare cose che non hanno dichiarato o fatto e che è stato prodotto utilizzando tecniche di IA, compresi l’apprendimento automatizzato e l’apprendimento profondo». 

Dunque, il video di Matteo Salvini che parla in francese, quello di Beppe Grillo che parla in cinese e molti altri filmati che negli scorsi mesi abbiamo trovato online nel corso degli scorsi mesi, rientrano perfettamente in questa categoria.

Cosa deve fare chi crea un deepfake

L’articolo 52, paragrafo 3 (comma 1) ci aiuta a capire quali sono gli obblighi a carico di chi genera (attraverso l’intelligenza artificiale) contenuti deepfake (audio, foto o video) e – di conseguenza – anche tutti gli strumenti che le aziende che sviluppano questi software devono mettere a disposizione per distinguere il reale dall’artefatto:

«Sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome della persona fisica o giuridica che li ha generati o manipolati. A tal fine, i contenuti sono etichettati in modo tale da segnalare il loro carattere non autentico in maniera chiaramente visibile alle persone cui sono destinati. Per etichettare i contenuti, gli utenti tengono conto dello stato dell’arte generalmente riconosciuto e delle pertinenti norme e specifiche armonizzate».

Dunque, si parla di “etichette”. Gli utenti devono dichiarare – esattamente come fatto dallo staff di Salvini – che il contenuto proposto è stato generato con un software di intelligenza artificiale (quindi, spiegare che non si tratta di un contenuto reale, ma artefatto e manipolato dall’AI). Le aziende, inoltre, devono etichettare con un marchio (il classico watermark o una filigrana) quei contenuti. Questo non vale solamente per i video deepfake, ma anche per le fotografie che vengono generate. Inoltre, devono rimuovere dai loro database quei contenuti potenzialmente dannosi.

Share this article