Il watermark sui contenuti generati con l’AI è un buco nell’acqua: lo studio

L'Università del Maryland (UMD) si è impegnata per indicare quanto poco efficace sia questo strumento per il contrasto ai video e alle foto deepfake generati attraverso l'intelligenza artificiale

05/10/2023 di Gianmichele Laino

Siamo stati abituati a visualizzarli quando, in passato, utilizzavamo una piattaforma premium che ci dava, però, la possibilità di un tot di impieghi gratuiti dei suoi servizi. Stiamo parlando del watermark, ovvero di quel logo “aziendale” che compare in filigrana su un video o un’immagine che è stata elaborata attraverso uno strumento proprietario di un’azienda. Pensiamo ai programmi di montaggio video: dal momento che le licenze d’uso di questi software sono (a volte estremamente) costose, le aziende mettono a disposizione un pacchetto di contenuti free utili per testare il programma stesso. Tuttavia, per evitare che si possa fare un utilizzo indiscriminato di questi contenuti così generati, le aziende scelgono di inserire il watermark in fase di export del contenuto. Una eventuale pubblicazione del contenuto stesso, quindi, sarà “marchiata” in maniera inequivocabile. Lo stesso avviene per la post produzione fotografica. Ma cosa succede quando parliamo di watermark AI? Queste filigrane non serviranno, infatti, per attribuire la proprietà di un contenuto elaborato con un determinato software, quanto per indicare all’utente che quello stesso contenuto non corrisponde a un’immagine reale, ma alla risultante dell’uso dell’intelligenza artificiale.

LEGGI ANCHE > Anche YouTube Shorts aggiungerà un watermark dei contenuti per scoraggiarne la condivisione su altri social

Watermark AI, perché secondo uno studio non servirà a nulla

Per far capire quanto sia determinante l’utilizzo del watermark sui contenuti generati attraverso l’intelligenza artificiale, basti pensare che l’AI Act – ovvero il regolamento europeo che sta provando a normare l’utilizzo dell’intelligenza artificiale per limitarne i potenziali effetti dannosi – prevede che i contenuti così generati debbano avere al proprio interno la specifica e la determinazione rispetto al fatto di essere generati attraverso l’AI.

L’Università del Maryland (UMD), con un team guidato da Soheil Feizi, ha condotto una ricerca per capire quanto possa essere utile l’inserimento di un watermark su un prodotto dell’AI. Effettivamente, sia per la posizione che solitamente viene adottata per il watermark, sia per un principio che può portare l’immagine a essere alterata attraverso la diminuzione del contrasto, il watermark sui contenuti generati dall’AI può essere facilmente rimosso in post produzione. Tuttavia, il team di ricercatori ha fatto anche in modo di progettare un watermark che, senza alterare il prodotto, non può essere contraffatto e/o rimosso.

L’adozione di questo sistema – che potrebbe anche aiutare a combattere l’azione di hacker, preservando tuttavia l’integrità del prodotto e avendo dalla sua anche il vantaggio di identificare un’immagine generata attraverso l’AI – potrebbe però non essere compatibile con i tempi di avanzamento delle tecnologie di intelligenza artificiale generativa, né con le prossime scadenze. Uno dei rischi – come vedremo in questo monografico di Giornalettismo – è quello che durante le elezioni politiche possano essere generati immagini o video contraffatti, con lo scopo di danneggiare i diversi candidati. Ma anche star e personaggi dello spettacolo, già oggi, sperimentano quotidianamente la confusione che regna sovrana rispetto all’intelligenza artificiale e ai suoi impieghi.

Share this article