Anche il Garante della privacy italiano aveva agito contro le app di deep nude: cosa è successo nel frattempo?

L'esposto c'era stato quando, nel nostro Paese, si erano verificati fatti di cronaca legati a BikiniOff. Perché, a livello europeo, non c'è stato un fronte comune?

25/09/2023 di Gianmichele Laino

Eppure, gli strumenti normativi ci sarebbero. Nonostante questo, numerose app che creano video deepfake (e – in modo particolare – deepnude) stanno continuando a proliferare in giro per l’Europa, scatenando reazioni. Era successo in Italia, con l’app BikiniOff (che aveva provocato le reazioni del Garante per l’Infanzia della Regione Lazio), era successo sempre nel nostro Paese nel 2020 (con un’istruttoria aperta dal Garante per la protezione dei dati personali nei confronti di Telegram) a proposito di DeepNude, sta succedendo in questi giorni in Spagna, con il caso delle 11 ragazzine vittime di coetanei che hanno usato un’applicazione per modificare i loro corpi e che sta scuotendo dalle fondamenta la comunità di Almendralejo. Spesso si è configurato il confronto tra Garante privacy e deepnude, a ogni livello: dai singoli garanti nazionali, fino all’organismo europeo per la protezione dei dati personali. A livello di UE, ci sono una serie di strumenti normativi che garantirebbero una tutela della legge rispetto a questi strumenti. Ma se le app di deepnude continuano a proliferare e a far danni, forse una domanda dovremmo farcela.

LEGGI ANCHE > La storia delle vittime dell’app deepnude che sta sconvolgendo la Spagna

Garante privacy e deepnude, gli strumenti legislativi a livello UE

Nell’aprile del 2021, la commissione europea aveva pubblicato un documento che potesse gettare le basi per un approccio unificato alla regolamentazione dell’AI. All’interno di questo documento, valutava secondo diversi gradi i possibili rischi che l’utilizzo di strumenti di intelligenza artificiale portava con sé. La commissione suggeriva il ban per quegli strumenti di intelligenza artificiale che provocavano rischi catalogati come “inaccettabili”.

«Gli utenti di un sistema di AI che genera o manipola contenuti di immagini, audio o video che somiglino in modo apprezzabile a persone, oggetti, luoghi o altro esistenti entità (“deep fake”), devono rivelare che il contenuto è stato generato o manipolato artificialmente» – questa era una delle indicazioni che la commissione europea dava per la riconoscibilità dei video deepfake (non sempre rispettata dalle varie piattaforme che generano questo tipo di contenuti).

Anche il GDPR, ovviamente, contrasta con la generazione di questi video, dal momento che – per la loro creazione – sono necessari dei dati personali estremamente sensibili. Il trattamento di questi dati personali dovrebbe essere compliant al GDPR; in caso contrario, si configurerebbero degli illeciti. La non consapevolezza delle vittime di video deepnude e la circolazione di questi contenuti in maniera indiscriminata all’interno di chat di Telegram o di WhatsApp va a cozzare fortemente con i principi base del regolamento europeo per la protezione dei dati personali. La legge sul copyright e la violazione del diritto d’autore (molti video deepfake si basano su stili e contenuti protetti dal diritto d’autore stesso) sarebbero ulteriori baluardi previsti, a livello europeo, per contrastare la diffusione dei contenuti di deepnude.

Non dobbiamo dimenticare, poi, le tantissime risoluzioni del parlamento europeo nei confronti dei video deepfake: dal 2017 in poi, l’assise europea ha preso diverse iniziative in questo settore, nominando esplicitamente i contenuti deepfake a partire dal 2019. Né dobbiamo dimenticarci di prendere in considerazione i recenti Digital Services Act (quest’ultimo impone alle grandi aziende di Big Tech di stroncare sul nascere contenuti disinformativi – e i deepfake, non corrispondendo alla realtà, sono disinformazione – ed evitare la loro circolazione) e AI Act.

Perché l’Europa non riesce a contrastare le app deepnude?

Se gli strumenti ci sono, come mai alcune app riescono a esercitare la propria attività a lungo? Ci sono stati alcuni casi clamorosi (ad esempio, l’app DeepNude, il cui codice open source è stato rimosso da GitHub), ma tendenzialmente le piattaforme che utilizzano bot per generare contenuti artificiali (sebbene realistici) di nudo continuano a esistere. Per capire cosa accade, è opportuno fare un paragone con i tanti servizi che offrono la visione in streaming degli eventi sportivi pur non avendone i diritti. La recente legge approvata dal Parlamento italiano, permette all’Agcom di agire entro 30 minuti dalla pubblicazione della piattaforma di streaming illegale, con lo scopo di oscurarla. Al netto di quanto previsto dalla normativa, tuttavia, queste prime giornate di Serie A della stagione 2023/2024 hanno evidenziato quanto sia ancora semplice produrre contenuti di questo genere e metterli a disposizione degli utenti.

Inoltre, le privacy policies delle app di deepnude utilizzano delle formule abbastanza arzigogolate dal punto di vista della sintassi che fanno in modo di venire incontro alle normative europee: si dice che i contenuti generati attraverso le proprie applicazioni non sono di loro proprietà, che qualsiasi uso illecito delle app in questione non è consentito, che bisogna salvaguardare i diritti d’autore delle immagini che vengono inserite nel database. Inoltre, sempre a proposito di dati, le app di deepnude ci tengono a sottolineare come qualsiasi immagine caricata per la generazione del nudo artificiale verrà immediatamente rimossa dalla piattaforma.

Se a questo aggiungiamo l’ancora troppo scarsa responsività di piattaforme Big Tech come WhatsApp o Telegram rispetto alla rimozione di contenuti disinformativi previsti dal recente DSA, ecco che troviamo la regola aurea per cui – nonostante ciò che fanno sia fondamentalmente vietato dalla legge – le app di deepnude continuano a trovare spazio su desktop e negli app store.

Share this article
TAGS