Perché l’Oversight Board ha dato ragione a Meta sulla mancata rimozione del video di Biden

Il filmato, manipolato, non va a violare le regole sui video manipolati. Ma il Comitato ha richiamato l'azienda a un cambio di policy su questi contenuti

06/02/2024 di Enzo Boldi

Quel filmato meriterebbe di essere rimosso, ma le regole attualmente in vigore non consentono un intervento. Dunque, viene confermata la decisione presa da Meta. Questa è la sintesi della valutazione fatta dall’Oversight Board – il Comitato (indipendente) di controllo delle piattaforme social della holding – in merito al ricorso presentato da un utente che aveva segnalato, quasi un anno fa, un video manipolato in cui si mostra l’attuale Presidente degli Stati Uniti Joe Biden in compagnia della nipote. Un frame reale, ma artefatto: nel contenuto originale il numero uno della Casa Bianca pone sul petto della nipote il bollino “I vote” dopo aver votato al seggio, prima di darle un bacio sulla guancia; in quello modificato, si indugia (in loop) sulla mano sul petto della nipote e su quel bacio, con una colonna sonora “ammiccante” e la scritta (nel post) “pedofilo malato“.

LEGGI ANCHE > Per Facebook, un video alterato per far sembrare Biden passibile di accuse di pedofilia può essere ok

Dunque, un contenuto manipolato che fa passare un messaggio diffamatorio, accusando il Presidente americano di essere un pedofilo. Eppure, quel video è rimasto su Facebook (condiviso migliaia di volte), nonostante tutto. E l’Oversight Board non ha potuto far nulla affinché quel filmato fosse rimosso dalla piattaforma. Il motivo? Le attuali regole sui video manipolati non consentono ai moderatori di intervenire per cancellare e bannare quel tipo di contenuto.

Video Biden nipote, la decisione dell’Oversight Board

Un paradosso che viene spiegato nella decisione presa nelle scorse ore dall’Osservatorio indipendente di Meta e che sottolinea come, di fatto, questa decisione sia vincolata da regole da cambiare. Insomma, chi deve giudicare questa tipologia di presunte violazioni ha le mani legate da regole che non individuano in contenuto come questo una violazione della policy.

«La policy attuale vieta solo i video modificati che mostrano persone che dicono parole che non hanno detto (non vi è alcun divieto che copra gli individui che fanno qualcosa che non hanno fatto) e si applica solo ai video creati tramite l’intelligenza artificiale. Secondo Meta, una caratteristica chiave dei “media manipolati” è che potrebbero indurre l’utente “medio” a credere che siano autentici e inalterati. In questo caso, il loop di una scena nel video è un’ovvia alterazione». 

Quindi, quell’alterazione dei video Biden-nipote rientra nelle eccezioni delle regole sui video manipolati che possono essere pubblicati su Facebook e Instagram. E questo rappresenta un enorme problema per il passato, il presente e il futuro dell’ecosistema social.

Le critiche al sistema

Ad affermarlo è stato lo stesso Oversight Board che ha chiesto a Meta di riesaminare – partendo proprio da questa vicenda assurda – le proprie regole sui video manipolati. Troppo stringenti e limitanti (in termini di interventi sanzionatori) i paletti sulla creazione figlia dell’intelligenza artificiale e deepfake che fanno dire alle persone cose che non hanno detto. Troppo limitante quel confine tra “l’ovvia” alterazione e quella più “artistica”. Non sempre, infatti, un utente ha strumenti per capire cosa sia vero e cosa sia falso. Non è un caso, infatti, che l’Osservatorio abbia chiesto a Menlo Park di cambiare i paradigmi:

«Il Consiglio ritiene che la politica di Meta sui media manipolati sia priva di giustificazioni persuasive, sia incoerente e confonda gli utenti e non specifichi chiaramente i danni che sta cercando di prevenire. In breve, la politica dovrebbe essere riconsiderata. L’applicazione della politica solo ai contenuti video, ai contenuti alterati o generati dall’intelligenza artificiale e ai contenuti che fanno sembrare che le persone dicano parole che non hanno detto è troppo ristretta. Meta dovrebbe estendere la politica anche all’audio e ai contenuti che mostrano persone che fanno cose che non hanno fatto».

Dunque, c’è un problema di base nelle regole. Quelle stesse regole che non permettono a un organo di controllo indipendente di decidere in maniera dissonante rispetto alle indicazioni di Meta. Anche se, come nel caso di questo video manipolato, occorrerebbe un intervento per limitare la diffusione di questi fake.

Share this article