Ma come funziona su Meta quando viene pubblicato un video manipolato?

Le regole previste dall'azienda proprietaria di Instagram e di Facebook

06/02/2024 di Gianmichele Laino

C’è manipolazione e manipolazione, quando si parla di un video o di una fotografia da pubblicare sui social network. È l’estensione stessa del campo semantico del termine che ci fa realizzare che una cosa manipolata è sicuramente un prodotto su cui ci si mette mano. Il problema sta nell’effetto della manipolazione: è un qualcosa di migliorativo, che rende più evidente la realtà? Oppure è un qualcosa che sovverte completamente l’ordine delle cose, che decontestualizza un fatto, che lo altera, come avvenuto per il video di Joe Biden che bacia una ragazzina (in realtà, sta semplicemente facendo un gesto da nonno nei confronti della sua nipote quasi ventenne)? In ogni caso, la manipolazione viene affrontata in maniera diversa dai social network di Meta, a seconda della sua natura. Sappiamo che il video di Biden non è stato rimosso dalla piattaforma social: c’è una giustificazione a tutto questo nelle policies di Facebook?

LEGGI ANCHE > Però Facebook “segnala” le foto dei trattori a Parigi (evidentemente manipolate) 

Video manipolati su Meta, cosa dicono le fonti dell’azienda

Nella versione attuale della normativa prevista dall’azienda di Mark Zuckerberg, innanzitutto si riconosce che i video che sono manipolati soltanto con l’aggiunta di filtri sono tendenzialmente innocui e che, inoltre, Meta continua a investire in partnership con fact-checkers indipendenti che aiutano la piattaforma nella sua missione di lotta alle fake news.

Secondo Meta, si possono eliminare o si può intervenire con la moderazione per i video che mostrano un soggetto dire delle cose che non ha mai pronunciato (il classico esempio di video deepfake in cui, grazie all’intelligenza artificiale, si imita la voce del soggetto ripreso, facendogli affermare cose mai dette e/o pensate) oppure per quei video in cui l’AI ha fatto tutto, generando anche l’immagine.

Come abbiamo già avuto modo di spiegare, il video di Joe Biden non è stato prodotto dall’intelligenza artificiale, ma è stato “manipolato” a livello di montaggio. Non ci sono tecniche riconoscibili e riconducibili all’intelligenza artificiale generativa propriamente detta e, dunque, per questo motivo Facebook non è intervenuto. Meta ricorda anche che i video modificati per scopi satirici (e – in maniera molto estensiva – il video incriminato di Joe Biden poteva avere queste caratteristiche) non sono oggetto di azioni penalizzanti. Va da sé, tuttavia, che questa tipologia di restrizioni – limitando di molto il campo all’intelligenza artificiale – fa venire meno il controllo su video o immagini modificate con le vecchie tecniche, con quelle che venivano utilizzate prima della rivoluzione di Midjourney, per intenderci. E che, comunque, in passato hanno creato più di un danno.

Share this article