La lentezza di X nella rimozione dei video di violenza in Medio Oriente

Ci sono filmati che sono stati visualizzati da oltre un milioni di utenti prima dell'intervento della piattaforma. Il problema è atavico e provocato anche dalle decisioni prese da Elon Musk

12/10/2023 di Enzo Boldi

Cosa succede quando si affida a un algoritmo che premia esclusivamente gli account che hanno deciso di pagare un abbonamento? Accade che, a prescindere della veridicità di una foto, di un filmato o di un post, quel che viene pubblicato da questi profili ottiene una visibilità maggiore. Questo vuol dire che, inevitabilmente, l’engagement sarà maggiore e che quel contenuto – a prescindere da tutto – sarà diffuso a un numero sempre più elevato di persone. E così accade che molti dei tweet (anche se non si chiamano più così dopo il cambio di denominazione) relativi alla nuova esplosione del conflitto tra Israele e Hamas per la Palestina, la Striscia di Gaza e la Cisgiordania, siano diventati virali. Anche se violano la policy della piattaforma e – per esempio – i regolamenti europei (come il DSA, Digital Service Act). Come nel caso dei video di Hamas condivisi fin dalla giornata di domenica scorsa su X.

LEGGI ANCHE > Infodemia di guerra: la storia del video dei “bombardamenti israeliani su Gaza”

Come già sottolineato dalla lettera inviata dalla Commissione Europea alla società guidata da Elon Musk – ma una comunicazione analoga, ma con toni e indicazioni differenti è stata inviata anche a Meta, su X continua a pullulare la disinformazione e vengono continuamente condivisi contenuti considerati illegali (in violazione del DSA per quel che riguarda il linguaggio dell’odio e le foto/video che mostrano violenze). Nonostante le segnalazioni da parte degli utenti (e non facciamo riferimento esclusivamente alle community notes), moltissimi post intrisi di disinformazione e propaganda – anche con immagini atroci – sono rimasti online sulla piattaforma per moltissime ore.

Video Hamas su X, tutti i problemi del social di Elon Musk

Un’inchiesta realizzata dal New York Times, per esempio, ha evidenziato come i video Hamas su X siano stati visualizzati da milioni di persone. Nonostante mostrassero immagini di pura violenza. In particolare, si fa riferimento a un filmato che mostra un militante di Hamas che imbraccia un fucile d’assalto e spara contro un’automobile su cui viaggiavano dei civili israeliani. Questo contenuto – che ovviamente non mostreremo – è stato pubblicato domenica (8 ottobre), all’indomani dell’inizio dell’escalation armata, ed è stato visualizzato (quindi ha raggiunto) oltre un milione di utenti sulla piattaforma.

Un discorso analogo si può fare per altri due contenuti: una fotografia di civili israeliani morti e sparsi in strada lungo un kibbutz (nei pressi di Gaza) è stata condivisa da oltre 20mila persone; un audio in cui si sentono le grida di una donna durante le fasi del suo rapimento è stato ascoltato e condiviso oltre 50mila volte. E non c’è solo il capitolo legato alle violenze dei militanti di Hamas. Perché lo stesso discorso può esser fatto sul video del contrattacco israeliano condiviso su X dal primo ministro Benjamin Netanyahu (visualizzato da ben 14,4 milioni di persone).

La mancata moderazione

Alle critiche mosse alla piattaforma per la sua assenza di moderazione (ancor prima della lettera della Commissione Europea), X aveva risposto all’alba (italiana) di martedì 10 ottobre sostenendo di aver già rimosso decine di migliaia di contenuti “illegali” e di aver iniziato la sospensione e il ban di profili legati e riconducibili ad Hamas e di aver modificato le proprie policies su questi temi. La realtà è che la disinformazione continua a viaggiare sulla piattaforma, di pari passo con la pubblicazione di video e fotografie che infrangono i Regolamenti.

Il problema principale è l’assenza di moderazione. Anzi, l’assenza di moderatori. Perché uno dei primi atti di Elon Musk da capo di Twitter (come si definì undici mesi fa, quando fu ultimata l’acquisizione dopo un lungo braccio di ferro) è stato quello di tagliare – riducendolo praticamente a zero – il team che supervisiona la correttezza e la liceità dei contenuti pubblicati sui social. Senza personale, dunque, tutte le procedure sono rallentante. E negli ultimi giorni sono state inviate decine di migliaia di segnalazioni che hanno creato una “coda” difficile da smaltire. A tutto ciò si aggiungono le scelte poco “fortunate” dello stesso imprenditore. Basti pensare che, 48 ore dopo il nuovo inizio delle violenze, Musk aveva pubblicato questo post.

Video Hamas su X, Elon Musk Tweet

Peccato che i due profili suggeriti dal fondatore di Tesla non siano propriamente affidabili, avendo diffuso già in passato numerose bufale (la più recente è quella di una – falsa – esplosione nei pressi della Casa Bianca) e di giudizi antisemiti sulla piattaforma.

Ma questa è solo la cornice di una problematica che va al di là del conflitto in corso in Medio Oriente. Come spiegato da un funzionario di Hamas al NYT, la scelta di fare propaganda con immagini violente su X è stata consapevole. Con l’obiettivo di intimorire (in questo caso) i cittadini israeliani, si è deciso di utilizzare questa piattaforma proprio a causa dell’assenza di moderazione. E lo stesso discorso vale anche per Telegram che, paradossalmente (ma neanche troppo), ha problemi atavici ancora più gravi e profondi sulla moderazione di contenuti vietati (come abbiamo più volte raccontato parlando di pedopornografia e revenge porn). Gli altri social network sembrano reagire meglio, ma anche su Facebook e TikTok sono circolate e stanno circolando tantissime foto e video che dovrebbero essere vietati.

Share this article