Le etichette contro la disinformazione su Twitter non sono proprio un gran contributo

La disinformazione sul social network di proprietà di Elon Musk continua a proliferare e l'intervento dei "moderatori" della piattaforma è sempre più di carattere ideologico

20/10/2023 di Gianmichele Laino

Permetteteci di fare una premessa, sin da subito. Sull’efficiacia delle etichette di disclaiming, di contestualizzazione quando non di debunking che vengono accompagnate ad alcuni post che contengono disinformazione siamo sempre stati scettici. Indipendentemente dal social network che le ha utilizzate: che sia Facebook, che sia Instagram, che sia TikTok o che sia Twitter (nella sua versione pre-Musk e, a maggior ragione, nella sua versione post-Musk). È difficile, se non impossibile, restituire un contesto in poche righe. In più, ricordiamo che spesso l’elaborazione di queste etichette richiede un periodo di tempo significativo, affinché i fact-checkers possano eseguire delle analisi approfondite sul contenuto: quando arrivano a una determinazione – e quindi alla bollinatura di un contenuto con un’etichetta – spesso la fake news è già ampiamente circolata e l’etichetta non può che essere semplicemente un palliativo. In un momento così significativo come quello che stiamo attraversando, con il conflitto Ucraina-Russia e con quello Israele-Hamas in pieno svolgimento, è normale che venga reputato un problema quello della disinformazione su argomenti così sensibili. Soprattutto perché la pubblicazione sui social media è un atto a disposizione di tutti: testate giornalistiche affidabili, prodotti di informazione non affidabili, utenti affidabili, utenti non affidabili, utenti che non esistono nella realtà. In questo contesto, le etichette di Twitter – denominate Community Notes dopo “l’avvento al potere” di Elon Musk – sono state argomento di dibattito.

LEGGI ANCHE > X potrebbe non dover pagare il conto per il DSA

Etichette su Twitter e Community Notes: il loro grado di efficacia contro la disinformazione

Il tema è stato affrontato, tra gli altri, dall’edizione internazionale di Wired, che ha avuto modo di parlare con un membro del team di moderazione del nuovo X di Elon Musk. Quest’ultimo ha detto che le Community Notes sono spesso soggette a manipolazione da parte di gruppi esterni e che spesso mancano di trasparenza sulle modalità con cui vengono vidimate dal social network. Inoltre, il suo racconto ci dà qualche indicazione in più su come funzionino i team di collaboratori alle Community Notes che vengono usati da Twitter: si tratta di gruppi di lavoro (secondo le fonti ufficiali, si trovano in 44 Paesi) che si coordinano tra di loro sui focus specifici degli argomenti da debunkare e che, successivamente, inviano le valutazioni alla sede centrale di Twitter. È qui che le Notes vengono validate. Spesso, però, non tutte le segnalazioni dei moderatori vengono accolte, in alcuni casi vengono ripetutamente sottovalutate.

È capitato anche che le Community Notes contenessero degli errori – a loro volta – e che poi venissero corrette soltanto in un secondo momento (producendo un duplice danno all’efficacia dell’informazione segnalata). Se si considera che, prima di Musk, Twitter aveva messo in piedi un sistema di moderazione che sembrava fornire i primi riscontri positivi e che poi – dopo l’acquisizione – l’effort che serviva per mantenerlo è stato praticamente azzerato dai licenziamenti nel team di moderazione del nuovo social network, comprendiamo quanto la situazione sulla correttezza delle informazioni su Twitter sia preoccupante.

E a conferma di tutto questo è arrivato anche un report di NewsGuard che segnala come dagli utenti verificati con spunta blu dal nuovo X (spunta blu che viene ora assegnata a chiunque paghi un abbonamento) sono responsabili «del 74% delle più popolari affermazioni false sul conflitto Israele-Hamas sulla piattaforma». La percentuale si evince dall’analisi di 250 contenuti sul tema presi in carico dal team di NewsGuard: di questi post, soltanto 79 erano corredati da una Community Note. Significa che 171 post evidentemente falsi (con una grande diffusione su X, tra l’altro) non erano stati raggiunti dall’etichetta di moderazione.

Share this article
TAGS