La moderazione automatizzata su Facebook continua a essere pessima
Demandare all'algoritmo cosa sia legittimo pubblicare - soprattutto per una testata giornalistica - è un punto di non ritorno
13/05/2024 di Enzo Boldi
C’è chi è troppo lento (come X) e chi, invece, è talmente veloce da sbagliare. Continuamente. Già in passato, Giornalettismo si è occupato di tutti gli errori e le pecche (per usare un eufemismo) del sistema di moderazione automatizzata su Facebook. Il caso più emblematico, per quel che ci riguarda, è la rimozione del nostro articolo in cui avevamo affrontato e analizzato il fenomeno social della condivisione (senza contestualizzazione) della lettera scritta da Osama Bin Laden sul primo anniversario dell’attentato dell’11 settembre 2001 alle Torri Gemelle. Piccolo inciso: a oggi – con la pubblicazione su Facebook che risale al 19 novembre del 2023 – siamo ancora in attesa di una decisione dell’Oversight Board dopo il nostro ricorso.
LEGGI ANCHE > Le decisioni di Meta influiscono sulle linee editoriali dei quotidiani?
E oggi, alla ripresa delle attività quotidiane, un’altra amara sorpresa figlia della moderazione automatizzata Facebook. Nei giorni scorsi, avevamo raccontato delle parole dell’assessore alla Mobilità del Comune di Roma sulla volontà di installare delle telecamere di video-sorveglianza con riconoscimento facciale all’interno delle stazioni della metropolitana. Il tutto in vista del Giubileo. Abbiamo raccontato questa storia perché in Italia c’è una moratoria valida fino alla fine del 2025 su questi sistemi e, infatti, dopo il nostro approfondimento sono accadute due cose: il Garante per la Privacy ha chiesto informazioni al Comune di Roma e l’assessore ha fatto marcia indietro. Domenica mattina, su Facebook abbiamo pubblicato un riassunto di questa vicenda, con tanto di link.
Dunque, il racconto di una storia realmente accaduta. Peccato che questo contenuto, poco dopo la condivisione su Facebook, sia stato limitato. Il motivo: l’algoritmo (ovvero la moderazione automatizzata Facebook) he deciso che il post violasse gli standard della piattaforma per quel che riguarda i “Contenuti forti e violenti“.
Eppure non c’era nulla di “forte o violento”. L’immagine è quella di una banchina della metropolitana di Roma con persone che aspettano di poter salire sul mezzo pubblico. Il titolo non dice nulla di “sconveniente” e contro le regole della piattaforma. Il testo del post, ancora meno.
Moderazione automatizzata Facebook, ancora problemi
Questa mattina, abbiamo richiesto un controllo da parte della piattaforma e – come ovvio – il contenuto è stato ripristinato. Senza limitazioni. Con questa spiegazione da parte di Meta:
«Abbiamo controllato il tuo post e abbiamo stabilito che rispetta i nostri Standard della community in materia di “Contenuti forti e violenti”. Ci scusiamo per l’inconveniente. Sappiamo che può essere stato spiacevole quando abbiamo spostato il tuo post più in basso nel feed. Il feedback che hai fornito ci aiuterà a prendere decisioni migliori sui contenuti potenzialmente sensibili in futuro».
Una giustificazione non coerente. L’algoritmo ha deciso e per quasi 24 ore quel contenuto è stato limitato. Dunque, ha inciso sulle visualizzazioni dell’articolo e dei contenuti direttamente da Facebook. E pensare che non si tratta della prima volta in cui la moderazione automatizzata fallisce. E non è la prima volta che il “feedback” che ha fornito Giornalettismo a Meta non ha prevenuto altre decisioni penalizzanti. Il paradosso dell’uomo che lascia decidere alle macchine e agli algoritmi AI che sono molto artificiali, ma poco intelligenti.