Quanti sono stati gli errori nella rimozione di post da parte di Facebook

I dati relativi al rapporto trimestrale sull'applicazione degli standard della comunità di Facebook

18/05/2022 di Gianmichele Laino

L’altro giorno vi abbiamo riportato la testimonianza di una utente che, pubblicando su Facebook un nostro vecchio articolo su un gesto di intimidazione nei confronti di Greta Thunberg (un manichino con le treccine appeso a un cavalcavia), si è vista bloccare il suo account per diversi giorni. Un problema non da poco: il post veniva considerato una sorta di istigazione al suicidio e, per questo motivo, all’utente è stato sospeso il profilo. Peccato che non si trattasse affatto di una istigazione al suicidio, ma di una notizia verificata e riportata correttamente da un sito di news (registrato, tra le altre cose, a Facebook nel portale appositamente dedicato alle pagine di news). Possiamo immaginare sicuramente che il contesto di questa rimozione possa essere quello che si evince dal rapporto trimestrale sull’applicazione degli standard della comunità di Facebook, pubblicato da Meta. Grazie a questo rapporto, infatti, possiamo avere una idea di massima di come il social network di Mark Zuckerberg abbia fatto degli errori nella rimozione dei post.

LEGGI ANCHE > Facebook le ha bloccato l’account per 60 giorni: «Se c’è un senso a questa storia è che l’AI di Facebook ha sbagliato»

Rimozione contenuti Facebook, gli errori della moderazione

Com’è noto, infatti, Facebook mette in pratica la moderazione dei suoi contenuti attraverso operatori in carne e ossa e attraverso sistemi di intelligenza artificiale. Direte che errare humanum est. E invece scopriamo che è una caratteristica tipica anche dei sistemi di intelligenza artificiale. Anzi, a quanto pare sono stati minori gli errori del team umano che si occupa di moderazione in Facebook e non quelli dell’intelligenza artificiale. Questo perché, sebbene con tutti i limiti che si vengono a creare (non ultimo quello della barriera linguistica), i dipendenti di Facebook hanno una sensibilità diversa sui contenuti ritenuti inadatti agli standard della comunità.

Stando a questi dati, dunque, il numero di persone che hanno presentato un ricorso rispetto a post che, nella loro opinione non dovevano essere rimossi, è salito da 80mila a 104mila. Si tratta, nello specifico, solo di post che sono stati gestiti da operatori umani. In questi tre mesi, invece, Facebook ha ripristinato 149mila post che erano stati rimossi ingiustamente. Con l’intelligenza artificiale, si diceva, è andata decisamente peggio: sono stati 345.600 i post rimossi per errore, contro i 95.300 segnalati nel periodo precedente. Affidare all’intelligenza artificiale un lavoro di questo genere comporta anche il fatto che – ad esempio – negli ultimi mesi diversi post siano stati rimossi semplicemente perché avevano come oggetto azioni di guerra in Ucraina. Immagini sicuramente cruente, ma se si tratta di informazione corretta perché rimuoverle?

Il dato di fatto è che Facebook sta analizzando i suoi errori e sta provando a risolverli. Ma il tema è: cosa succede agli account a cui capita di essere raggiunti da provvedimenti di rimozione ingiusti? Cosa avviene nel lasso di tempo che trascorre tra la rimozione dell’account e la dichiarazione di fondatezza del ricorso? Cosa succede all’indicizzazione di questi account nel momento in cui vengono raggiunti da un ingiusto provvedimento di rimozione? E se questi account sono organizzazioni di news? Domande aperte a cui il report non può dare una risposta.

Share this article
TAGS