La risposta di Facebook al report che dice che non sa fermare l’odio sul social

Il vicepresidente Guy Rosen ha dichiarato che da luglio 2020 l'incitamento all'odio sulla piattaforma si è dimezzato

18/10/2021 di Redazione

Ormai ci sono due Facebook, o meglio ci sono due narrazioni dello stesso Facebook. La prima è quella che emerge dai leaks interni, dalle dichiarazioni dei whistleblower, dalle singole esperienze degli utenti che utilizzano la piattaforma in maniera critica, a un livello professionale – potremmo dire -, come nel caso che vi abbiamo raccontato ieri a proposito del Signor Distruggere. La seconda è quella che vuole tratteggiare la stessa compagnia di Menlo Park, citando dati interni che – in quanto tali – lasciano il tempo che trovano. Tuttavia, la potenza mediatica dell’azienda quasi impone a prenderli in considerazione, dal momento che se ne parla tanto. Il vicepresidente di Facebook per la sezione “Integrità”, Guy Rosen, nella giornata di ieri ha citato i dati di un rapporto che annuncia che, sulla piattaforma, gli incitamenti all’odio si sono dimezzati dal luglio 2020. Una sorta di appendice a quello che si diceva un anno e mezzo fa, ovvero che la pandemia ci avrebbe reso migliori.

LEGGI ANCHE > Facebook e quei rapporti-non rapporti che non convincono per niente

Incitamento all’odio su Facebook, le parole del vicepresidente Rosen

«I dati estratti da documenti trapelati vengono utilizzati per creare una narrativa secondo cui la tecnologia che utilizziamo per combattere l’incitamento all’odio è inadeguata e che travisiamo deliberatamente i nostri progressi – ha detto Rosen -, ma questo non corrisponde alla verità».

Passiamo ai dati citati: Facebook, secondo il tracciamento dell’incitamento all’odio sulla sua piattaforma, sostiene che quest’ultima attitudine sia diminuita di quasi il 50% negli ultimi tre quarti dell’anno, fino allo 0,05% dei contenuti visualizzati (circa cinque visualizzazioni su 10.000), secondo Rosen. Questo è il dato che emerge dalla metrica interna, che non trova corrispondenze, tuttavia, con le politiche di moderazione della piattaforma. Proprio questo aspetto – fortemente criticato dai media che si stanno occupando del caso di Facebook – contribuisce a creare confusione circa l’atteggiamento di Facebook contro l’odio in rete. La piattaforma rimuove spesso contenuti segnalati in maniera arbitraria dalla community (ancora una volta, l’esempio può essere quello del Signor Distruggere analizzato nel nostro articolo di ieri con dichiarazioni del protagonista), secondo Rosen per un eccesso di prudenza. Il problema è che, spesso, si fa sfuggire altri post o commenti che, a differenza dei contenuti rimossi “per eccesso di prudenza”, mascherano bene l’odio che, tuttavia, trasmettono in maniera efficace.

Due domande, a questo punto, sono necessarie. Il sistema di rimozione dei contenuti d’odio di Facebook è – per stessa ammissione dell’azienda – affidato prevalentemente all’intelligenza artificiale. È un sistema efficace? Se non lo è – come hanno rivelato ad esempio i whistleblower di Facebook nell’ultimo periodo -, com’è possibile che i contenuti definiti d’odio – pur essendo presenti – vengono visualizzati meno dagli utenti? Facebook esercita un controllo sulle visualizzazioni anche per altri tipi di contenuti (come possono essere ad esempio notizie come questa, molto critica nei confronti della società di Menlo Park)? Sembra il gioco del gambero: a ogni passo, corrisponde un arretramento. Anche se si ha l’illusione di andare avanti.

Share this article
TAGS