Haugen, testimoniando davanti al Parlamento Uk, sta fornendo nuovi dettagli su moderazione e minori su Facebook

La whistleblower riferisce che i contenuti polarizzati sia di destra che di sinistra sono prioritari per Facebook, dove sono iscritti anche molti bambini di 10 anni

25/10/2021 di Ilaria Roncone

Frances Haugen, come previsto, sta testimoniando anche davanti al Parlamento britannico dopo averlo fatto di fronte al Senato Usa. La whistleblower  e ex product manager è stata convocata dalla Commissione per la legge sulla sicurezza online per riferire sul caso Facebook; una testimonianza che potrebbe rivelarsi fondamentale nell’ottica della nuova normativa che la Gran Bretagna vorrebbe adottare. Si tratterebbe di imporre ai social e ai giganti del mondo tech una serie di obblighi a tutela degli utenti in generale e dei bambini in particolare.

LEGGI ANCHE >>> Frances Haugen è sostenuta finanziariamente dal fondatore di eBay?

Cosa sta dicendo Frances Haugen davanti al Parlamento britannico

Su Twitter l’account ufficiale dell’Oversight Board di Facebook sta riferendo i punti salienti del discorso della whistleblower di fronte ai politici UK.

La whistleblower ha iniziato riferendosi a quella che può sembrare una consapevolezza banale ma che, alla fine dei conti, è un punto fondamentale del lavoro di moderazione di Facebook che, secondo lei, ancora non è stato centrato: «Anche solo la differenza tra American English e British English rappresenta una sfida di moderazione contenuti per Facebook che deve ancora essere affrontata in maniera efficace».

Ed emerge, parlando sempre di linguaggio, anche una difficoltà nella distinzione dei contenuti sul terrorismo: «Un problema che mi preoccupa molto – dice Haugen – è che Facebook ha un problema nel differenziare in molte lingue il contenuto del terrorismo da quello dell’antiterrorismo». Un dato molto interessante in questo senso è che «il 76% dei contenuti di antiterrorismo in arabo è stato etichettato come contenuto terroristico su Facebook». L’invito a Facebook è quello a una maggiore trasparenza: «Dovrebbe pubblicare una lista di tutte le ricerche/sperimentazioni che stanno facendo e pubblicare i risultati», considerato anche che «Twitter e Google sono molto più trasparenti» se messi in comparazione.

I contenuti più estremi e divisivi vengono premiati con un engagement maggiore

La priorità su Facebook viene data a «contenuti polarizzanti, estremi e divisivi, non importa se sei di destra o di sinistra: ti spinge agli estremi», riferisce Haugen. Produrre contenuti polarizzati che scatenino odio e rabbia «è il modo più facile per crescere su Facebook».

Secondo Haugen bisognerebbe «passare a sistemi che sono a misura d’uomo invece di avere l’AI che ci dice dove concentrarci» poiché «è il modo più sicuro per progettare i social media». Viene evidenziato come «ci sono lcuni paesi nel mondo dove il 35% di tutti i contenuti nel newsfeed è un reshare». La ricondivisione è più facilmente ottenibile tramite contenuti polarizzanti ed ecco perché Facebook non ha interesse a cambiare questo meccanismo: «Perché non vuole perdere quella crescita».

A questo proposito, Haugen sottolinea come il 6 gennaio scorso – la giornata dei fatti di Capitol Hill – «la maggior parte degli interventi di Facebook contro violenza, odio e disinformazione erano ancora disattivati alle 5pm».

Share this article
TAGS