Haugen, testimoniando davanti al Parlamento Uk, sta fornendo nuovi dettagli su moderazione e minori su Facebook
La whistleblower riferisce che i contenuti polarizzati sia di destra che di sinistra sono prioritari per Facebook, dove sono iscritti anche molti bambini di 10 anni
25/10/2021 di Ilaria Roncone
Frances Haugen, come previsto, sta testimoniando anche davanti al Parlamento britannico dopo averlo fatto di fronte al Senato Usa. La whistleblower e ex product manager è stata convocata dalla Commissione per la legge sulla sicurezza online per riferire sul caso Facebook; una testimonianza che potrebbe rivelarsi fondamentale nell’ottica della nuova normativa che la Gran Bretagna vorrebbe adottare. Si tratterebbe di imporre ai social e ai giganti del mondo tech una serie di obblighi a tutela degli utenti in generale e dei bambini in particolare.
LEGGI ANCHE >>> Frances Haugen è sostenuta finanziariamente dal fondatore di eBay?
Cosa sta dicendo Frances Haugen davanti al Parlamento britannico
Su Twitter l’account ufficiale dell’Oversight Board di Facebook sta riferendo i punti salienti del discorso della whistleblower di fronte ai politici UK.
Haugen: Even the differences between American English and British English presents a content moderation challenge for Facebook that they have yet to effectively tackle.
— The Real Facebook Oversight Board (@FBoversight) October 25, 2021
La whistleblower ha iniziato riferendosi a quella che può sembrare una consapevolezza banale ma che, alla fine dei conti, è un punto fondamentale del lavoro di moderazione di Facebook che, secondo lei, ancora non è stato centrato: «Anche solo la differenza tra American English e British English rappresenta una sfida di moderazione contenuti per Facebook che deve ancora essere affrontata in maniera efficace».
Ed emerge, parlando sempre di linguaggio, anche una difficoltà nella distinzione dei contenuti sul terrorismo: «Un problema che mi preoccupa molto – dice Haugen – è che Facebook ha un problema nel differenziare in molte lingue il contenuto del terrorismo da quello dell’antiterrorismo». Un dato molto interessante in questo senso è che «il 76% dei contenuti di antiterrorismo in arabo è stato etichettato come contenuto terroristico su Facebook». L’invito a Facebook è quello a una maggiore trasparenza: «Dovrebbe pubblicare una lista di tutte le ricerche/sperimentazioni che stanno facendo e pubblicare i risultati», considerato anche che «Twitter e Google sono molto più trasparenti» se messi in comparazione.
I contenuti più estremi e divisivi vengono premiati con un engagement maggiore
La priorità su Facebook viene data a «contenuti polarizzanti, estremi e divisivi, non importa se sei di destra o di sinistra: ti spinge agli estremi», riferisce Haugen. Produrre contenuti polarizzati che scatenino odio e rabbia «è il modo più facile per crescere su Facebook».
🔴 Haugen: Engagement-based ranking prioritizes polarizing, extreme, divisive content. It doesn’t matter if you’re on the left or the right, it pushes you to the extremes. It fans hate. Anger and hate are the easiest ways to grow on Facebook.
— The Real Facebook Oversight Board (@FBoversight) October 25, 2021
Secondo Haugen bisognerebbe «passare a sistemi che sono a misura d’uomo invece di avere l’AI che ci dice dove concentrarci» poiché «è il modo più sicuro per progettare i social media». Viene evidenziato come «ci sono lcuni paesi nel mondo dove il 35% di tutti i contenuti nel newsfeed è un reshare». La ricondivisione è più facilmente ottenibile tramite contenuti polarizzanti ed ecco perché Facebook non ha interesse a cambiare questo meccanismo: «Perché non vuole perdere quella crescita».
🔴 Haugen: US Senate that Facebook found that Facebook had estimated the ages of teenagers and found that 10-15% of 10-year-olds were on the platform. Facebook can very effectively predict how old a user is.
— The Real Facebook Oversight Board (@FBoversight) October 25, 2021
A questo proposito, Haugen sottolinea come il 6 gennaio scorso – la giornata dei fatti di Capitol Hill – «la maggior parte degli interventi di Facebook contro violenza, odio e disinformazione erano ancora disattivati alle 5pm».