Meta ha fornito dati per ricerche sulla polarizzazione degli utenti che sono tornate molto utili a Facebook

Quattro studi, che sono stati pubblicati su Nature e su Science, rivedono - in teoria - le potenzialità di Facebook, attraverso l'algoritmo, di acuire la polarizzazione degli utenti. Ma non tutti sono d'accordo con il metodo

08/08/2023 di Gianmichele Laino

L’algoritmo è responsabile della polarizzazione degli utenti Facebook? È la grande domanda che, da qualche tempo a questa parte, sta caratterizzando i dibattiti sul social network di Mark Zuckerberg. In realtà, le rivelazioni del 2021 della whistleblower Frances Haugen hanno spiegato al grande pubblico – che ha potuto leggere i famosi Facebook papers sul Washington Post e su altre grandi testate americane – che la tendenza a promuovere contenuti di hate speech era molto pronunciata a partire proprio dal meccanismo di funzionamento dell’algoritmo del social network. Adesso, quattro studi pubblicati su Nature e su Science (che sono stati condotti – si badi bene – da alcuni ricercatori che si sono serviti di dati messi a disposizione proprio da Meta) hanno cercato di sovvertire questa teoria. Si tratta, in ogni caso, di dati che fanno riferimento ai tre mesi precedenti le elezioni politiche americane del 2020 (un evento già di per se stesso polarizzante) e che, quindi, risultano essere raccolti prima delle rivelazioni della stessa Frances Haugen, che pure erano basate su ricerche di stampo accademico che erano state condotte all’interno dell’azienda di Zuckerberg ma che, a differenza di queste ultime, non erano state rese pubbliche.

LEGGI ANCHE > Haugen, whistleblower di Facebook, fonda Beyond the Screen, la non profit per rendere i social più “sani”

Polarizzazione utenti Facebook, cosa dicono gli studi pubblicati su Nature e su Science

Il Center for Social Media and Politics presso la New York University è stato capofila dei vari studi e ha messo in fila dei dati che sono stati raccolti da Meta su circa 200mila utenti. A questi ultimi è stata data la possibilità di utilizzare il social network edulcorandolo dall’algoritmo di raccomandazione del contenuto: il proprio feed funzionava in maniera cronologica, proponendo loro i contenuti del proprio network nell’ordine di pubblicazione (dal più al meno recente). Il primo risultato – che tuttavia è esente dal binomio polarizzazione sì/no – è che gli utenti con il feed cronologico utilizzano Facebook per meno tempo rispetto al feed di raccomandazione. E questo è anche plausibile, dal momento che non venivano raggiunti da post (esterni alla loro rete, magari) che potevano incrociare i propri gusti e trattare di argomenti di potenziale interesse. Le uniche cose che potevano vedere erano i contenuti delle pagine o degli utenti che il campione che si è sottoposto all’esperimento seguivano.

Tuttavia, il risultato legato alla polarizzazione non avrebbe confermato quello che Frances Haugen aveva denunciato nel 2021: «Riscontriamo un impatto minimo nei cambiamenti nell’atteggiamento delle persone nei confronti della politica e persino nella partecipazione dichiarata delle persone alla politica». Insomma, se gli utenti erano convinti della propria politica, nessun algoritmo poteva indurli a pensarla in modo differente. Dunque, secondo questi studi – basati su dati forniti da Meta – non si è configurata alcuna polarizzazione degli ideali (e de di battiti) anche a livello politico su Facebook (e Instagram). Eppure la storia recente parla di denunce (i Facebook Papers) interne, con tanto di documenti, in cui si parla di come utilizzare al meglio l’algoritmo per polarizzare il dibattito politico e alimentare la permanenza sui social network d Menlo Park. Giornalettismo affronterà queste perplessità e i dubbi attorno all’universalità della valenza di questi studi. Provando a non fermarsi – come invece hanno fatto alcuni quotidiani italiani – all’apparenza dei titoli “trionfalistici”.

E, soprattutto, prendendo in considerazione anche quello che è stato osservato da uno degli stessi autori dello studio: sempre su Science, una delle riviste che ha ospitato gli studi su Meta, è stato pubblicato un articolo che ha criticato l’assenza di indipendenza dei ricercatori rispetto ai dati forniti dall’azienda di Mark Zuckerberg. Tanto per cambiare, insomma, il problema resta quello dell’autonomia di giudizio quando si tratta di qualsiasi realtà di Big Tech.

Share this article
TAGS