Le due ricerche che provano a smentire la “polarizzazione politica” con l’algoritmo di Facebook

Due studi paralleli, uno su Science e l'altro su Nature, basati anche su dati forniti da Meta

08/08/2023 di Enzo Boldi

Negli ultimi giorni, anche in Italia è arrivata l’Eco dei risultati di due ricerche pubblicate su altrettante riviste scientifiche molto note (Science e Nature) su un tema molto dibattuto negli ultimi anni negli Stati Uniti e in tutto il mondo: l’influenza degli algoritmi delle due principali piattaforme social di Meta (Facebook e Instagram) sulla polarizzazione politica. Gli studi si sono basati anche su dati inviati dall’azienda di Menlo Park e questo aspetto ha sollevato moltissimi dubbi e critiche, anche tra i ricercatori stessi. Sta di fatto che, secondo gli esiti pubblicati, tutte le preoccupazioni sull’influenza dei contenuti “suggeriti” dagli algoritmi rispetto a quelli visualizzati attraverso il classico e “vecchio” feed cronologico, erano infondate. Ma siamo sicuri di tutto ciò?

LEGGI ANCHE > Meta ha fornito dati per ricerche sulla polarizzazione degli utenti che sono tornate molto utili a Facebook

Le due ricerche si sono concentrate su un determinato periodo storico della storia recente: gli ultimi mesi della campagna elettorale delle elezioni Presidenziali negli Stati Uniti del 2020. Il dibatto pubblico era già aspramente polarizzato, come spesso capita negli USA: da una parte di Repubblicani a sostegno della candidatura dell’allora Presidente uscente Donald Trump, dall’altra i sostenitori del candidato Democratico (poi uscito vincente dalle urne) Joe Biden. Prima delle accuse di “brogli” da parte dell’ex inquilino della Casa Bianca, prima dell’assalto a Capitol Hill. Dunque, una fase storica molto ristretta e che vedeva schierati due “schieramenti” completamente agli antipodi.

Polarizzazione politica su Facebook, la ricerca su Science

Questa piccola premessa è necessaria per comprendere al meglio il risultato della prima ricerca pubblicata il 27 luglio sulla rivista Science. Questo studio, infatti, sostiene che l’algoritmo di Facebook e Instagram (ovvero quello che mostra i contenuti in base alle preferenze e alle “abitudini di navigazione” dell’utente e non più su base cronologica) non sia la causa della polarizzazione politica. In un estratto della sintesi, infatti, si legge:

«Abbiamo analizzato gli effetti degli algoritmi dei feed di Facebook e Instagram durante le elezioni statunitensi del 2020. Abbiamo assegnato a un campione di utenti consenzienti dei feed ordinati in modo cronologico inverso rispetto agli algoritmi di algoritmi predefiniti. L’esclusione degli utenti dai feed algoritmici ha ridotto sostanzialmente il tempo trascorso sulle piattaforme e la loro attività. Anche il feed cronologico ha influito sull’esposizione ai contenuti: la quantità di contenuti politici e non attendibili è aumentata su entrambe le piattaforme, mentre la quantità di contenuti contenuti classificati come incivili o contenenti parole offensive è diminuita su Facebook, e la quantità di contenuti provenienti da amici moderati e da fonti con un pubblico ideologicamente misto è aumentata su Facebook. Nonostante questi cambiamenti sostanziali nell’esperienza degli utenti sulla piattaforma, il feed cronologico non ha alterato in modo significativo i livelli di polarizzazione tematica, affettiva, di conoscenza politica o di altri atteggiamenti chiave durante il periodo di studio di 3 mesi».

Dunque, uno studio di 3 mesi basato su poco meno di 23.400 utenti di Facebook e meno di 21.400 utenti di Instagram è bastato per sancire come l’algoritmo di Meta non abbia alcuna influenza sulla polarizzazione politica negli Stati Uniti. E ancora, si sostiene che il feed algoritmico non indirizzi in alcun modo considerazioni ideologiche che sono già insiste all’interno della mente di ogni singolo utente. Dunque, il ritorno a un feed cronologico non muterebbe la situazione. Ma, leggendo bene tra le righe, il problema reale è che Facebook – in modo particolare – non sia stato in grado (parliamo sempre degli ultimi mesi del 2020) di rimuovere contenuti non attendibili.

Il caso delle Echo Chambers sui social di Meta

Il secondo studio, pubblicato sempre il 27 luglio su Nature, si è invece occupato del fenomeno delle Echo Chambers, ovvero quelle camere “digitali” in cui si ritrovano (metaforicamente, in uno spazio non fisico) tutte quelle persone di una stessa cerchia ideologica attraverso le piattaforme social. Anche questo è un fenomeno importante per quel che riguarda l’ampio dibattito – scaturito anche in seguito alla diffusione dei cosiddetti “Facebook Papers” e delle rivelazioni dell’ex dipendente Frances Haugen – sulla polarizzazione politica provocata dai social network. E, seguendo uno spartito molti simile a quello indicato su Science, ecco che anche questa ricerca va in una direzione analoga:

«Molti critici sollevano preoccupazioni sulla prevalenza delle “camere dell’eco” sui social media e sul loro potenziale ruolo nell’aumentare la polarizzazione politica. Tuttavia, la mancanza di dati disponibili e le sfide di condurre grandi esperimenti sul campo hanno reso difficile valutare l’entità del problema. Qui presentiamo dati dal 2020 per l’intera popolazione di utenti adulti attivi di Facebook negli Stati Uniti che mostrano che i contenuti provenienti da “fonti affini” costituiscono la maggior parte di ciò che le persone vedono sulla piattaforma, sebbene le informazioni e le notizie politiche rappresentino solo una piccola parte di queste esposizioni. Per valutare una potenziale risposta alle preoccupazioni sull’impatto delle camere dell’eco, abbiamo condotto un esperimento sul campo multi-onda su Facebook tra 23.377 utenti per i quali abbiamo ridotto l’esposizione ai contenuti provenienti da fonti affini durante le elezioni presidenziali statunitensi del 2020 di circa un terzo. Abbiamo scoperto che l’intervento ha aumentato la loro esposizione a contenuti provenienti da fonti trasversali e ha diminuito l’esposizione a un linguaggio incivile, ma non ha avuto effetti misurabili su otto misure attitudinali pre-registrate come polarizzazione affettiva, estremismo ideologico, valutazioni dei candidati e credenze in affermazioni false. Questi risultati stimati con precisione suggeriscono che, sebbene l’esposizione ai contenuti provenienti da fonti affini sui social media sia comune, ridurne la prevalenza durante le elezioni presidenziali statunitensi del 2020 non ha corrisposto a una riduzione della polarizzazione nelle credenze o negli atteggiamenti». 

Ricerche basate sui dati forniti sempre da Meta, con un campione ridotto e l’assunto di base: l’algoritmo di Facebook (nello specifico) non ha influenze percettibili sulla polarizzazione (politica e non solo). Dunque, stando alle conclusioni di entrambi gli studi, tutti gli assunti sul come i social network possano dare un contributo alla suddivisione bipolare del dibattito sembrano essere smentiti. Ci sono, però, molte perplessità sulla struttura di queste ricerche: dal numero di utenti coinvolti, al periodo storico (ristrettissimo e legato a un evento polarizzante già di suo), fino alla reale profondità dell’analisi visti i due fattori appena enunciati.

Share this article
TAGS