Lo staff di Facebook si lamentava di come l’algoritmo favorisse le news più divisive

Sempre nell'ambito dei documenti interni a cui il Washington Post ha avuto accesso, ecco spiegate quali sarebbero state le reazioni dei dipendenti del social network alla reportistica sui siti di news

27/10/2021 di Giorgia Giangrande

Il Washington Post ha raccontato come alcuni dipendenti di Facebook si lamentassero di come funziona l’algoritmo della piattaforma, in grado di spingere le pagine di news a produrre contenuti più oscuri e divisivi.

LEGGI ANCHE > L’audizione di YouTube, Snapchat e TikTok: «Essere diversi da Facebook non è una difesa»

I dipendenti di Facebook e la reportistica sui siti di news

Da un po’ di tempo, i dipendenti di Facebook si stavano già lamentando di come la società stesse spingendo le notizie più divisive, nonostante ciò la società aveva già apportato modifiche che avrebbero ulteriormente promosso alcuni dei siti web ideologici più estremi rispetto alle fonti di notizie moderate e neutrali. Nella nuova raccolta di documenti di cui è entrato in possesso il Washington Post, è emerso che alcuni cambiamenti algortmici cruciali sono stati studiati e visti all’interno da Facebook. Tali documenti confermano anche la precedente segnalazione che alcuni dipendenti avevano fatto negli anni passati, relativamente alla pratica di favorire gli editori di destra. Si tratta degli stessi dipendenti che già in passato si erano stupiti di come l’azienda non facesse di più per arginare la disinformazione e la divisività sulla sua piattaforma.

Per cercare di invertire la tendenza, Zuckerberg nel 2018 annunciò che Facebook avrebbe alterato il suo algoritmo per incoraggiare quelle che ha chiamato «interazioni sociali significative» e per ridurre la preminenza nei feed degli utenti dei post che provengono da aziende, marchi e media. Zuckerberg ha poi riconosciuto che il numero complessivo di storie di notizie sarebbe stato ridotto, ma ha detto che Facebook avrebbe «dato priorità alle notizie che sono affidabili, informative e locali». Un buon proposito sì, ma che non ha mai avuto riscontro nella realtà.

Come funziona l’algoritmo di Facebook: il caso Buzzfeed

Per quanto Facebook dicesse di impegnarsi per favorire un’informazione affidabile e di qualità nelle sue piattaforme, i documenti interni appena rilasciati rivelano – tra l’altro – anche il caso specifico di un editore, la cui personale esperienza nega un’effettiva realizzazione dei propositi di Mark Zuckerberg. Si tratta di BuzzFeed, che aveva accumulato un successo iniziale dopo il suo lancio nel 2006 grazie alle sue storie che diventavano virali su Facebook; alla fine, però, ha deciso di abbandonare i meme e i gattini per lasciare spazio al giornalismo serio, vincendo persino un premio Pulitzer quest’anno. Incredibilmente, ha ottenuto da Facebook l’effetto contrario. Secondo un rapporto interno della società, il CEO Jonah Peretti ha avvertito Facebook che i cambiamenti algoritmici che erano destinati ad aumentare le interazioni significative stavano avendo nella realtà l’effetto opposto. Peretti si è lamentato del fatto che le storie più serie legate a contenuti di qualità stavano riscuotendo molta meno promozione su Facebook rispetto a quei contenuti inquietanti o che speculavano sulle divisioni razziali.

A tal proposito, i ricercatori hanno notato come – a causa di questo oscuramento da parte di Facebook – molte meno persone sono incentivate a produrre contenuti originali di qualità e ad investire nel giornalismo fatto bene. Oggi i siti conservatori con un’evidente inclinazione ideologica sembrano prosperare su Facebook e in attesa delle risposte di Zuckerberg (anche e soprattutto in seguito alla testimonianza di Frances Haugen) la domanda resta una sola: perché?

Share this article
TAGS