Facebook ha puntato sui contenuti divisivi dal 2017 in poi (lo dicono i Facebook Papers)

Generare rabbia per salire in alto nel ranking, favorire la polarizzazione per avere maggiore traffico: questo è quello che Facebook ha fatto a partire dal 2017, come emerso dai Facebook Papers

08/08/2023 di Ilaria Roncone

Secondo gli studi usciti su Science e Nature – sviluppati in collaborazione con Meta poiché essa ha acconsentito a fornire parte dei dati su cui le indagini si basano – il ruolo di Facebook e Instagram nell’influenzare le idee politiche fino alla polarizzazione (da un lato o dall’altro) non sarebbe così rilevante. Quanto emerge dall’analisi di un periodo di tre mesi appena precedente le elezioni del 2020, però, va in aperto contrasto rispetto a quanto è stato fatto trapelare da Frances Haugen – la whistleblower che ha fornito al Wall Street Journal una serie di documenti interni che hanno fatto luce su determinate pratiche di Meta -.

Quando i documenti sono diventati pubblici tutta una serie di giornali nel mondo hanno evidenziato le storture dei social di Meta rispetto alle quali – fondamentalmente – si è scelto di mettere la polvere sotto il tappeto per anni prima di procedere con ricerche basate su dati forniti da Meta ai ricercatori indipendenti.

LEGGI ANCHE >>> È dal 2017 che i post che suscitano reaction di rabbia vengono favoriti dall’algoritmo di Facebook

La polvere messa sotto il tappeto per anni

Frances Haugen ha – di fatti – scoperchiato il vaso di Pandora delle consapevolezze interne a Meta rispetto a quanto accadeva sui suoi social. Consapevolezze delle quali, spesso e volentieri, si è scelto di non prendere atto. Nel 2021, anno in cui sono emerse le prime evidenze dai documenti interni, è venuto fuori – per esempio – come Facebook avesse sostanzialmente guadagnato con le interferenze russe nelle elezioni del 2016 e che, nonostante il social fosse pienamente consapevole della dipendenza che generava, aveva scelto di sciogliere il team che si occupava della questione nel 2019.

Proprio per indagare quanto potere abbiano i social nell’ambito dell’influenza sulle opinioni politiche, prima delle elezioni del 2020 è stata messa in piedi questa ricerca con la collaborazione di prestigiose università Usa e Meta stesso. Quanto emerso – ovvero il fatto che Facebook non favorirebbe la polarizzazione – è in aperto contrasto con quanto testimoniato dai dipendenti del social, che si lamentavano di come la piattaforma favorisse le notizie più divisive.

La polarizzazione su Facebook viene favorita dal 2017

Questo è quanto è chiaramente emerso da una parte dei cosiddetti Facebook Papers. A confermarlo non sono solo i documenti ma anche gli ingegneri di Facebook, spiegando che una emoji rabbia – tra quelle che, a un certo punto, sono comparse insieme al like e al dislike per dare agli utenti la possibilità di esprimere in maniera più puntuale come un determinato contenuto li faceva sentire – valeva cinque volte un mi piace nel ranking di Facebbok.

Questo ha fatto sì che, dal 2017, Facebook prediligesse in maniera evidente tutte quelle notizie e quei contenuti che generavano rabbia. La questione è emersa prima perché il Washington Post ha analizzato i documenti interni e poi perché – una volta contattati – i data sicentist dell’azienda hanno confermato il rapporto di cinque a uno. L’algoritmo di ranking – ovvero quello che mette in classifica i contenuti scegliendo quali presentare per primi e quali lasciare in fondo alla lista – è stato spinto quindi a spingere molto su ciò che generava rabbia (con gli ingegneri che hanno riconosciuto come, già nel 2019, i contenuti che generavano più rabbia erano quelli che avevano un’alta possibilità di veicolare disinformazione, notizie di qualità molto scarsa e tossicità in generale. In una parola: il clickbaiting è stato ampiamente favorito su Facebook.

In conclusione, affermare oggi – basandosi su soli tre mesi di ricerca precedenti alle elezioni Usa del 2020 – che Facebook non favorisca la polarizzazione politica delle persone – pur essendo trapelato esternamente come l’interesse dell’azienda si sia mosso in quella direzione a partire dal 2017 – sembra essere un’affermazione che analizza solo una parte della storia: bisognerebbe considerare, infatti, i dati relativi ai primi periodi in cui l’algoritmo è stato addestrato a classificare i contenuti basandosi sulla rabbia generata e non sui periodi successivi (come nel 2020) quando si trattava, ormai, di un modello già avviato che aveva già provocato i suoi effetti.
Share this article