Come funzionano gli algoritmi dei social network e quali sono le conseguenze della loro applicazione?
Sembra che i social network servano più per interagire con i contenuti e non con le persone: è una conseguenza dell'applicazione degli algoritmi? Ma come funzionano i sistemi di raccomandazione del contenuto utilizzati da Meta, YouTube e TikTok e che rapporto hanno con i fenomeni noti come Filter Bubble e Echo-chamber?
18/01/2023 di Giordana Battisti
Molti siti Web e piattaforme come Spotify o Netflix utilizzano i sistemi di raccomandazione dei contenuti: si tratta di algoritmi che servono per filtrare i contenuti e creare delle raccomandazioni personalizzate rivolte all’utente sulla base delle sue preferenze e interessi. Anche i social network sfruttano questi algoritmi che consentono di attirare l’attenzione delle persone e invogliarle a passare sempre più tempo a interagire con i contenuti pubblicati sulla piattaforma. L’obiettivo della maggior parte delle società che gestiscono social network è proprio quello di coinvolgere le persone e spingerle a utilizzare l’applicazione sempre più spesso e per più tempo possibile. Spesso in riferimento all’algoritmo di TikTok, il social più noto da questo punto di vista, si è parlato del problema etico riguardante la probabilità che questo sistema possa “creare dipendenza”.
Gli algoritmi su cui si basa il funzionamento dei principali social network sono la causa del fenomeno detto Filter bubble e che indica uno spazio virtuale (la “bolla”) dove all’utente vengono mostrati solo i contenuti, che possono essere multimediali o testuali, che è probabile che voglia vedere: questo accade perché l’algoritmo prevede o “indovina” quali sono questi contenuti sulla base delle informazioni sulle preferenze trasmesse dall’utente attraverso le interazioni, per esempio. I contenuti che l’utente vede sono appunto il risultato di un’operazione di filtraggio attuata dall’algoritmo.
LEGGI ANCHE > Il peso specifico delle piattaforme social e della loro (non) moderazione nell’assalto a Brasilia
Come funzionano gli algoritmi di Meta, YouTube e TikTok e quali sono le conseguenze della loro applicazione
Nel corso degli ultimi anni Meta, la società proprietaria di Instagram e Facebook, ha apportato varie modifiche e innovazioni all’algoritmo che permette il funzionamento delle piattaforme spinta anche dalla competizione con il social network cinese TikTok che attira sempre più utenti. Meta ha iniziato a favorire i contenuti video rispetto a quelli testuali e a ottobre del 2022 ha comunicato che avrebbe iniziato a chiedere agli utenti di Facebook se preferivano vedere più contenuti simili a uno di quelli che avevano riprodotto, dando loro la possibilità di scegliere tra “mostra di più” o “mostra di meno”. Facebook aveva iniziato anche a mostrare contenuti pubblicati o condivisi da persone che non fanno parte della cerchia di “amici” di un utente e ha comunicato che anche Instagram avrebbe implementato delle modifiche simili.
Nella sezione “Per te” di TikTok compaiono video di vario genere e vengono proposti video diversi a utenti diversi: l’obiettivo è di proporre contenuti che si presume possano essere apprezzati da un certo utente. TikTok ha spiegato alcuni aspetti del funzionamento del proprio algoritmo che perlopiù si basa sulle interazioni, cioè sulle precedenti attività dell’utente sulla piattaforma che includono i mi piace, i commenti, le persone che ha iniziato a seguire, i video salvati e anche quelli guardati. Anche le informazioni dei video, come le descrizioni o gli hashtag utilizzati, vengono utilizzati per creare le raccomandazioni. Inoltre, influiscono anche le impostazioni del dispositivo e dell’account come la lingua e la posizione.
Google, società proprietaria di YouTube, dovrà affrontare un processo in seguito all’accusa della famiglia di Nohemi Gonzalez, la studentessa statunitense uccisa a Parigi nel 2015 durante gli attentati del 13 novembre e che riguarda in larga parte proprio il sistema di raccomandazione dei contenuti utilizzato dalla piattaforma. Anche YouTube ha dovuto adottare un sistema basato sulle preferenze espresse dagli utenti abbandonando il vecchio sistema che consigliava i video più guardati o con il maggior numero di interazioni indipendentemente dalle esigenze di un certo utente. In un articolo pubblicato sul blog di Google nel 2021 viene spiegato come funziona l’algoritmo di YouTube e anche qual è stato il percorso evolutivo che ha portato al funzionamento attuale della piattaforma. Le modifiche apportate nel corso degli anni alla piattaforma e al funzionamento della raccomandazione dei contenuti ha consentito anche di intervenire su alcuni problemi specifici di YouTube, per esempio il fatto che tra i video consigliati potevano esserci anche contenuti estremi, violenti o razzisti.
Un fenomeno simile a quello del Filter Bubble è quello di “camera dell’eco” (o echo-chamber) connesso all’utilizzo dei social sempre più caratterizzati dagli algoritmi che filtrano i contenuti per raccomandarli a utenti che dimostrano di avere interessi o preferenze specifiche Questo fenomeno però potrebbe riguardare in particolare i contenuti fuorvianti o potenzialmente pericolosi che vengono proposti all’interno di queste “bolle” social e dove nessuno degli utenti che interagisce con gli stessi contenuti mette in discussione la loro veridicità o solleva perplessità riguardanti la loro potenziale pericolosità. Proprio come suggerisce il riferimento all’eco, all’interno di queste situazioni le informazioni, le idee o le credenze che vengono diffuse sono amplificate e rafforzate dalla loto ripetizione e riproposizione all’interno della “bolla”.
Sembra che i social network si stiano allontanando sempre di più dallo scopo per cui erano nati, cioè facilitare e facilitare la comunicazione e le relazioni tra persone e stiano diventando sempre di più degli strumenti di intrattenimento che promuovono l’interazione dell’utente con dei contenuti di vario genere. Una delle conseguenze più gravi del funzionamento della maggior parte degli algoritmi ai social network, oltre ai fenomeni che ne conseguono, è il pericolo della radicalizzazione di cui aveva parlato nel 2018 la sociologa Zeynep Tufekci.