Cosa scrisse nel 2018 Zeynep Tufekci su YouTube come strumento per la radicalizzazione
Sul New York Times, la sociologa turca spiegò questo suo "esperimento" partendo dai contenuti raccomandati in merito alla campagna elettorale di Donald Trump nel 2016 e arrivando fino a casi di cronaca terroristica
18/01/2023 di Enzo Boldi
La diffusione di Internet ha consentito a miliardi di persone di vivere in un mondo perennemente connesso, stravolgendo non solo le linee teoriche dei rapporti interpersonali – sempre più “digitali” e meno “fisici” -, ma anche i modi di comunicare. Parte della comunicazione rientra sotto l’etichetta della propaganda e piattaforme come YouTube, Facebook, Instagram, Twitter e TikTok (per citare esclusivamente le principali) e il famoso “algoritmo” dei contenuti raccomandati sembra essere il classico punto di atterraggio che provoca la radicalizzazione. Non solo di video, post o fotografie, ma anche di “ideali” che spesso travalicano il confine della legalità (come il terrorismo). Una tesi alla base della causa contro YouTube mossa dalla famiglia di Nohemi Gonzalez, la studentessa americana uccisa a Parigi nel 2015 durante gli attentati perpetrati il 13 novembre da un commando affiliato allo Stato Islamico. Una tesi sostenuta già nel 2018 – cinque anni fa, cinque anni prima dell’arrivo dell’intervento della Corte Suprema statunitense – dalla sociologa turca Zeynep Tufekci.
LEGGI ANCHE > Raccomandazione del contenuto: cosa sono, come funzionano e perché per i social sono importanti
Sulle pagine del New York Times, la professoressa associata della School of Information and Library Science dell’Università della Carolina del Nord aveva raccontato di un suo “esperimento” iniziato casualmente. Si era collegata a YouTube per guardare alcuni video della campagna elettorale di Donald Trump del 2016. E in quell’occasione ha notato un qualcosa di strano: da quel momento, la piattaforma ha iniziato a “consigliare” (anche con la formula della “riproduzione automatica”) filmati legati a suprematisti bianchi e negazionisti dell’Olocausto. Un caso? Assolutamente no.
Zeynep Tufekci e YouTube come strumento di radicalizzazione
Incuriosita da quanto mostrato da YouTube, Zeynep Tufekci decise di fare un esperimento: creò un altro account e iniziò a guardare video di Hillary Clinton e Bernie Sanders, due esponenti Democratici che hanno idee ben differenti rispetto a quelle del Repubblicano Donald Trump. Dopo aver visto i primi filmati, ecco che l’algoritmo dei contenuti raccomandati entrò nuovamente in azione: tra i video proposti, contenuti cospiratori legati al mondo dell’estrema sinistra americana. Comprese le ipotesi di complotto sulle agenzie governative segrete e l’organizzazione – da parte del governo USA – dell’attentato dell’11 settembre. Insomma, complotti di destra versus complotti di sinistra. Tutto in base alle proprie abitudini di navigazione sulla piattaforma. La sperimentazione della sociologa, raccontata sul quotidiano newyorkese, proseguì creando altri account e procedendo con nuove ricerche (dal veganesimo al running). E lì arrivò la conferma di quell’assunto. Per quale motivo? Questa la sua spiegazione:
«Questo non perché una cabala di ingegneri di YouTube stia tramando per far precipitare il mondo in un precipizio. Una spiegazione più probabile ha a che fare con il nesso tra intelligenza artificiale e modello di business di Google (proprietaria di Youtube). Nonostante tutta la sua retorica, Google è un broker pubblicitario che vende la nostra attenzione alle aziende che la pagheranno. Più a lungo le persone rimangono su YouTube, più soldi guadagna Google. Cosa tiene le persone incollate a YouTube? Il suo algoritmo sembra aver concluso che le persone sono attratte da contenuti più estremi di quelli con cui hanno iniziato, o da contenuti incendiari in generale».
L’ingegnere licenziato e i contenuti “provocatori”
Dall’estremizzazione alla radicalizzazione. L’equazione, dunque, sembra essere piuttosto semplice. Perché Zeynep Tufekci ha citato il caso di Guillaume Chaslot, un ingegnere licenziato da Google nel 2013 dopo aver lanciato l’allarme sulle tattiche usate da YouTube per trattenere gli utenti sulla piattaforma. Strategia basata sull’algoritmo programmato per seguire le abitudini di navigazione in piattaforma di ogni singolo utente che la utilizza e poi proporre dei contenuti sempre più estremi rispetto al punto di partenza della ricerca (l’esempio della ricerca di video sul vaccino anti-influenzale a cui erano correlati video complottisti sui vaccini). Dunque, si arriva al concetto di radicalizzazione: un algoritmo che ha sviluppato il sistema della raccomandazione dei contenuti, rischia di provocare un mondo sempre più polarizzato. Perché, come spiegato dalla sociologa, già nel 2018 la piattaforma era frequentata da un miliardo di utenti. A tutto ciò vanno uniti anche i dispositivi (con il Chromebook di Google tra i più diffusi tra gli studenti e con l’app di YouTube già presente sul desktop di default.
«Questo stato di cose è inaccettabile ma non inevitabile. Non c’è motivo di lasciare che un’azienda guadagni così tanti soldi mentre potenzialmente aiuta a radicalizzare miliardi di persone, raccogliendo i benefici finanziari mentre chiede alla società di sostenere così tanti dei costi».