Un ricercatore di Facebook ha sperimentato l’app per l’India. Ed è finito ad avere un feed violento

È l'ennesimo risultato di una ricerca interna visionato dal Ny Times che ha mostrato come Facebook non tenga conto delle analisi effettuate sulle esperienze di utilizzo

24/10/2021 di Redazione

Cosa succede se un tuo ricercatore, per tre settimane, ha realizzato un account Facebook in India e ha scoperto – dopo aver seguito tutti i suggerimenti e gli inviti in app – di essere finito ad avere un feed carico di disinformazione, di odio e di violenza? Normalmente, bisognerebbe prendere provvedimenti. Invece, come troppe volte si sta affermando e sostenendo con prove in queste ultime settimane, Facebook non avrebbe dato il giusto peso al risultato di questa indagine. Lo ha scoperto il NY Times, che sta visionando – insieme ad altri gruppi di giornalisti di altre testate – centinaia di pagine di documenti interni che provengono direttamente da Menlo Park e che rappresentano il modo in cui la società di Mark Zuckerberg descrive i suoi processi interni.

LEGGI ANCHE > Nei giorni precedenti a Capitol Hill, Facebook non è riuscito a fermare la galassia di Stop the Steal

Facebook India, l’esperienza da incubo del ricercatore di Menlo Park

«Seguendo il feed di questo test user di Facebook – ha scritto il ricercatore nel report consegnato – ho visto più violenza e più persone morte in queste tre settimane di quante ne abbia mai visto in tutta la mia vita». Una dichiarazione che basterebbe, da sola, a far scattare un processo di analisi interna molto approfondito. Se è successo al ricercatore, potrebbe essere agevolmente accaduto a qualsiasi iscritto a Facebook di uno dei Paesi più popolosi al mondo, che – con i suoi 340 milioni di iscritti alla piattaforma – è uno dei principali asset per Menlo Park.

L’India è uno stato che presenta una incredibile varietà di culture e di lingue. Quando un’azienda straniera, con i suoi principi e i suoi criteri, si inserisce all’interno di una dinamica come questa senza conoscerla in profondità, ecco che l’intelligenza artificiale potrebbe creare questo effetto: polarizzante, nazionalista, carico di odio, divisivo. Se poi consideriamo che quello che si vede e si legge online, molto spesso, ha un effetto anche sulla vita offline, ecco che possiamo capire la portata di un problema che – evidentemente – Facebook ha descritto anche internamente, ma non è riuscito ad affrontare. Né, tantomeno, a risolvere.

Il problema indiano di Facebook

Già, perché Facebook – nonostante l’importanza dell’India come mercato – non ha abbastanza risorse dedicate allo stato asiatico e non destina la stessa attenzione alla disinformazione che invece va a declinare nel territorio degli Stati Uniti. Dove, tra le altre cose, opera all’interno di un contesto culturale affine. Ci ha provato, soprattutto alla vigilia delle elezioni nazionali indiane, cercando di instaurare un fitto dialogo con il governo sul problema della disinformazione. Tuttavia, nonostante gli sforzi, i risultati sono quelli che sono stati registrati nel report intitolato Adversarial Harmful Networks: India Case StudyLa grandezza dei gruppi privati (essendoci molti utenti, era molto semplice trovare più gruppi seguiti da 150mila persone: la community che può avere un media digitale italiano di discrete proporzioni) e la varietà di culture ha causato il cortocircuito: post profondamente offensivi nei confronti dei musulmani (paragonati ad animali), video e contenuti di disinformazione senza moderazione, un atteggiamento permissivo da parte degli admin dei gruppi. Una vera e propria marea di problemi.

Ma perché Facebook non è intervenuto come accaduto anche in altri Paesi? Il problema sta nell’intelligenza artificiale, settata in maniera ottimale soltanto su due lingue su 22 tra quelle utilizzate in India. Essendo l’AI un insieme di sistemi che si basa sulla semantica e sulla sintassi, è molto semplice capire come contenuti potenzialmente pericolosi – se non riconosciuti a livello linguistico – possono aggirare il controllo e la moderazione.

Share this article
TAGS