Con il Filter Bubble Transparency Act Meta dovrebbe rinunciare ai feed personalizzati sulla base dell’algoritmo

E non solo Meta: la proposta di legge bipartisan coinvolgerebbe tutte le piattaforme social, che dovrebbero dare la possibilità agli utenti di non vedere un feed personalizzato

10/11/2021 di Ilaria Roncone

Cos’è che rende l’esperienza sui social così coinvolgente? In primis la presentazioni di contenuti tarati esattamente sui tuoi interessi, quella sensazione che il social ti conosca e sappia cosa vuol vedere. Proprio questo meccanismo è nelle mire di una proposta bipartisan per far approvare il cosiddetto Filter Bubble Transparency Act. Il Congresso Usa ha deciso di voler scendere in campo per impedire alle piattaforme social – Meta in primis, viste le tante polemiche sulla poca trasparenza nella gestione emerse negli ultimi tempi – di presentare a ogni utente un feed basato sui dati che ha raccolto segretamente. La legge proposta metterebbe le aziende dei social nella condizione di dover fornire agli utenti la possibilità di rinunciare al feed personalizzato basandosi sull’algoritmo di Meta e, in generale, di tutti gli altri social.

LEGGI ANCHE >>> Facebook non farà più microtargeting per orientamento sessuale, razza, preferenze politiche e religiose

La legge Filter Bubble per contrastare l’algoritmo di Meta

Il punto sarebbe quello di permettere a ogni utente di decidere se voler vedere il feed personalizzato in base ai suoi interessi e dati personali che la società ha raccolto in maniera poco trasparente nel corso degli scorsi anni. Proprio oggi Meta ha affermato, sul blog, che smetterà di fare microtargeting basandosi su criteri quali preferenze politiche e religiose, orientamento sessuale e razza – creando, di fatto, delle vere e proprie bolle in cui ogni utente fruisce solo di determinati tipi di contenuti orientati in un certo modo -.

Si punta al meccanismo di massimo coinvolgimento dei social

Andare a intaccare quel meccanismo significa puntare al cuore di Meta e, più in generale, di tutti i social che propongono feed di contenuti personalizzati. La questione ha cominciato ad assumere una rilevanza tale da diventare prioritaria all’indomani del 6 gennaio 2021, giorno dell’attacco in Campidoglio. «Gli algoritmi che Facebook utilizza per massimizzare il coinvolgimento degli utenti sulla sua piattaforma minano il nostro senso condiviso di realtà oggettiva, intensificano le credenze politiche marginali, facilitano le connessioni tra gli utenti estremisti – sostenevano alcuni legislatori in una lettera indirizzata a Zuckerberg – e, tragicamente, portano alcuni di loro a commettere violenza fisica nel mondo reale, come quello che abbiamo vissuto in prima persona il 6 gennaio».

La richiesta di un «algoritmo trasparente all’input»

Sul Filter Bubble Transparency Act mettono la firma Ken Buck del Colorado, David Cicilline del Rhode Island, Lori Trahan del Massachusetts e Burgess Owens dello Utah chiedendo che i contenuti siano forniti basandosi su un «algoritmo trasparente all’input», ovvero «un sistema algoritmico di classificazione che non utilizza dati specifici dell’utente per determinare l’ordine o il modo in cui le informazioni sono fornite a un dato utente su una piattaforma internet coperta, a meno che i dati specifici dell’utente siano espressamente forniti alla piattaforma dall’utente per tale scopo».

Il punto è che deve essere l’utente a scegliere se visualizzare i contenuti sulla base dei dati raccolti su di lui, sapendo quali sono, come sono stati raccolti e da chi. La legge si applicherebbe a tutte le grandi aziende tecnologiche, prevedendo numerose eccezioni come quelle che hanno meno di 500 dipendenti o quelle che possiedono dati su meno di un milione di persone.

Provando a contattare Facebook per avere un suo parere in merito alla questione, Mashable non ha ricevuto risposta (almeno per ora).

Share this article
TAGS