Che cos’è la Sezione 230 del Communications Decency Act a cui YouTube si appella

Categorie: Attualità

Google ha chiesto ai giudici della Corte Suprema che si dovranno esprimere sul "caso Nohemi Gonzalez" di non procedere in base a quanto indicato dalla legge sulla decenza delle comunicazioni negli Stati Uniti

Una causa presentata nel 2016 che potrebbe provocare uno scossone epocale nel mondo dei social network. Tutto è iniziato, in realtà, nella drammatica giornata di venerdì 13 novembre del 2015 quando Parigi venne colpita da una serie di attentati terroristici perpetrati da un commando armato affiliato all’Isis. Tra le 130 vittime c’era anche la 23enne studentessa americana Nohemi Gonzalez, uccisa in un bar della capitale francese mentre era a cena con alcuni suoi amici. Dopo la fase di dolore per la perdita, la famiglia della giovane ha deciso di fare causa contro YouTube – di proprietà di Google – con l’accusa di aver contribuito alla radicalizzazione terroristico-islamica “grazie” alla raccomandazione dei contenuti sulla piattaforma. L’azienda, però, sta cercando di difendersi da questo addebito appellandosi alla Sezione 230 del Communications Decency Act.



LEGGI ANCHE > Sistemi di raccomandazione del contenuto: cosa sono, come funzionano e perché per i social sono importanti

L’accusa (basata sull’Antiterrorism Act), dunque, è grave. Dopo l’archiviazione da parte di un giudice federale, qualche anno dopo è stata la 9^ Corte d’Appello di San Francisco a prendere in mano il caso, dopo aver già risolto alcune controversie legali su cause simili legati ad attentati terroristici e propaganda su diverse piattaforme social. Dunque, dal 2021 il processo ha preso piede e ora si è arrivati fino alla Corte Suprema che, nei prossimi mesi, dovrebbe dirimere questa matassa che potrebbe modificare in toto l’impianto su cui si basano i principali social network: la raccomandazione dei contenuti e gli algoritmi che la “regolamentano”.



Communications Decency Act, a cosa si appella Youtube

Il mondo delle piattaforme, dunque, rischia di cambiare definitivamente? Il sistema dei contenuti raccomandati, infatti, rendono l’utente passivo e non attivo: è la stessa piattaforma, attraverso il suo algoritmo, a suggerire alla persona fisica quali altri contenuti vedere (leggere o ascoltare). Qualora decadesse questo principio, attraverso una sentenza della Corte Suprema contro Youtube nel caso Nohemi Gonzalez, tutto ciò finirebbe: gli utenti potranno scegliere in autonomia i contenuti da guardare. Senza alcun algoritmo. Limitando, quindi, il potere delle piattaforme.

Ma Google, società proprietari di YouTube, ha una carta legislativa in mano per evitare che tutto ciò avvenga: la Sezione 230 del Communications Decency Act. Di cosa stiamo parlando? Di una norma (la traduzione è “Legge sulla decenza delle comunicazioni) approvata dal Congresso nel lontano 1996 nel tentativo di regolamentare il materiale pornografico in Internet. All’interno di questo impianto normativo – ed è la parte a cui si appella l’azienda di Mountain View in questo processo – c’è la Sezione 230. Si tratta di un riferimento inserito anche nel Titolo 47 del Codice degli Stati Uniti (quello che definisce il ruolo – indipendente – della Federal Communications Commission). 



La Sezione 230

Dal macro al micro. Perché all’interno di questo ecosistema normativo americano, Google intende appellarsi proprio alla Sezione 230 del Communications Decency Act, quella in cui si fa riferimento alla “Protezione per il blocco privato e lo screening di materiale offensivo”. In particolare, l’accento viene posto sul ruolo delle piattaforme, con due punti che sembrano andare proprio nella direzione della posizione dell’azienda di Mountain View. Il comma C, infatti, definisce quanto di seguito: 

Dunque, YouTube (quindi Google) punta tutto sulla definizione indicata dalla Sezione 230: le piattaforme non sono editori, quindi non sono responsabili di quel che viene pubblicato dagli utenti. E, a cascata, l’algoritmo randomizzato che fornisce i contenuti raccomandati (che rendono passivo l’utente) che mostra video (in questo caso) che propagandano terrorismo non potrebbe subire il giudizio da parte dei giudici della Corte Suprema. Questa, dunque, è la carta – già utilizzata da altre piattaforme in altri casi (non solo analoghi) – che YouTube prova a mettere sul tavolo per evitare una sentenza (possibile, ma non certa) avversa che condizionerebbe il futuro della piattaforma e di tanti altri social network.