Facebook non starebbe facendo abbastanza per tutelare i bambini da abusi sulla piattaforma

I moderatori della piattaforma «errano dalla parte di un adulto» quando non sono certi dell'età in possibili foto di abuso di minori

01/04/2022 di Martina Maria Mancassola

Facebook e abusi sui minori: la piattaforma potrebbe fare di più. In generale, tutte le aziende tecnologiche sono tenute a monitorare i contenuti per materiale pedopornografico sulle loro piattaforme ed il «CSAM» (Child Sexual Abuse Material) è il sistema utilizzato per controllare che gli utenti non dispongano di tale materiale. Nel caso in cui venga rilevato, tali aziende sono obbligate per legge a segnalarlo a «NCMEC» (National Center for Missing and Exploited Children). Molte Big Tech hanno nel proprio team moderatori di contenuti che analizzano quelli contrassegnati come potenzialmente «CSAM» e stabiliscono se questi contenuti possano essere pubblicati o, invece, debbano essere segnalati all’NCMEC.

Leggi anche > Il bug di Facebook che, da ottobre a marzo, ha favorito il ranking dei contenuti di disinformazione

Facebook e abusi sui minori: «Implementare il rilevamento delle immagini pornografiche illecite»

Facebook rileva ogni anno milioni di fotografie e video di sospetti abusi sessuali su minori. Il problema è che, quando l’età non si evince chiaramente dai contenuti, i ragazzi vengono trattati come adulti e le immagini non vengono denunciate alle autorità competenti. Questo è quello di cui la piattaforma viene «accusata»: la stessa non starebbe facendo abbastanza per tutelare i bambini online. Sarebbe la politica di Facebook a sottostimare i contenuti di abusi sessuali su minori. 

Un documento interno di Facebook, infatti, rileva che i moderatori dei contenuti errano «dalla parte di un adulto» quando non riescono a capire l’età di qualcuno in una fotografia o in un video sospettato di essere CSAM. La politica di Facebook è stata discussa in un articolo di California Law Review dello scorso agosto: «la proliferazione online di materiale pedopornografico (CSAM), comunemente indicato come pedopornografia, è un problema di vasta scala. Il National Center for Missing and Exploited Children (NCMEC), un’organizzazione no profit privata appositamente autorizzata dal Congresso a fungere da centro di smistamento della nazione per le segnalazioni di immagini CSAM, collabora con le forze dell’ordine per individuare autori e vittime di abusi sessuali su minori. Nel 2019, NCMEC ha ricevuto oltre sessantanove milioni di segnalazioni di CSAM, molte delle quali da piattaforme tecnologiche come Google e Facebook».

Gli intervistati hanno anche descritto una politica chiamata «bumping up», con la quale ognuno di loro personalmente non era d’accordo, che si applica quando un moderatore dei contenuti non sia in grado di stabilire con certezza se l’utente in una sospetta foto CSAM è un minore («B») o un adulto («C»). In situazioni come questa, ai moderatori dei contenuti viene chiesto di presumere che l’utente sia un soggetto adulto, così permettendo, purtroppo, a più immagini di non essere segnalate a NCMEC. Facebook rimane, ad ogni modo, una delle Big Tech all’avanguardia nel rilevare i contenuti di abusi sessuali su minori, esplosi sui social media e sul web nell’ultimo periodo, ma gli esperti credono che il problema, quando la piattaforma non riesce a rilevare contenuti pornografici potenzialmente lesivi di minori, sia dovuto alla policy della società stessa, la quale, in caso di dubbio sull’età dell’utente, permetterebbe di non bloccare le immagini presumibilmente illegali, così, veicolando foto e video di abusi, che non verrebbero in alcun modo segnalati. 

Antigone Davis, capo della sicurezza di Meta, conferma, in un’intervista al New York Times, la politica della società, affermando inoltre che deriva da problemi di privacy per gli utenti che pubblicano immagini sessuali di adulti, aggiungendo che: «l’abuso sessuale dei bambini online è ripugnante». La stessa, dopo aver sottolineato che Meta sta elaborando un importante processo di revisione che dovrebbe essere in grado di segnalare molte più immagini di qualsiasi altra azienda tecnologica, dichiara, sotto un velo di preoccupazione, che le conseguenze delle errate segnalazioni di abusi sessuali su minori potrebbero «cambiare la vita» degli utenti.

Ovviamente è impossibile individuare quante immagini potrebbero essere etichettate erroneamente come non dannose, ma gli esperti di sicurezza dei bambini hanno dichiarato che all’azienda mancherebbero alcune necessarie informazioni sui minori. Alcuni studi, infatti, avrebbero scoperto che l’azienda risulta sfornita di dettagli come la più precoce crescita fisica dei bambini rispetto al passato, piuttosto che la consapevolezza che alcune razze ed etnie entrano nella pubertà prima di altre, come i bambini neri ed ispanici mostrano svilupparsi prima dei caucasici. Queste sarebbero solo alcune delle falle della società, che ancora deve lavorare molto per tutelare a pieno i bambini sulla sua piattaforma prevenendo ogni possibile loro abuso.

Share this article
TAGS