TikTok, moderatori dicono che è stato mostrato video di abusi sessuali su minori

Un rapporto di Forbes solleva interrogativi su come il team di moderazione di TikTok gestisce il materiale pedopornografico, sostenendo che ha concesso un accesso ampio e non sicuro a foto e video illegali

06/08/2022 di Redazione

Un rapporto di Forbes solleva interrogativi su come il team di moderazione di TikTok gestisce il materiale pedopornografico, sostenendo che ha concesso un accesso ampio e non sicuro a foto e video illegali. È quanto ha riportato il sito theverge.com.

LEGGI ANCHE –> Eurodeputati destra chiedono esame Ue su dati Tik Tok in Cina

I dipendenti di una società di moderazione di terze parti chiamata Teleperformance, che lavora con TikTok tra le altre società, affermano di aver chiesto loro di rivedere un inquietante foglio di calcolo soprannominato DRR o Daily Required Reading sugli standard di moderazione di TikTok. Il foglio di calcolo conteneva presumibilmente contenuti che violavano le linee guida di TikTok, comprese “centinaia di immagini” di bambini nudi o vittime di abusi. I dipendenti affermano che centinaia di persone di TikTok e Teleperformance potrebbero accedere ai contenuti sia dall’interno che dall’esterno dell’ufficio, aprendo la porta a una fuga di notizie più ampia. Teleperformance ha negato a Forbes di aver mostrato ai dipendenti contenuti di sfruttamento sessuale e TikTok ha affermato che i suoi materiali di formazione hanno “rigorosi controlli di accesso e non includono esempi visivi di CSAM”, sebbene non abbia confermato che tutti i fornitori di terze parti soddisfino tale standard. I dipendenti raccontano una storia diversa e, come spiega Forbes, è legalmente rischiosa. I moderatori dei contenuti sono regolarmente costretti a gestire CSAM che viene pubblicato su molte piattaforme di social media. Ma le immagini pedopornografiche sono illegali negli Stati Uniti e devono essere gestite con attenzione. Le aziende dovrebbero segnalare il contenuto al National Center for Missing and Exploited Children (NCMEC), quindi conservarlo per 90 giorni ma ridurre al minimo il numero di persone che lo vedono. Le accuse qui vanno ben oltre quel limite. Indicano che Teleperformance ha mostrato ai dipendenti foto e video grafici come esempi di cosa taggare su TikTok, giocando velocemente e liberamente con l’accesso a quel contenuto. Un dipendente afferma di aver contattato l’FBI per chiedere se la pratica costituisse una diffusione criminale di CSAM, anche se non è chiaro se ne sia stata aperta una. Vale la pena leggere il rapporto completo di Forbes, che delinea una situazione in cui i moderatori non sono stati in grado di tenere il passo con la crescita esplosiva di TikTok e gli è stato detto di guardare i crimini contro i bambini per motivi che ritenevano non tornassero. Anche per i complicati standard dei dibattiti sulla sicurezza dei bambini online, è una situazione strana, e anche se accurata, orribile.

[CREDIT PHOTO: ITALY PHOTO PRESS]

Share this article
TAGS