Musk ha twittato su Instagram, ma il materiale pedopornografico sta anche su Twitter

Lo studio di Stanford citato dal WSJ, infatti, prende in esame anche altre piattaforme e immediatamente dopo i contenuti pedopornografici su Instagram si parla di quelli su Twitter

08/06/2023 di Ilaria Roncone

«Estremamente preoccupante»: queste le due parole che Elon Musk ha utilizzato per definire il recente studio che illustra l’esistenza di reti di materiale pedopornografico create anche grazie al funzionamento dell’algoritmo di Instagram. Una notizia troppo ghiotta per non commentarla, considerato che riguarda uno dei suoi concorrenti più diretti, ma Musk farebbe bene ad essere consapevole del fatto che anche il suo social è finito nel mirino dell’indagine che ha svelato il problema di Instagram. Oltre a questo, come avevamo anche evidenziato in passato, Twitter è sempre stato tra i social con meno restrizioni relative alla nudità e al porno («La pornografia e altre forme di contenuti per adulti prodotti in modo consensuale sono consentite su Twitter, a condizione che il contenuto sia contrassegnato come sensibile», si legge nella sezione della policy Twitter relativa a nudità e pornografia) e i licenziamenti dal team di moderazione voluti da Elon Musk quando ha comprato il social stanno facendo la differenza per quanto riguarda il contrasto all’infrazione delle regole.


LEGGI ANCHE >>> Twitter è la piattaforma giusta per pubblicizzare il proprio account Onlyfans

Nella ricerca di Stanford compare anche Twitter: cosa emerge?

Il titolo dello studio che ha dato il via a tutto questo è “Dinamica multipiattaforma del CSAM autogenerato” e l’analisi fatta non riguarda solo Instagram ma anche Twitter, Telegram, Discord, Snapchat e TikTok. Ognuna analizzata anche nelle sue policy. Vediamo insieme, quindi, cosa emerge su Twitter che – come si legge nello studio – è, insieme a Instagram, lo strumento più sfruttato dalla rete di materiale pedopornografico che si è venuta a creare.

«Twitter ha avuto un’apparente regressione nel consentire la pubblicazione di CSAM (self-generated child sexual abuse material) su profili pubblici, nonostante gli hashes di queste immagini siano a disposizione di piattaforme e ricercatori.
ricercatori» si legge nel report, in cui viene evidenziato anche che tramite API PowerTrack sono stati identificati gli account che utilizzavano gli hashtag incriminati. Account che ammontavano a 128 (poco meno di un terzo di quelli su Instagram, sì, ma comunque un numero particolarmente rilevante che rende Twitter una piattaforma utile in tal senso).

«Un mese dopo la nostra segnalazione – conclude lo studio – un nuovo controllo ha mostrato che […] su Twitter, 22 dei 128 account originali erano ancora attivi» e che «la rete sembra essere quasi interamente in lingua inglese e attiva principalmente su Instagram e Twitter, anche se vengono sfruttati molti altri servizi online, quali Telegram, Discord e Snapchat». A tutti gli effetti, quindi, emerge che i venditori commercializzano i loro contenuti principalmente proprio sulla piattaforma di Meta e su quella di Musk anche se viene aggiunto come «in genere il materiale non sembra essere effettivamente scambiato sulla piattaforma».

«Gli account SG-CSAM sono molto presenti anche su Twitter»

Elon Musk dovrebbe avere poco da segnalare, a ben vedere, considerato che nella parte dell’indagine interamente dedicata a Twitter la prima frase che compare è quella che dà il titolo al paragrafo. Viene segnalato come sembra che vengano gestiti ed eliminati «in modo più aggressivo: la maggior parte degli account rilevati dai nostri sistemi di ingest account rilevati dai nostri sistemi di ingest sono stati rimossi entro una settimana».

Il sistema di suggerimento di Twitter sembra mostrare un numero limitato di account correlati ma, viene segnalato nello studio, «il fatto che la nudità sia consentita su Twitter rende più probabile che materiale esplicito e illegale possa essere pubblicato o distribuito prima che l’account venga sospeso».

Share this article