Il problema di Twitter con gli account che pubblicizzano materiale pedopornografico

Che Twitter abbia delle difficoltà nel moderare i contenuti non è una novità, ma ora questo è un problema anche per gli inserzionisti

29/09/2022 di Giordana Battisti

Alcuni rapporti hanno dimostrato che Twitter ha avuto dei problemi a causa di una notevole quantità di account che vendevano materiale pedopornografico sulla piattaforma. Questo ha infastidito anche alcuni inserzionisti che non vogliono che i loro annunci compaiano o vengano associati a una piattaforma che non riesce a moderare i contenuti che gli utenti pubblicano. Questi account pubblicizzavano i loro contenuti su Twitter e poi passavano ad altre app, come Telegram o Discord, per completare le transazioni e poi condividevano i contenuti acquistati utilizzando Mega o Dropbox.

LEGGI ANCHE > Materiale pedopornografico: Patreon nega la cospirazione virale su TikTok

L’indagine e i rapporti sul materiale pedopornografico su Twitter

Reuters ha riferito per primo che i principali marchi che avevano scelto Twitter per pubblicare degli annunci pubblicitari hanno scoperto che i loro annunci erano apparsi vicino a dei tweet che “pubblicizzavano” a loro volta materiale pedopornografico. Ci sarebbero circa 30 inserzionisti, tra cui aziende come Walt Disney Company, Coca-Cola e Dyson, che hanno lamentato l’accostamento delle proprie pubblicità agli account Twitter attivi nella vendita di materiale pedopornografico. I nomi dei circa 30 marchi sono emersi nella ricerca sugli abusi sessuali su minori online condotta dalla società di sicurezza informatica Ghost Data.

Un portavoce di Twitter ha rilasciato una dichiarazione via e-mail a Gizmodo: «Stiamo lavorando a stretto contatto con i nostri clienti e partner per indagare sulla situazione e adottare le misure appropriate per evitare che ciò accada in futuro». Il portavoce ha aggiunto di aver sospeso tutti quei profili che ritenevano spacciassero contenuti di abusi sessuali su minori, anche se non hanno rivelato quanti account fossero coinvolti.

Twitter emana una relazione semestrale sulla trasparenza. La società afferma di aver sospeso quasi 600.000 account e moderato i contenuti di altri 600.000 per sfruttamento sessuale di minori da luglio a dicembre 2021. Secondo Ghost Data, il 70% dei 500 account che sono stati identificati per condivisione di materiale pedopornografico non sono stati cancellati in modo tempestivo. Secondo alcuni rapporti, Twitter sarebbe a conoscenza di questo tipo di account da tempo: i dipendenti avrebbero avvertito la società da almeno un anno.

The Verge ha riferito che Twitter all’inizio dell’anno stava considerando di lanciare la propria versione di OnlyFans, consentendo ai creators che utilizzano Twitter per pubblicizzare i propri contenuti la possibilità di creare degli  abbonamenti. Proprio le difficoltà di Twitter nel vigilare e gestire gli account che pubblicizzano materiale pedopornografico avrebbe fatto fallire il progetto.

Che Twitter abbia delle difficoltà nel moderare i contenuti e nel bloccare gli account che condividono materiale potenzialmente dannoso non è una novità. Per esempio, una ricerca del Network Contagion Research Institute e della Rutgers University pubblicata ad agosto e intitolata «Le comunità online di adolescenti e giovani adulti che celebrano, glorificano e incoraggiano l’autolesionismo e il suicidio stanno crescendo rapidamente su Twitter» ha reso noto che su Twitter c’è un gruppo di adolescenti e giovani adulti che testimoniano e incoraggiano la pratica dell’autolesionismo.

Share this article