Instagram ha dei seri problemi con la pedopornografia

Un'inchiesta del Wall Street Journal, corroborata da una ricerca dello Stanford Internet Observatory, hanno messo in luce il paradosso dell'algoritmo

11/06/2023 di Redazione Giornalettismo

Non solo permetteva di utilizzare la sua “vetrina”, ma addirittura il suo algoritmo consentiva – attraverso i “profili suggeriti” – di alimentare ancor di più gli scambi di materiale pedopornografico sulla piattaforma social. A rivelare questo problema di portata epocale su Instagram è stato il Wall Street Journal che insieme allo Stanford Internet Observatory ha scoperto una grande rete di commercializzazione di contenuti espliciti con protagonisti/vittime i minori. E così, la pedopornografia su Instagram ha trovato una nuova linfa.

Pedopornografia su Instagram, il social ha enormi problemi

Bastava utilizzare dei determinati hashtag per dare il via all’algoritmo (lo stesso che “suggerisce amici” in base ai propri interessi) e dare vita a questa rete. Solo su Instagram, infatti, sono stati individuati oltre 400 account che commercializzavano questi contenuti criminali. Meta è corsa ai ripari, bannando quegli hashtag e mettendo su una task force per risolvere quel problema non risolto dall’intelligenza artificiale degli algoritmi.

Ma Instagram è solo un anello di questa catena. Anche Twitter, nonostante un commento sibillino di Elon Musk, continua a essere il teatro di condivisione e “vetrina” di materiali pedopornografici. Seppur in numero ridotto rispetto agli scorsi anni. E le fasi finali della compravendita (con molti degli account gestiti proprio dagli stessi bambini che per soldi, buoni sconto e regali mettevano “a disposizioni” proprie foto e video) non avvenivano sul social di Meta, ma su altre piattaforme come Telegram e Discord. In parte anche su Snapchat, mentre Facebook (per via dello scarso successo tra i giovani) e TikTok sembrano essere immuni da questo “fenomeno”.

Share this article