Non solo permetteva di utilizzare la sua “vetrina”, ma addirittura il suo algoritmo consentiva – attraverso i “profili suggeriti” – di alimentare ancor di più gli scambi di materiale pedopornografico sulla piattaforma social. A rivelare questo problema di portata epocale su Instagram è stato il Wall Street Journal che insieme allo Stanford Internet Observatory ha scoperto una grande rete di commercializzazione di contenuti espliciti con protagonisti/vittime i minori. E così, la pedopornografia su Instagram ha trovato una nuova linfa.
Bastava utilizzare dei determinati hashtag per dare il via all’algoritmo (lo stesso che “suggerisce amici” in base ai propri interessi) e dare vita a questa rete. Solo su Instagram, infatti, sono stati individuati oltre 400 account che commercializzavano questi contenuti criminali. Meta è corsa ai ripari, bannando quegli hashtag e mettendo su una task force per risolvere quel problema non risolto dall’intelligenza artificiale degli algoritmi.
Ma Instagram è solo un anello di questa catena. Anche Twitter, nonostante un commento sibillino di Elon Musk, continua a essere il teatro di condivisione e “vetrina” di materiali pedopornografici. Seppur in numero ridotto rispetto agli scorsi anni. E le fasi finali della compravendita (con molti degli account gestiti proprio dagli stessi bambini che per soldi, buoni sconto e regali mettevano “a disposizioni” proprie foto e video) non avvenivano sul social di Meta, ma su altre piattaforme come Telegram e Discord. In parte anche su Snapchat, mentre Facebook (per via dello scarso successo tra i giovani) e TikTok sembrano essere immuni da questo “fenomeno”.