Quando Facebook ci aveva già provato: ma nel 2018 il progetto di combattere la pedopornografia online fallì
L'inizio era stato promettente, con la rimozione - in tre mesi - di quasi 9 milioni di immagini di questo tipo. Ma l'imperfezione del modello causò un brusco rallentamento
01/03/2023 di Gianmichele Laino
Nel 2018 erano state 8,7 milioni le immagini cancellate da Facebook in meno di tre mesi. Riguardavano tutte nudi di minori che erano stati diffusi in rete e che, quindi, avevano trovato spazio anche su un social network all’apparenza innocuo come quello di Menlo Park. Il sistema che Facebook aveva utilizzato allora anticipava, per certi versi, quello che attualmente sta cercando di fare Take it down, la nuova piattaforma che raccoglierà le segnalazioni e le esaminerà per eliminarle dal web. Perché anche nel 2018 c’era stato il ricorso all’intelligenza artificiale, quando quest’ultima ancora non era considerata la panacea di tutti i mali (tendenza dell’ultimo anno, almeno da ChatGPT in poi).
LEGGI ANCHE > Cos’è e come funziona la nuova piattaforma “Take it down”
Facebook e le immagini di nudo minorile: qual era stato il suo tentativo
Oggi si può contare sicuramente su una intelligenza artificiale molto più avanzata rispetto a quella di quasi cinque anni fa. E sicuramente le tecniche sono migliorate. Il più grande problema di Facebook nel 2018, rispetto a questa azione di bonifica della piattaforma da immagini di nudo minorile, era legato al fatto che la prima scansione fatta dall’intelligenza artificiale era seguita, successivamente, da un controllo da parte di un team umano. Ovviamente, si trattava di una prassi non propriamente corretta per l’analisi di immagini di un nudo di un minore: una cosa è se il sistema fosse stato gestito interamente da una intelligenza artificiale, un’altra è mettere a disposizione di una serie di persone del materiale così sensibile.
Ma non è stata sicuramente l’unica stortura del Facebook del 2018 che combatteva e lottava contro la pedopornografia online. Un altro aspetto decisamente complesso è quello relativo alla confusione generata dal vecchio strumento di intelligenza artificiale sull’analisi delle immagini: alcuni utenti, infatti, si sono lamentati perché il sistema di intelligenza artificiale scambiava immagini lecite in immagini di nudo minorile, censurando contenuti che in realtà erano totalmente innocui. Stando alle valutazioni di Facebook nel 2018, le quasi 9 milioni di immagini cancellate erano state rimosse prima ancora che arrivasse qualche segnalazione in proposito. Si trattava, dunque, di un sistema predittivo che, come detto, aveva in ogni caso il supporto di un’assistenza umana.
Nonostante l’iniziativa messa in campo nel 2018, il social network restava comunque una delle piattaforme maggiormente utilizzate per la diffusione di materiale pedopornografico o di esposizione di atti di abusi sessuali su minori, prostituzione e traffico sessuale. Per questo motivo, negli anni, il team guidato da Antigone Davis – vicepresidente di Meta, nonché capo della sicurezza dell’azienda a livello globale – ha dovuto studiare una soluzione alternativa.