Hash per identificare un milione di immagini pedopornografiche limitandone la diffusione

Il contrasto alla pedopornografia passa per l'utilizzo di hash, codici che fanno da impronta digitale per tutti quei contenuti che devono essere rimossi dalla rete

06/06/2022 di Ilaria Roncone

Per merito della Internet Watch Foundation (IWF) del Regno Unito sono state create le impronte digitali di un milioni di immagini che ritraggono abusi sessuali su minori. L’hash è un codice identificativo prodotto da un algoritmo che crea un’impronta digitale affinché immagini e video siano riconoscibili. Per la lotta agli abusi sui minori questi hash vengono inseriti in un database al quale accedere per avere certezza che un contenuto non sia stato tracciato come pedopornografia.

IWF – che si occupa di trovare e rimuovere questo tipo di materiali da internet – ha dichiarato che gli hash per pedopornografia saranno a disposizione di aziende e forze dell’ordine per il comune scopo di ripulire la rete dalle copie di contenuti di questo tipo.

LEGGI ANCHE >>> Sfruttano l’Europol e il nome di Catherine De Bolle per rubare denaro via mail dopo un’accusa di pedopornografia

Hash per pedopornografia: limiti del sistema

Le immagini per cui è stato generato l’hash provengono dal Child Abuse Image Database del governo britannico, che contiene materiale classificato come estremo. Con la speranza che gli hash impediscano il riutilizzo di questo tipo di immagini, c’è comunque consapevolezza dei limiti di un sistema del genere. Alcune modifiche delle immagini, per esempio, possono cambiare il valore dell’hash così da far sì che il contenuto sfugga all’individuazione. IWF – come riporta BBC – ha comunque specificato che il sistema può reggere anche se le immagini vengono tagliare, ridimensionate o alterate a livello di colore.

Tramite gli elenchi di hash, però, non possono essere identificate le immagini criptate. Come funziona l’assegnazione di un hash? Prima di crearlo c’è una persona che determina a quale categoria appartenga l’immagine incriminata secondo quella che è la legge britannica. Vengono prodotti anche metadati che accompagnano il contenuto per velocizzare – o almeno provare a farlo – l’azione di contrasto del contenuto. L’associazione – ponendo l’attenzione sui suoi dipendenti, che possono lavorare fino a quattro ore alla volte disponendo di un’assistenza costante – dichiara di aver contribuito alla rimozione dalla rete di un’enorme quantità di materiale (nel 2021 252 mila pagine contenenti immagini o video di bambini vittime di abusi sessuali).

Share this article