Aumentano le immagini create con AI classificabili come abuso sui minori

L'intelligenza artificiale è penetrata in tutti gli aspetti della nostra vita, quello degli abusi sui minori non fa eccezione

31/10/2023 di Ilaria Roncone

Dal 2019 sono aumentate le segnalazioni di materiale di abusi sessuali su bambini in rete dell’87%. Un numero pericolosamente alto che restituisce una realtà rispetto agli abusi su minori difficile da tenere sotto controllo e che vede nell’intelligenza artificiale un nuovo attore con il quale è possibile fare danno. A mettere in evidenza tutto questo è il rapporto 2023 di WeProtect Global Alliance, Global Threat Assessment 2023: «Nuove forme di abuso, come l’estorsione sessuale a scopo di lucro (come nel caso dell’app che spogliava le minorenni in Spagna di cui abbiamo parlato n.d.R.) e le immagini generate dall’intelligenza artificiale, sottolineano l’urgente necessità di progettare la sicurezza», si legge nel report.

LEGGI ANCHE >>> Cosa non ha funzionato nel parental control degli operatori telefonici finora?

Abusi su minori, occorre monitorare le tecnologie

Al netto dei numeri e dei fenomeni analizzati nel rapporto, emerge chiaramente come sia necessario un allineamento a livello globale per la creazione di standard, leggi e pratiche uguali per tutti volte a proteggere i minori. Le sfide sono chiare e sono quelle relative alla garanzie di tecnologie Safet by Design, ovvero strumenti che siano progettati per essere sicuri in questo senso.

«Il settore deve crescere in modo sostenibile ed etico, in modo da poter soddisfare la crescente domanda creata dalla regolamentazione. È necessario un Safety by Design259 per garantire che la maggiore adozione della crittografia end-to-end, dell’IA generativa e di altre tecnologie emergenti non peggiori le attuali tendenze all’abuso», si legge nella sezione del rapporto dedicata agli strumenti tecnologici. Oltre a questo, nel report viene evidenziato come – tra 2020 e 2022 – sia stato registrato un aumento delle immagini sessuali autogenerate dai bambini in fascia d’età 7-10 anni del 360%. Tra i luoghi più pericolosi – dove un adescamento di minore si può compiere in un tempo medio di 45 minuti – ci sono quelli del social gaming: qui convivono minori e adulti, qui si interagisce attraverso modalità che prevedono anche lo scambio di regali virtuali, qui è facile entrare in contatto con sconosciuti e diventarne vittima.

Il ruolo dell’intelligenza artificiale generativa

L’intelligenza artificiale è entrata in tutti gli ambiti della nostra vita, lo sappiamo bene, e quello della violenza sui minori non fa eccezione. L’assenza di controllo o un controllo non disposto in maniera sufficientemente rapida – considerata, soprattutto, la rapidità di proliferazione e l’alta penetrazione di tecnologie e app che diventano di moda e virali – porta chi compie abusi sui minori ad avere più strumenti (anche semplici da usare) per farlo.

Come riporta anche La Svolta in un suo approfondimento, l’organizzazione internazionale Thorn stima che – al momento – meno dell’1% del materiale che ritrae abusi infantili sia stato generato con l’AI ma questo dato è in aumento poiché stanno aumentando i pedofili che sfruttano i sistemi di intelligenza artificiale generativa per creare materiale da condividere in rete. Sistemi che, è bene ricordarlo ancora una volta, possono essere allenati con i miliardi di scatti di bambini che gli adulti condividono ogni giorno sulle maggiori piattaforme, lasciandoli anche – con profili pubblici – alla mercé di chiunque. Foto che, come abbiamo precedentemente approfondito, possono finire in reti di pedofili cui l’algoritmo di Instagram arriva a suggerire materiale di questo tipo.

Share this article