La storia delle vittime dell’app deepnude che sta sconvolgendo la Spagna

Dopo le segnalazioni di alcune famiglie che vivono ad Almendralejo, la polizia ha individuato 11 adolescenti che avrebbero utilizzato un software AI per realizzare i nudi e ricattare le ragazze

25/09/2023 di Enzo Boldi

Il caso che arriva dalla Spagna è l’emblema di come un’intelligenza artificiale senza controlli sia rischiosa per tutti. La storia arriva da Almendralejo, una cittadina di 30mila anime, dove una ventina di giovanissime ragazze (ancora in età scolare) hanno visto comparire le proprie immagini di nudo nelle chat dei compagni di scuola. Non si tratta di revenge porn, ma di sextortion: quelle fotografie non erano reali, ma erano state generate con una applicazione di deepnude che utilizza l’AI per “spogliare” le donne. Una vicenda che ricorda, per molti aspetti, il caso BikiniOff già denunciato in Italia nell’aprile scorso.

LEGGI ANCHE > Anche in Italia c’è un grave problema con il deepnude

A differenza del suddetto caso, non faremo il nome di quella presunta (perché non vi sono conferme che si tratti di quella) utilizzata in Spagna (per evitare il rischio emulazione), ma ci limiteremo a spiegarne il malsano funzionamento e tutte le criticità di un’intelligenza artificiale che agisce al di fuori della legge e del buon costume. Sta di fatto che la vicenda che arriva da Almendralejo è lo specchio di come l’utilizzo indiscriminato dell’AI rappresenti un enorme rischio per tutti quanti.

Deepnude, le venti giovani vittime di una app AI

Come riporta El Pais, tutto è venuto alla luce all’inizio dell’anno scolastico. A una giovane di 14 anni, al primo anno di liceo, erano arrivate all’orecchio alcune voci di corridoio in cui si parlava di immagini di studentesse nude che circolavano all’interno di alcune chat. E proprio in quel momento, un ragazzo le si era avvicinato dicendole di aver visto una sua fotografia nuda. La giovane, scioccata, al ritorno a casa ha raccontato tutto alla madre, con la donna che ha avviato un giro di telefonate e ha scoperto che la stessa “sorte” era toccata a molte altre adolescenti (circa una ventina), tutte abitanti della stessa cittadina.

«Mamma, dicono che c’è una mia foto nuda in giro. Che lo hanno fatto attraverso un’applicazione di intelligenza artificiale. Ho paura. Ci sono anche altre ragazze che le hanno ricevute». 

Le vittime hanno un’età compresa tra gli 11 e i 17 anni. In alcuni casi, sono stati riscontrati anche tentativi di sextortion, con la richiesta di soldi e la minaccia di rendere pubbliche queste foto deepnude generate con un’app di intelligenza artificiale, partendo da immagini delle giovani prese dai loro canali social.

Individuati i presunti colpevoli

A rendere il tutto ancor più grave e paradossale è l’eta delle persone che sarebbero coinvolte in questo uso indiscriminato di un’app che, per caratteristiche, non può che avere un fine malevolo: come riporta il quotidiano El Diario, si tratta (al momento) di 11 adolescenti, di età compresa tra i 12 e i 14 anni. Il dato anagrafico è molto importante, perché superati i 14 in Spagna si può essere imputabili ai sensi del diritto penale minorile. In attesa di conoscere quali capi di imputazione potrebbero essere utilizzati nei confronti di questi giovani, Giornalettismo oggi analizzerà tutte le distorsioni di un’intelligenza artificiale completamente inutile e non di aiuto allo sviluppo di una popolazione civile. Inoltre, questa vicenda mette in evidenza come occorra al più presto una normativa europea (magari la stessa a livello globale) per impedire a società e aziende di sviluppare sistemi di questa tipologia che, tra le tante cose, già violano molte leggi già esistenti (come, per esempio, quelle relative dalla protezione dei dati personali).

Share this article
TAGS