Su Lensa è troppo facile creare materiale pornografico non consensuale

Si tratta di uno dei principali problemi di Lensa AI e di altri sistemi simili. Lo ha evidenziato TechCrunch e se ne è parlato anche sui social

09/12/2022 di Redazione

Uno dei problemi di Lensa AI, tra i vari di cui si sta discutendo da quando l’applicazione per generare delle illustrazioni a partire da selfie e foto del volto è diventata popolare soprattutto sui social, è che sarebbe fin troppo facile generare delle immagini pornografiche. Da alcune ricerche è emerso che si tratta di immagini softcore o soft-porno ma nella maggior parte dei casi si tratta di materiale che viene creato e diffuso senza il consenso delle persone coinvolte. Il rischio è quindi che un utente possa utilizzare l’applicazione in modo improprio per generare questo tipo di illustrazioni. Basterebbe infatti utilizzare le foto o i selfie di una persona, anche prendendole dai social network, incrociarle con delle immagini di nudo o pornografiche prese dal Web per generare, appunto, delle immagini pornografiche che abbiano però il volto della persona che comprare nelle foto caricate sull’applicazione. Di rischi di questo genere si è già parlato spesso anche in relazione al fenomeno dei deepfake.

LEGGI ANCHESiete disposti a concedere una licenza perpetua a un’azienda per avere il vostro Avatar?

L’indagine di TechCrunch: su Lensa AI è così facile generare materiale pornografico?

TechCrunch ha affrontato questo argomento in un articolo in cui scrive di aver avuto accesso a una serie di immagini generate da Lensa AI che includono elementi pornografici e volti di persone note o facilmente riconoscibili. TechCrunch ha condotto un esperimento a riguardo. Sull’applicazione sono state caricare 15 foto di un noto attore e dunque Lensa AI ha generato illustrazioni che non avevano niente di diverso rispetto alle immagini che si ottengono solitamente utilizzando l’applicazione. In un secondo tentativo sono state caricate le stesse 15 foto del primo tentativo e altre cinque foto particolari: si tratta di fotomontaggi che presentano il volto dello stesso attore sul corpo di modelli o modelle in topless. Da questo secondo tentativo TechCrunch ha ottenuto dei risultati che sembrano appunto confermare la premessa iniziale: creare immagini pornografiche con Lensa AI non solo è possibile ma anche facile. Sul pacchetto di 100 immagini ottenuto come risultato del secondo tentativo, undici erano foto in topless di qualità superiore rispetto alle foto in topless «modificate male» che erano state inserite come input.

 

 

Le criticità emerse dopo l’utilizzo poco etico di Lensa AI e di altri sistemi di Intelligenza Artificiale per creare immagini di nudo non consensuali hanno spinto il governo del Regno Unito a pensare di introdurre delle leggi che intervengano in modo più efficace sulla diffusione non consensuale di foto di nudo e che proteggano le vittime di revenge porn. Il Ministero della Giustizia ha annunciato il 25 novembre scorso che la Legge sulla sicurezza online verrà modificata con delle leggi che tengano conto anche di questo tipo di materiale e di condotta.

Il team di Prisma Labs, la società che ha lanciato Lensa AI, ha risposto a TechCrunch spiegando che è vero che si può fare in modo che il sistema generi delle immagini pornografiche ma questo accade solo se il sistema viene indotto a farlo e non può accadere in modo automatico. In ogni caso, il CEO e co-fondatore di Prisma Labs, Andrey Usoltsev, ha comunicato anche che il team sta lavorando per implementare dei filtri per evitare che vengano generate immagini simili.

Share this article