Meta è davvero in grado di identificare le immagini create con l’AI?
C'è un sistema per aggirare il sistema automatizzato di controllo su Instagram e Facebook. Ed è un grande problema per tutti
26/06/2024 di Enzo Boldi
Visto il tema del nostro approfondimento di oggi, relativo al fatto che vengano etichettate con “Creato con AI” anche immagini non generate interamente dall’intelligenza artificiale, la domanda nel nostro titolo sembra essere fuori luogo. Infatti, Meta commette degli errori segnalando come immagini AI anche quelle che in realtà non lo sono. Ma l’interrogativo al centro del nostro approfondimento non è una provocazione, visto che ci sono dei dettagli che non possono passare inosservati: sembra esistere un modo per superare il sistema automatizzato di “etichettatura” da parte di Instagram e Facebook. Dunque, un problema non da poco nella lotta alle fotografie deepfake.
LEGGI ANCHE > Instagram ha un problema con l’etichetta “creata con l’AI”
Non è ancora chiaro come il sistema automatizzato di Meta etichetti le immagini AI. L’azienda di Menlo Park, infatti, non fa parte del C2PA Content Credentials, ovvero di quel sistema di filigrana digitale che permette agli utenti di risalire alla provenienza (attraverso i metadati) delle fotografie. Ed è questo uno dei tanti problemi che si celano dietro la segnalazione, l’individuazione e quella dichiarazione “Made with AI” introdotta solo pochi mesi fa su Instagram e Facebook.
Immagini AI, Meta è in grado di riconoscerle?
Dunque, il problema sembra essere all’origine e si va a sommare a un’altra questione irrisolta. Come messo in evidenza da alcuni test effettuati dal portale PetaPixel (sito che si occupa di fotografia), esiste un modo per evitare di vedere la propria immagine caricata su Instagram e Facebook con l’etichetta “Creato con AI”. Si tratta di una soluzione che viene “suggerita” a coloro i quali utilizzano strumenti come “Generative fill” di Photoshop (Adobe) per apportare piccolissime modifiche migliorative a uno scatto originale:
«Caricando nuovamente il file che è stato modificato utilizzando il riempimento generativo di Photoshop, copiandolo e incollandolo su un documento nero prima di salvarlo di nuovo, Instagram non ha contrassegnato quell’immagine come AI».
Dunque, questo “stratagemma” non consente al sistema automatizzato di Meta di individuare la presenza di un contenuto modificato con strumenti di intelligenza artificiale. Basta il copia&incolla di un’immagine modificata su un documento “nero” per dare vita – di fatto – a un contenuto originale che Instagram e Facebook non riescono a identificare come modificato con l’AI.
Ed è un enorme problema
Questa “soluzione” è molto preoccupante. Perché se, nonostante gli errori, etichettare i contenuti generati con l’AI sia sacrosanto e conforme alle normative europee sull’intelligenza artificiale, le vie per aggirare questi controlli sembrano essere efficaci, rendendo obsoleto l’impianto di controllo messo in piedi da Meta. Gli utenti, infatti, si stanno abituando a visualizzare quell’etichetta che consente loro di distinguere il reale dall’artificiale. Dunque, hanno un’arma in più per non cadere nei tranelli della rete. Ma se basta un copia&incolla per scardinare il sistema, ecco che anche quell’etichetta rischia di perdere il suo valore.