Il “realismo” delle immagini AI di Grok e l’assenza della filigrana
Alcuni deepfake sono davvero realistici, ovviamente se non vengono generate situazioni paradossali (come Musk che maneggia una molotov). Ma l'assenza di metadati per contrassegnare l'AI potrebbe essere un problema in Europa
19/08/2024 di Gianmichele Laino
La disciplina sul copyright nell’Unione Europea, che è stata incamerata anche nell’AI Act, prevede che le immagini generate attraverso l’intelligenza artificiale debbano avere dei metadati che le possano identificare e rendere quindi riconoscibili rispetto alle immagini originali. Questo, principalmente, per evitare che l’utente possa venire ingannato dai deepfake e cadere nel tranello di prendere per oro colato (e per testimonianza concreta) quello che invece è stato prodotto attraverso un software. Tutto questo, al momento, non è previsto in alcun modo in Grok-2, la versione beta dell’aggiornamento dello strumento di intelligenza artificiale realizzato da Elon Musk. Se si aggiunge che le immagini che vengono create in questo modo non hanno alcun limite (né a livello di copyright, né a livello etico), si può facilmente immaginare quanto possa essere facile cadere nell’inganno di spacciare come originale una immagine realizzata attraverso l’AI di Grok.
LEGGI ANCHE > L’AI di Grok-2 è realmente capace di generare delle immagini da sola?
Watermark su Grok-2, al momento non sembra essere disponibile
I ricercatori che hanno effettuato delle indagini dopo la release della versione beta di Grok-2 hanno riscontrato l’assenza di metadati di riconoscimento per i prodotti dell’intelligenza artificiale dell’azienda di Elon Musk. E questo può rappresentare sicuramente un limite per la sua diffusione, soprattutto all’interno dell’Unione Europea, dove il problema è particolarmente evidenziato dalla normativa ad hoc. Per questo motivo, ad esempio, il sito specializzato TechCrunch ha posto a X delle domande in proposito, chiedendo se gli sviluppatori di Grok-2 intenderanno implementare, in futuro, dei sistemi che rendano riconoscibili le immagini create con l’intelligenza artificiale.
Non che ci sia speranza di ottenere una risposta: spesso, su questioni controverse, X ha declinato qualsiasi tipo di commento. In generale, il commissario europeo Thierry Breton aveva già lanciato un monito, espresso attraverso una lettera indirizzata a Elon Musk, rispetto ai rischi che l’assenza di filtri su X (e ora anche su Grok-2) può comportare. E l’assenza di metadati in concomitanza con un realismo molto spinto delle immagini realizzate dalla versione beta del nuovo sistema di intelligenza artificiale può creare un problema, a livello di DSA, sulla diffusione di una corretta informazione in rete.