L’outpainting con Sora: è questo il rischio più grande?

La possibilità di estendere un'immagine, già presente in DALL•E, potrebbe portare a una nuova deriva per i deepfake

26/02/2024 di Enzo Boldi

Accade già con DALL•E, il prodotto text-to-image sviluppato da OpenAI. Inevitabilmente, accadrà anche con Sora. Parliamo della tecnica dell’outpainting, ovvero quella che consente – sempre attraverso l’intelligenza artificiale – di espandere i confini di un’immagine (un frame, a questo punto anche in movimento) esistente. Questa possibilità è probabilmente una delle più grandi criticità individuate in Sora, l’AI sviluppata dall’azienda di Sam Altman in grado di generare un video (breve, almeno per il momento) partendo da un comando testuale.

LEGGI ANCHE >Il modello text-to-video: i sample di Sora sono realmente ultra-realistici?

Di cosa stiamo parlando? Non avendo, ancora, la possibilità di toccare con mano tutte le funzionalità di Sora (ancora in fase di sviluppo), dobbiamo concentrarsi sui documenti di ricerca pubblicati da OpenAI.

«Sora è anche in grado di estendere i video, sia avanti che indietro nel tempo […] Possiamo utilizzare questo metodo per estendere un video sia in avanti che all’indietro per produrre un loop infinito senza interruzioni». 

Dunque, può avvenire l’estensione di un’immagine, in questo caso di un video, riuscendo a creare una serie di sequenze combinate e seriali. Anche partendo da diverse inquadrature.

Un’estensione dell’originale, con la possibilità di agire non solo in outpainting, ma anche in in-painting (dunque, rendendo ancor più palese la possibilità di generare contenuti deepfake).

Outpainting, come Sora può “estendere” un video esistente

Con Sora parliamo di outpainting temporale, mentre con DALL•E se ne può parlare a livello “spaziale”. Era, infatti, l’agosto del 2022 quando OpenAI annunciò l’introduzione di questa funzione all’interno del pacchetto del loro prodotto text-to-image.

«Con Outpainting, gli utenti possono estendere l’immagine originale, creando immagini su larga scala in qualsiasi proporzione. Tiene conto degli elementi visivi esistenti dell’immagine, tra cui ombre, riflessi e trame, per mantenere il contesto dell’immagine originale». 

Questo principio dovrebbe – stando ai documenti di ricerca ufficiali – essere attivo anche su Sora. E può essere un problema. Non solo per quel che riguarda, meramente, l’abuso dell’AI anche nel cinema (con i dubbi già paventati nel corso del lungo sciopero di Hollywood), ma anche per quel che concerne la possibilità di generare e rendere sempre meno distinguibili i contenuti deepfake.

Share this article