ChaosGPT è un pericolo reale o una provocazione?
Proviamo ad andare oltre quanto "generato" da questa intelligenza artificiale
21/04/2023 di Enzo Boldi
Quando si parla di un fenomeno, soprattutto se legato a quel futuro chiamato digitale, occorre sempre affrontare i temi con uno spirito critico costruttivo. La demonizzazione, infatti, non porta a nulla e rischia di fermare il progresso. Queste, per esempio, sono state le basi della decisione (arrivata alla fine di marzo) del Garante Privacy che aveva ordinato a OpenAI di sospendere il trattamento dei dati personali degli utenti italiani di ChatGPT. Non una condanna nei confronti dell’intelligenza artificiale, ma l’obbligo di trasparenza e rispetto delle regole e delle leggi vigenti. Con questo stesso mantra deve necessariamente essere affrontato il caso ChaosGPT, una variante di Auto-GPT (basata sulle API sviluppate da OpenAI), la chatbot che ha tra i suoi obiettivi quello di distruggere il genere umano. Dobbiamo preoccuparci di questo progetto?
LEGGI ANCHE > ChaosGPT, l’AI malvagia che “vuole” distruggere il genere umano
Partiamo da un punto: spesso e volentieri, quel che viene pubblicato online (sotto qualsiasi forma) ha il potere di far riflettere le persone. E così, con questo spirito, proviamo a capire cosa c’è dietro quella nebulosa AI chiamata ChaosGPT. Oscura perché non esistono riferimenti al di là di un canale Youtube (il profilo Twitter è stato sospeso di recente): né un autore, né un progetto pubblicato e condiviso su Github. Insomma, mancano tantissimi dettagli e ci sono solamente due video in cui si mostrano le potenzialità di questa “creatura” artificiale.
ChaosGPT è un pericolo reale o una provocazione?
Da quei filmati si capiscono alcune cose. Lo stato attuale dell’evoluzione e dello sviluppo delle chatbot basate sull’intelligenza artificiale conversazionale generativa è avanzato, ma in potenza (ovvero con successive espansioni) potrà esserlo sempre di più. Dunque, mettere in evidenza – come fatto da ChaosGPT – quali sono gli effetti potenziali di uno sviluppo non controllato e non regolamentato dell’AI. Perché dentro quei video ci sono i casi più estremi di un utilizzo malevolo (ricordando che l’origine è sempre umana, così come l’utilizzo) di questi strumenti. Tutte le storture di come software non controllati possano dare vita a fenomeni potenzialmente dannosi.
C’è bisogno di una legge
Dunque, quel che appare oggi evidente è che ChaosGPT non sia un rischio reale, ma una sorta di “richiesta di intervento”. Perché se è vero che ChatGPT, nonostante le evidenti pecche, è uno strumento che rispetta dei paletti (nelle regole di scrittura), è altrettanto vero che questo “esperimento” ha fatto capire come sfruttando le API si OpenAI (e la variante di Auto-GPT) si possa generare un’intelligenza artificiale senza regole e che sfrutta la rete per proporre un modello di distruzione del genere umano. Diventa, quindi, inevitabile sottolineare come manchi un aspetto normativo in grado di incasellare questo sviluppo artificiale non permettendo alla “macchina” di intraprendere azioni lesive nei confronti dell’uomo.
Nel corso delle ultime settimane, le istituzioni di tutto il mondo hanno intensificato la potenza della luce di quel faro aperto da tempo sull’intelligenza artificiale. OpenAI e le “storture” – come il caso di cui stiamo parlando – hanno avuto un ruolo chiaro in questo processo di accelerazione: mettere in evidenza come non si debba demonizzare il processo evolutivo del mondo tech e digitale, ma sono necessari dei paletti per evitare che tutto ciò finisca nelle mani di chi potrà farne un uso malevolo e danno per gli altri. Insomma, per evitare l’effetto “Terminator”.