Il padre di ChatGPT ha cambiato idea sulla necessità di regole ferree sull’AI

Nel passato recente, Sam Altman aveva chiesto a gran voce un pacchetto legislativo ben strutturato. Ora sembra aver deciso di non voler obblighi profondi

29/09/2023 di Enzo Boldi

Incoerenze artificiale. Anzi, naturalissima. Per molti mesi, Sam Altman – CEO di OpenAI e “padre” di ChatGPT – si era legato alla lunga lista di personalità imprenditoriali e scientifiche che avevano avanzato la richiesta di una legislazione universale per mettere dei paletti all’evoluzione dell’intelligenza artificiale. Si parlava di mitigare i rischi per l’essere umano, partendo dai criteri etici fino ad arrivare a quelli più concreti (come l’AI utilizzata come strumento di distruzione di massa). Questa posizione, però, sembra essere il passato: il presente e il futuro, infatti, ci racconta di un ancor giovane imprenditore alle prese con un cambio repentino di idee.

LEGGI ANCHE > Dal passato al presente: ora ChatGPT potrà effettuare ricerche “in tempo reale”

Mentre le sue “creature” proseguono nello sviluppo (funzionale e tecnico), Sam Altman ha partecipato – da remoto – all’evento realizzato da Italian Tech a Torino per parlare del futuro della tecnologia digitale. E, ovviamente, anche di intelligenza artificiale tra passato, presente e futuro. Un tema molto delicato e contingente al periodo storico, dopo quel varco aperto da OpenAI (di cui lui, oltre a essere amministratore delegato, è anche co-fondatore) nel novembre scorso, quando fu lanciata la versione di ChatGPT-3 al mondo (in versione gratuita). Da quel momento, tutti gli utenti hanno potuto provare con mano le potenzialità (ma anche i marchiani errori) commessi dall’AI nella versione dei chatbot conversazionali.

Sam Altman ora chiede che i regolamenti sull’AI non siano ferrei

E non solo: da quel momento, infatti, è stata sdoganata la corsa al prodotto AI più innovativo, con la concorrenza che è corsa ai ripari mettendo a disposizione del pubblico altri prodotti che seguono gli stessi principi (ma con strutture e capacità differenti). Insomma, si è aperto un nuovo mercato che fino a quel momento esisteva solamente in forma “sotterranea”. E tra le mille incoerenze di questa evoluzione, abbiamo visto personalità come Elon Musk firmare appelli per chiedere una sospensione (universale) dello sviluppo dell’intelligenza artificiale per sei mesi. In attesa di una legge e regolamenti vari. E proprio in quei frangenti, lo stesso patron di X ha dato vita alla sua azienda che si occupa di AI.

Ieri, oggi e domani

Dunque, non sorprende il nuovo cambio di passo di Sam Altman, che nei mesi scorsi aveva partecipato a numerosi eventi dicendosi molto preoccupato per gli effetti futuri di uno sviluppo incontrollato dei sistemi di intelligenza artificiale. Timori che sembrano svaniti nel nulla. Dopo aver partecipato, solo qualche settimana fa, a un incontro al Congresso USA per parlare proprio di una legge sull’AI (spiegando di esser certo che i legislatori «faranno la cosa giusta»), la sua azienda ha proseguito nello sviluppo di ChatGPT e Dall-E. E durante il collegamento di Torino con l’Italian Tech Week, ha dato vita al suo cambio di idea sulle leggi stringenti da applicare allo sviluppo di questi strumenti:

«Quello che sta succedendo è sorprendente e non dovrebbe essere bloccato. Gli algoritmi alla base di ChatGpt non sono così pericolosi, sarebbe un peccato esagerare con le norme». 

Senza tornare alle dichiarazioni di facciata davanti ai senatori americani (che lo hanno incontrato due volte), nel febbraio scorso Sam Altman aveva utilizzato X (ex Twitter) per raccontare al mondo tutte le sue preoccupazioni su uno sviluppo incontrollato dell’AI e la richiesta di regolamenti ben assestati per mitigare i rischi per l’essere umano.

Nel suo lungo thread, il co-fondatore di OpenAI ha spiegato come l’AI possa rappresentare uno strumento molto utile, ma che un uso indiscriminato (senza ferrei limiti di legge) sia molto pericoloso per l’uomo:

«Abbiamo anche bisogno di tempo sufficiente affinché le nostre istituzioni capiscano quale sarà la regolamentazione fondamentale e ci vorrà del tempo per capirlo. Sebbene gli strumenti di intelligenza artificiale dell’attuale generazione non siano molto spaventosi, penso che potenzialmente non siamo così lontani da quelli potenzialmente spaventosi. Avere tempo per capire cosa sta succedendo, come le persone vogliono utilizzare questi strumenti e come la società può co-evolvere è fondamentale». 

Possono essere potenzialmente spaventosi, per cui servono regole. Febbraio 2023. Cosa è successo, oggi? Un cambio di idea o incoerenza di base? Perché proprio mentre si facevano proclami sui rischi, OpenAI (e non solo) hanno proseguito nello sviluppo dei propri prodotti, nonostante le critiche e le preoccupazioni (anche a livello occupazionale).

Share this article