Esiste davvero un rischio connesso all’AGI o ci sono anche benefici?
In ogni caso, quanto è previsto in cantiere da Q* di OpenAI dovrebbe essere ancora molto lontano dal raggiungimento completo di una intelligenza generale artificiale
27/11/2023 di Gianmichele Laino
Ogni nuova tecnologia non è intrinsecamente buona o cattiva. Dipende sempre da come questa viene utilizzata. Vale anche per l’intelligenza generale artificiale, o intelligenza artificiale forte come la chiamano alcuni. Di quest’ultima si è molto discusso all’indomani della controversa vicenda relativa a Sam Altman, al suo iniziale “defenestramento” come CEO di OpenAI (nonostante gli ampi risultati ottenuti dalla sua azienda, soprattutto nell’ultimo anno), all’intervento di Microsoft e alla lettera di 700 dipendenti di OpenAI, al reintegro finale di Altman nella sua posizione. Qualcuno ha pensato che, dietro a questo balletto, ci fosse la mancanza di considerazione di risvolti etici sullo sviluppo di nuovi prodotti di intelligenza artificiale oltre a ChatGPT.
LEGGI ANCHE > Che cos’è l’intelligenza generale artificiale (AGI) e a che punto sono i progetti che vanno in questa direzione
Rischi e benefici dell’AGI, esiste davvero – oggi – la possibilità che le macchine sostituiscano l’uomo
Si è parlato molto di Q*, il progetto di intelligenza artificiale generale che OpenAI starebbe implementando. Come abbiamo già spiegato in un altro articolo, si tratterebbe di portare a un altro livello uno strumento commerciale di intelligenza artificiale. Quest’ultimo non necessiterebbe più di un miglioramento a partire da un feedback umano ma, secondo i principi codificati già dall’inizio del nuovo millennio per quanto riguarda l’AGI, svilupperebbe una sorta di ragionamento deduttivo, soprattutto in ambito scientifico e matematico. L’intelligenza artificiale, insomma, si migliorerebbe a partire dai propri errori e non perché un team umano fa notare questi stessi errori.
Ovviamente, come detto, ci sono vantaggi e svantaggi di questa potenziale applicazione. Innanzitutto, un miglioramento delle tecnologie in questo ambito porterebbe le macchine a supportare le attività di ricerca umane, anche quelle che implicano un ragionamento e non soltanto una raccolta e una sintesi dei dati. Si pensi, ad esempio, all’ambito medico, dove la risoluzione di complessi problemi matematici potrebbe portare a delle scoperte significative per la salute umana. O, ancora, allo studio di sistemi fisici e astrofisici: l’elaborazione di calcoli, la risoluzione di problemi, l’applicazione alla tecnica di una teoria complessa (soprattutto se correggibile in poco tempo in seguito a un metodo di auto-apprendimento) potrebbero significare un grande sviluppo in questo settore.
Il freno a tutto questo è rappresentato dall’etica perché sviluppare questi strumenti significherebbe quasi far sviluppare un pensiero autonomo a delle macchine. OpenAI, come detto, non è stata la prima (e non sarà nemmeno l’ultima) azienda a cercare di percorrere questa strada. Tuttavia, a meno di clamorosi stravolgimenti o segreti industriali che non possono essere previsti, lo stato attuale della ricerca accademica sull’AGI o sulla cosiddetta intelligenza artificiale forte non è ancora arrivato a un punto tale da poter anche solo lasciare immaginare un prodotto in grado di elaborare modelli complessi esattamente con le stesse deduzioni di un essere umano. Insomma, stando così le cose, i rischi connessi a un’intelligenza artificiale di questo tipo sembrano essere molto limitati.