Il discrimine della matematica: cosa aveva detto OpenAI a maggio
Nella lettera che aveva portato all'iniziale licenziamento di Sam Altman, si parla di come questa scoperta scientifica (Progetto Q*) sia strettamente collegata alla risoluzione di problemi matematici
27/11/2023 di Enzo Boldi
È tutta questione di matematica. Tutte le preoccupazioni attorno all’AGI (Artificial General Intelligence) e al Progetto Q* (Progetto Q Star), figlio di una scoperta scientifica dei ricercatori del team di OpenAI, fanno riferimento a questa disciplina (intesa anche come spazio di conoscenza) e al come l’intelligenza artificiale sia in grado di sostituire e superare la mente umana nelle operazioni di calcolo e risoluzione dei problemi. Non solo per quel che riguarda il risultato finale, ma anche per i complessi processi che portano a quella risposta univoca. Ovvero al segno distintivo tra la matematica e tutte le altre discipline.
LEGGI ANCHE > Cos’è il progetto Q* e perché può essere considerato una minaccia per l’uomo
Avete presente quella frase, ormai storica, «La matematica non è un’opinione»? Ed è proprio questo l’elemento di discrimine che ha allertato i ricercatori di OpenAI – che sta lavorando anche su questo – e il board dell’azienda di San Francisco. Al netto delle motivazioni sull’iniziale allontanamento (licenziamento) di Sam Altman dalla guida della startup, occorre analizzare come diversi team interni abbiano trascorso mesi nell’analisi dello sviluppo di una AGI che vive su un binario differente rispetto alla più conosciuta e utilizzata intelligenza artificiale generativa. E sullo sfondo c’è proprio la matematica.
Progetto Q Star e il discrimine della matematica in OpenAI
Prima di scoprire cosa diceva la stessa OpenAI qualche mese fa (era maggio 2023) in merito al progresso dei suoi studi in questo ambito, spieghiamo la differenza sostanziale: l’intelligenza artificiale generativa (ChatGPT e Dall-E, per citare i prodotti di punta dell’azienda di San Francisco) offre risposte relative a una forma testuale. Questo vuol dire che a ogni prompt (comando) possono corrispondere risposte diverse. Non solo per quel che riguarda il rapporto domanda-risposta, ma anche nel processo di generazione della risposta. Per fare un esempio: Dall-E, software text-to-image, restituisce all’utente una risposta a un comando, ma questa risposta può non essere sempre la stessa. In sostanza: se chiedo di realizzare l’immagine di una casa in campagna, l’AI potrebbe generare sia una villetta a due piani con due porte e tre finestre sia una casa su un unico piano con una porta e dieci finestre. E, comunque, anche con un prompt più definito difficilmente genererà due immagini uguali tra loro.
Per quel che riguarda la matematica, fulcro dell’analisi dell’AGI e del cosiddetto Progetto Q Star, questa dinamica è differente: 2+2 farà sempre quattro. Questa semplice operazione è l’apripista per tutto il resto. Se una macchina (una AI) è in grado di dare un risultato esatto – con tanto di processi corretti – arrivando a uno sviluppo superiore a quello concepibile dall’intelletto umano, quella stessa macchina è destinata a sostituire l’uomo. Dunque, un rischio per l’umanità.
La supervisione dei processi
Dunque, torniamo all’inizio: cosa diceva OpenAI a maggio? Dunque, cosa affermava l’azienda prima del caos dell’ultima settimana e delle notizie trapelate sull’AGI e sul Progetto Q Star? Lo si legge in un documento pubblicato qualche mese fa, in cui si spiegano i motivi di alcune scelte fatte dai ricercatori in fase di analisi di sviluppo di un’intelligenza artificiale generale. Nello specifico, si fa riferimento alla decisione di puntare su una supervisione del processo e non a una sul risultato:
«La supervisione del processo presenta diversi vantaggi di allineamento rispetto alla supervisione dei risultati. Premia direttamente il modello che segue una catena di pensiero allineata, poiché ogni fase del processo riceve una supervisione precisa. È anche più probabile che la supervisione del processo produca un ragionamento interpretabile, poiché incoraggia il modello a seguire un processo approvato dall’uomo. Al contrario, la supervisione dei risultati può premiare un processo non allineato ed è generalmente più difficile da controllare».
Dunque, il modello di AGI studiato dai ricercatori di OpenAI (e, stando a quanto raccolto dalla Reuters, tutto ciò sarebbe collegato direttamente al cosiddetto Progetto Q Star) dovrebbe seguire la logica della supervisione dei processi. Questo vuol dire che la macchina (l’AI) risponde direttamente – in ogni singolo passaggio – a un processo approvato dall’uomo. Dunque, per risolvere un problema di matematica (cuore dell’AGI), ogni singolo passaggio deve essere validato da concetti di umana comprensione. OpenAI, dunque, a maggio ha spiegato per quale motivo questo sviluppo non dovrebbe prendere in considerazione solo ed esclusivamente il risultato finale. Questo dettaglio potrebbe essere quello in grado di tranquillizzare, almeno per ora, tutti quanti attorno al rischio per l’umanità. Anche se solo parzialmente. Avere una macchina in grado di sostituire l’essere umano in tutto il processo di risoluzione di un problema, resta sempre una questione molto delicata per mantenere stabile il rapporto tra uomo e AI.