Le ragioni che hanno portato a collegare l’esistenza di Q al licenziamento di Altman
Tutto sarebbe partito da una lettera scritta da alcuni ricercatori di OpenAI ai vertici dell'azienda: si parla di una volontà di commercializzare l'AGI senza le dovute verifiche sui rischi per l'uomo
27/11/2023 di Enzo Boldi
Il turbinio di decisioni, comunicazioni e passi indietro all’interno di OpenAI sembra avere un’origine lontana nel tempo. O, almeno, non a partire dall’iniziale licenziamento di colui il quale è stato sollevato per soli quattro giorni dal ruolo di CEO dell’azienda di San Francisco. Stando a fonti ben informate, citate dall’affidabile Reuters, all’origine del caos che ha portato all’allontanamento (temporaneo) di Sam Altman dalla guida della startup ci sarebbe il Progetto Q (o Q*, che sta per “Q star”). Una scoperta scientifica sull’AGI (Artificiale General Intelligence) che rappresenta un netto passo in avanti rispetto all’attuale intelligenza artificiale generativa. E si parla anche di rischi concreti per l’uomo.
LEGGI ANCHE > Cos’è il progetto Q* e perché può essere considerato una minaccia per l’uomo
E ci sarebbe – per il momento occorre usare il condizionale – una lettera, inviata da alcuni ricercatori interni all’azienda ai vertici di OpenAI, in cui si spiegano i dettagli di questa ricerca che si è trasformata in una scoperta scientifica: un’intelligenza artificiale non più in grado solamente di “reagire” e dare risposte dal punto di vista dialettico (dai chatbot, come ChatGPT, al text-to-image come Dall-E), ma capace di risolvere anche problemi matematici. Dunque, un qualcosa di molto vicino (potenzialmente superiore) alla mente umana.
Sam Altman Progetto Q, dalla lettera al licenziamento
Proprio questo rischio, come abbiamo spiegato la scorsa settimana (quando ancora non si sapeva nulla né di questa lettera, né del Progetto Q*), avrebbe allertato buona parte del board di OpenAI che aveva deciso di sfiduciare (e licenziare) il CEO Sam Altman dalla sua carica di amministratore delegato. Il motivo? La sua volontà di commercializzare questo prodotto AGI senza una accurata verifica dei reali rischi per l’essere umano e per l’umanità. Fonti ben informate (che sono, però, rimaste anonime) consultare dalla Reuters, hanno confermato l’esistenza di questa lettera inviata dai ricercatori. Una missiva che ha fatto scattare l’allarme (anche, ma non solo, a livello di etica).
Le due anime in OpenAI e quella scoperta scientifica
Come detto, la scorsa settimana aveva parlato delle due anime all’interno di OpenAI: quella più “commerciale” guidata da Sam Altman e quella che ha sempre messo l’etica al centro della ricerca e dello sviluppo, guidata dall’esperto informativo russo Ilya Sutskever. Entrambi fanno parte del board dell’azienda di San Francisco, ma avevano due visioni differenti proprio sui nuovi prodotti sviluppati. In particolare, oggi è noto, questo Progetto Q. Una AGI in grado di risolvere problemi matematici. Ed è questo il punto. Secondo il contenuto di questa lettera, ai vertici dell’azienda sarebbero sorti dei dubbi sull’operato dell’ex e nuovamente attuale CEO: un prodotto così complesso e rischioso per l’uomo e la volontà di iniziarne la commercializzazione senza le dovute valutazioni.
Ed ecco che Sam Altman Progetto Q si collegano. Secondo le fonti citate da Reuters, infatti, il board avrebbe appreso di questa ricerca scientifica nei giorni precedenti alla prima decisione (quella del licenziamento). Proprio questa sottovalutazione del problema avrebbe acceso un faro sull’operato del CEO di OpenAI, sollevando enormi problemi a livello etico. Legati al pericolo per l’umanità. Lo studio, infatti, ha messo in evidenza la capacità di risolvere problemi matematici. Per il momento come uno studente delle scuole elementari. Ma è bastato questo, viste le potenzialità, a far scattare l’allarme