Davide contro Golia: cosa manca a Minerva LLM per competere con gli altri

I problemi iniziali sono evidenti, ma la base è buona. D'altronde, anche ChatGPT era (e in certi casi lo è ancora) poco performante

23/05/2024 di Enzo Boldi

È giovane, ma si farà. Possiamo sintetizzare così il primo mese di vita (pubblica) di Minerva LLM, il primo modello di linguaggio su larga scala addestrato da zero per la lingua italiana. Nel monografico di oggi, Giornalettismo ha raccontato la storia di questo progetto nato all’interno delle stanze dell’Università La Sapienza e che da qualche settimana è stato messo a disposizione anche al di fuori del FAIR attraverso la pubblicazione su HugginFace. Ci siamo concentrati – come spesso capita quando si parla di intelligenza artificiale – sulle criticità e sui problemi (che sono evidenti). Il potenziale, però, è buono.

LEGGI ANCHE > Come sta “funzionando” il primo LLM Made in Italy?

Soprattutto perché siamo in un’era in cui i grandi modelli linguistici su larga scala provengono dall’estero. Da quelle aziende dell’ecosistema Big Tech che monopolizzano qualsiasi tipo di evoluzione e sviluppo tecnologico. I ricercatori de La Sapienza sono scesi in campo, su un terreno arduo che sembra essere già saturo a causa degli investimenti miliardari fatti dalle grandi aziende multinazionali. E questo è già un elemento che rende stimabili questi sforzi. D’altronde, non è un caso che questo progetto sia il primo incentrato sulla lingua italiana.

Minerva LLM, cosa manca per competere con gli altri

Questo è il punto di forza da cui partire per proseguire nel miglioramento costante di Minerva LLM. Se oggi ci troviamo di fronte a un dataset composto da 500 miliardi di parole, domani questi numeri saranno ritoccati verso l’alto. E non è un caso che a giugno ci sarà il rilascio di un’ulteriore versione ancor più strutturata. Forse, da parte della stampa, ci si è lasciati prendere la mano dall’entusiasmo, annunciando la creazione di un progetto che – al momento – è molto indietro rispetto agli altri già presenti sul mercato.

Insomma, si sono alzate le aspettative rispetto al valore attuale di questo LLM. Questo, però, non deve scoraggiare chi ha condotto e portato avanti questo lavoro. Ovviamente, però, si dovrà lavorare molto. Le fonti pubbliche utilizzate per l’addestramento sono, al momento, molto limitate. Così come il numero di persone impegnate nella realizzazione di questa famiglia di modelli di linguaggio su larga scala. Pochissimi mettendoli a confronto con i migliaia di dipendenti che hanno lavorato in Google e OpenAI (solo per citare i due più famosi). E, soprattutto, questi ultimi hanno lavorato percependo stipendi notevoli, di gran lunga superiori a quelli che (tra assegni e contratti) ha ricevuto il team de La Sapienza.

I costi

Sarà importante non disperdere questo punto di partenza. Per farlo, esattamente come è accaduto per il via libera al progetto, occorreranno fondi. L’Italia potrebbe cogliere l’occasione della Presidenza del G7 – proprio nell’anno dedicato all’AI – per creare nuovi fondi di investimento per finanziare questo e altri progetti, rendendo quel che è nato tra le stanze di un’Università il primo e vero approccio “Made in Italy” all’intelligenza artificiale applicata a vari aspetti della vita. Perché sono i soldi a muovere tutto e a scardinare l’impasse delle difficoltà. Perché se è vero che ci sono problemi, occorre ricordare la storia di OpenAI: lanciata sul mercato (anche nella versione a pagamento) con mille criticità e ora diventata – con ChatGPT e altri prodotti – l’azienda leader nella competizione a giganti come Google.

Share this article