Se hai dubbi esistenziali, l’intelligenza artificiale di Google ambisce a risolverli
Le nuove funzionalità di Google DeepMind che dovrebbero permettere all'intelligenza artificiale di rispondere a domande di vita quotidiana
17/08/2023 di Gianmichele Laino
«Ho una cara amica che si sposerà questo inverno. Era la mia compagna di stanza al college e damigella d’onore al mio matrimonio. Desidero così tanto andare al suo matrimonio per far festa insieme a lei ma, dopo mesi di ricerca di lavoro, non l’ho ancora trovato. Sta organizzando un destination wedding e non posso permettermi il volo o l’hotel in questo momento. Come faccio a dirle che non potrò andare?». Questo “problema” tratto da un episodio di vita reale, vi sembrerà la classica situazione da confidare a un parente o a un amico, in attesa di ricevere un consiglio che possa orientare nelle scelte da fare. Ciò che è giusto e ciò che non lo è, nell’ambito della complessa sfera delle relazioni sociali, con tutte le loro sfumature. Invece, tra qualche tempo, questo problema potrebbe essere materia per Google DeepMind, il team che studia prodotti di intelligenza artificiale che, qualche anno fa, è stato acquisito dal colosso di Mountain View. Proprio così, perché – a quanto pare – per vincere la sfida dell’AI generativa rispetto ad altri colossi che si occupano di queste questioni (come ad esempio Open AI con il suo ChatGPT), Google sta cercando di esplorare nuovi territori in cui imporsi. E il life coaching basato sull’intelligenza artificiale potrebbe essere uno di questi.
LEGGI ANCHE > Si salvi chi Bard
Google DeepMind e il life coach basato sull’intelligenza artificiale
Prima di parlare di un prodotto di cui si sa molto poco (soltanto il NewYork Times ha avuto la possibilità di parlare – dietro garanzia di anonimato – con individui coinvolti nella questione), è opportuno capirne le premesse. DeepMind era un team (fondato nel 2010) che, sin dalla sua nascita, si occupava di intelligenza artificiale. Ovviamente, rispetto agli strumenti odierni, le ricerche di 13 anni fa erano molto diverse, basandosi piuttosto su ciò che si stava sviluppando nel settore del gaming (che, sia per l’intelligenza artificiale, sia per il metaverso è stato davvero un settore d’avanguardia). Google ha acquisito DeepMind nel 2014 e ha avviato progetti che continuavano il lavoro fatto nell’ambito del gaming, così come progetti che cercavano di applicare l’intelligenza artificiale al campo scientifico. Negli ultimi tempi, ha anche partecipato al progetto Partnership on AI, associazione che si occupa dei principi etici dell’intelligenza artificiale.
Ad aprile di quest’anno, Google ha deciso di unire tutto il know how di DeepMind con quello di Brain, la sua sezione che cerca di unire la ricerca sull’apprendimento automatico con sistemi informativi e risorse informatiche su larga scala. Dall’unione di questi due team è partita l’idea di un life coach basato sull’intelligenza artificiale. Quest’ultimo dovrebbe aiutare gli utenti a migliorarsi in un particolare settore (come può essere quello dell’esercizio fisico), può fornire suggerimenti per sviluppare business plan, può aiutare gli utenti nel campo della nutrizione.
I limiti che l’intelligenza artificiale non dovrebbe superare
Come si può notare, al di là dell’esempio sulla damigella d’onore senza lavoro, si tratta comunque di settori e di campi che lambiscono la sfera della scienza medica e che, quindi, dovrebbero esulare da quelle che sono le indicazioni iniziali di Google sull’intelligenza artificiale: Bard – il sistema di intelligenza artificiale di Google – non può dare risposte su questioni che riguardano la medicina, la finanza e i pareri legali, così come non dovrebbe creare una sintonia troppo stretta tra l’intelligenza artificiale generativa e gli esseri umani.
Non è detto che il life coaching di Google, basato sull’intelligenza artificiale, possa diventare effettivamente realtà. Tuttavia, la rincorsa ad Open AI sembra stia forzando sempre di più i limiti etici che la stessa Google aveva fissato (ricordiamo ancora una volta che Partnership on AI, a cui DeepMind ha partecipato, cerca di intavolare discussioni proprio in merito ai limiti dell’intelligenza artificiale sulla sfera umana). E questo non è affatto un buon segnale.