Med-PaLM 2, l’AI di Google che (per ora) non sostituirà i medici

Dopo gli annunci dello scorso aprile, questo strumento è in fase di sperimentazione in alcune cliniche di ricerca americane

13/07/2023 di Enzo Boldi

Tranquilli, per il momento l’intelligenza artificiale medica sviluppata da Google non prenderà il posto dei medici ospedalieri. Il triage e tutte le operazioni successive resteranno nelle mani – e nella mente – di persone in carne e ossa. Con tutti gli annessi e connessi, positivi o negativi (come la storia insegna). In queste settimane, però, si è entrati nel vivo delle sperimentazioni cliniche delle funzionalità di Med-PaLM 2, il sistema basato sull’AI che (per il momento) può rappresentare un utile supporto al personale medico-ospedaliero.

LEGGI ANCHE > La causa a Google che sostiene che l’azienda abbia sottratto dati senza consenso per addestrare la sua AI

Il progetto Med-PaLM ha visto la luce nel 2022 con una versione iniziale che, successivamente, è stata ritoccata. Nello scorso mese di aprile, nel corso dell’annuale “The Check up” di Google Health, è stata annunciata l’evoluzione del prodotto che, con il passare del tempo, è stato addestrato utilizzando fonti certificate basate sulla licenza medica. Ora è arrivato il momento della sperimentazione sul campo, attraverso test in corso all’interno di alcune cliniche di ricerca degli Stati Uniti.

Med-PaLM 2, l’AI medica sviluppata da Google

La sperimentazione è in corso, proprio dal mese di aprile, all’interno di alcune strutture di ricerca degli Stati Uniti. In particolare, come rivelato dal Wall Street Journal, i test stanno proseguendo anche all’interno di una delle sei della Mayo Clinic (probabilmente a Rochester, in Minnesota, dove Google ha aperto un ufficio nel 2021). Il modello di linguaggio è lo stesso che ha portato allo sviluppo di tecnologie come Google Bard (da oggi disponibile anche in Italia), ma addestrato in modo differente. Perché se è vero che si tratta di un chatbot dall’interfaccia tradizionale (almeno per il momento) è altrettanto vero che a differenza di ChatGPT di OpenAI e della concorrente lanciata da poco dall’azienda di Mountain View, l’addestramento è avvenuto utilizzando anche i testi di licenza medica. Quindi, si tratta di uno strumento ad hoc che sarebbe in grado di dare risposte mediche più precise, essendo “specializzato in quello”.

Ma non è tutto oro quello che luccica. Come spiega il WSJ, alcuni “medici” che stanno testando le funzionalità, l’affidabilità e l’efficacia di Med-PaLM 2 hanno messo in evidenza alcune lacune che rendono questo prodotto non ancora attendibile dal punto di vista clinico e sanitario. Alcune risposte alle “interrogazioni” non sembrano aver dato risposte corrette. Tutto ciò, quindi, non può che portare – allo stato attuale della situazione – a inaffidabilità nelle diagnosi e nei suggerimenti per quel che riguarda i trattamenti a cui devono essere sottoposti i pazienti. C’è, quindi, ancora molto da fare affinché si raggiunga uno standard in base ai più semplici requisiti medici. Per il momento, dunque, i medici non rischiano di essere sostituiti dall’intelligenza artificiale.

Capitolo dati

Poi c’è la questione della gestione e del trattamento dei dati dei pazienti, con Google che già in passato era finita al centro delle critiche proprio per le sue dinamiche poco trasparenti. Anche perché, occorre sottolinearlo, i dati sanitari sono una categoria particolare di dati personali (in Europa, per esempio, tutto è descritto all’interno dell’articolo 32 del GDPR). Dunque, inserire dati sanitari all’interno dei sistemi di AI è molto borderline. Come spiega il WSJ, però, i vertici di Mountain View hanno dato questa spiegazione per quel che riguarda questo strumento medico-sanitario:

«I dirigenti di Google hanno affermato che i clienti che testano Med-PaLM 2 manterranno il controllo dei propri dati in impostazioni crittografate inaccessibili alla società tecnologica e che il programma non ingerirà nessuno di quei dati».

Stando a questa dichiarazione, i dati sanitari non sono utilizzati per addestrare l’intelligenza artificiale e quando vengono inseriti nel sistema il tutto avviene con la protezione della crittografia, rendendoli inaccessibili.

Share this article