La questione etica sollevata dagli stessi ricercatori di Life2vec
All'interno dello studio pubblicato su Nature, vengono spiegati i motivi che portano questo modello di linguaggio a essere più uno strumento di analisi dell'evoluzione tecnologica in ambito socio-sanitario che un'innovazione concretamente utilizzabile
04/01/2024 di Enzo Boldi
Nelle giornata di oggi, Giornalettismo sta analizzando i vari aspetti del modello di linguaggio automatizzato Life2vec, creato e studiato da un team di ricerca della DTU, dall’Università di Copenaghen, dall’ITU e dalla Northeastern University negli Stati Uniti. Tra le pagine di questo studio, c’è spazio anche per i risvolti etici. Si tratta di un tema che dovrebbe essere sempre al centro delle nuove tecnologie, soprattutto quando si parla di un’intelligenza artificiale che può avere un enorme impatto sulla vita delle persone. Sia per quel che riguarda la mole e la tipologia di dati utilizzati per addestrare l’AI, sia per quel che concerne un eventuale utilizzo su larga scala.
LEGGI ANCHE > Guai a dire data di morte: i dubbi e le perplessità sull’AI che la prevede
Come abbiamo spiegato in un nostro precedente approfondimento, la sintesi giornalistica “AI che prevede la data della morte delle persone” è di gran lunga forzata. Lo studio, infatti, indica molti altri fattori (basati su statistiche e parametri ben definiti inseriti in un modello vettoriale) che hanno a che fare più con i riflessi della sociologia sulla salute delle persone. Inoltre, si sottolinea come il modello di riferimento sia meramente statistico e non tenga conto – perché impossibile – dell’imprevedibilità di alcuni eventi. Dunque, si parla di causalità presunta e non di casualità.
Life2vec, i risvolti etici secondo gli stessi ricercatori
Al netto di tutto ciò, occorre sottolineare come gli stessi ricercatori abbiamo deciso di mettere l’accento sull’usabilità di questo modello di linguaggio, anche per quel che riguarda i risvolti etici. Ecco un primo passaggio, fondamentale per la comprensione di questo tema fondamentale, inserito nel capitolo 4, quello dedicato ai “Metodi”.
«L’uso di “prodotti” scientifici/statistici come Life2vec per il processo decisionale individuale automatizzato, la profilazione o l’accesso a dati di livello individuale che possono essere memorizzati dal modello è severamente vietato. Le statistiche aggregate, comprese quelle derivanti dalle previsioni del modello, possono essere utilizzate per la ricerca e per informare lo sviluppo delle politiche».
Questi “divieti” hanno anche alcune eccezioni: possono accedere a questi dati le agenzie governative danesi, i ricercatori accademici, le ONG e le aziende private con sede in Danimarca. Per farlo, però, occorre un patto ineludibile: rispetto della legge sulla protezione dei dati personali (quella danese) e la garanzia che questi dati «non vengano divulgati o utilizzati per scopi diversi da quelli scientifici/statistici». Dunque, c’è una grande attenzione al possibile utilizzo che ne viene fatto.
AI ACT e non solo
Anche perché, già il GDPR europeo non consente la diffusione dei dati personali (in special modo, quelli sanitari) per attività commerciali. Dunque, se Life2vec dovesse mai essere commercializzato, violerebbe – allo stato attuale delle cose e della ricerca – il Regolamento Europeo sulla protezione dei dati personali. Inoltre, proprio per la tipologia dei dati utilizzati e trattati (e i loro possibili utilizzi), questo strumento potrebbe rientrare all’interno dell’intelligenza artificiale ad alto rischio, quella che dovrebbe seguire i paletti più vincolanti dell’AI Act.
«Sottolineiamo che Life2vec è un prototipo di ricerca e, allo stato attuale, non è destinato a essere impiegato in attività concrete nel mondo reale. Prima di poter essere utilizzato, ad esempio, per informare le politiche pubbliche in Danimarca, dovrebbe essere sottoposto a verifica, in particolare per garantire l’equità demografica delle sue previsioni (rispetto alle metriche di equità appropriate per il contesto dato) e la spiegabilità (ad esempio, se utilizzato per assistere il processo decisionale basato su dati sintetici/controfattuali). Tali verifiche saranno probabilmente presto rese obbligatorie dall’AI Act, concentrandosi sull’uso sicuro di modelli “ad alto rischio”».
Da questo estratto, dunque, traspare un’enorme consapevolezza che si rispecchia anche nel vero fine di questa ricerca su questo modello di linguaggio basato sull’AI: un’enorme riflessione sugli spazi sociologici (in ambito sanitario e non solo) destinati in futuro all’intelligenza artificiale. Con i limiti corrispondenti.
I limiti
E, per ora, si tratta di una statistica limitata a un determinato numero di cittadini, di un determinato Paese e con determinate condizioni sociologiche. Una scala larga, ma non sufficiente per essere validato a livello universale:
«Infine, notiamo che, sebbene sia possibile che i fenomeni catturati da Life2vec riflettano fenomeni che hanno distribuzioni simili al di fuori della Danimarca (ad esempio, le traiettorie del mercato del lavoro, le traiettorie della salute individuale), invitiamo alla cautela nell’estrapolazione ad altre popolazioni, poiché non abbiamo esplorato come i nostri risultati si traducano al di là dell’attuale popolazione di studio».
L’etica, dunque, è l’introduzione ai metodi di analisi che hanno portato all’individuazione delle potenzialità di questo modello di linguaggio basato sull’AI. I suoi utilizzi statistici sono limitati e, probabilmente, rimarranno tali.