Quali sono i punti del cosiddetto Hiroshima AI process
Si tratta dei principi base su cui si è trovato un accordo, tra i Paesi del G7, a proposito dell'intelligenza artificiale generativa e che saranno il punto di partenza del lavoro dell'Italia alla prossima presidenza del vertice tra i sette attori principali dell'economia globale
30/10/2023 di Gianmichele Laino
Si chiama Hiroshima Process sull’intelligenza artificiale generativa. Ed è un documento che, nelle cronache, diventerà molto familiare anche ai giornali italiani e al loro pubblico. Sì, perché è stato approvato dai Paesi del G7 in questo 2023 – anno che ha visto il Giappone guidare i lavori -, ma dovrà essere integrato, aggiornato, completato nel 2024, anno in cui, alla presidenza del G7, ci sarà proprio l’Italia. Si tratta di un lavoro di cesello, fatto di mediazione, di individuazione di punti critici e di un importante punto riassuntivo della situazione a livello normativo, per valutare lo stato di avanzamento degli organi legislativi rispetto all’inesorabile evoluzione dei mezzi collegati all’intelligenza artificiale.
LEGGI ANCHE > Le sfide che l’Italia dovrà affrontare nella sua presidenza del G7 sull’intelligenza artificiale
Hiroshima Process sull’AI generativa: il documento
Il documento di 37 pagine che è stato licenziato e che è stato successivamente approvato spazia dalle opportunità che si incontrano nell’adozione dell’intelligenza artificiale, fino ai rischi che ciascun Paese deve affrontare. Passando, ovviamente, per un punto sulla legislazione di ogni singolo stato membro di questa assise. Secondo i membri del G7, per adottare delle soluzioni bilanciate a proposito dell’intelligenza artificiale, saranno opportuni equità, responsabilità, trasparenza e sicurezza. Anche perché, in base a quanto evidenziato da chi ha redatto il documento, l’intelligenza artificiale generativa ha velocemente conquistato il suo spazio all’interno dell’opinione pubblica. Inoltre, lo sviluppo – soprattutto sulla programmazione dei codici open-source degli strumenti di intelligenza artificiale generativa – ha portato a un’impennata degli investimenti nel settore e il G7 non può non prenderne atto.
Gli stati interessati hanno specificato che l’intelligenza artificiale può causare dei benefici all’ecosistema economico e digitale, ma hanno anche messo in guardia dai rischi che quest’ultima può creare. La mitigazione di questi rischi e la loro risoluzione, secondo il documento presentato, è in cima all’agenda del G7 (e – quindi – verrà rafforzata durante la presidenza italiana del 2024). I membri dell’assise, inoltre, sono allineati sul bisogno di realizzare dei tools che si occupino di sicurezza, controllo qualità, accrescimento del livello di affidabilità dei sistemi di intelligenza artificiale generativa. Il G7 ha evidenziato come elemento più urgente quello dell’utilizzo responsabile di queste tecnologie, mentre ha dato un livello di priorità più basso alla salvaguardia della proprietà intellettuale rispetto a tutto ciò che viene utilizzato dall’AI. Privacy e data governance sono considerate le sue aree più sensibili per un intervento specifico da parte delle governance dei Paesi del G7, mentre la garanzia dei fondamentali diritti umani (nell’impiego dell’AI generativa) è la preoccupazione maggiore per tutti i componenti dell’assise.