Perché il G7 ha l’esigenza di impostare i suoi lavori sull’intelligenza artificiale

Il tema sarà al centro della Presidenza italiana nel 2024 per svariati motivi. Soprattutto perché si tratta di una tecnologia emergente che ha già messo in mostra alcuni pregi e molti "difetti"

30/10/2023 di Enzo Boldi

L’approvazione del codice di condotta – rivolto agli sviluppatori – sull’intelligenza artificiale è solo il primo passo di un lungo (ma che dovrà essere necessariamente anche rapido) dei lavori del G7 sull’AI. Quest’anno, sotto la guida del Giappone, sono state poste le fondamenta necessarie a iniziare un dibattito fondamentale per quel che riguarda lo sviluppo tecnologico-digitale, partendo dalle virtù e accedendo un faro (con tanto di soluzioni) sui rischi per quel che riguarda moltissimi comparti: dal lavoro, alla produttività, passando per l’economia e il sociale.

LEGGI ANCHE > Il G7 ha concordato il codice di condotta delle aziende sull’intelligenza artificiale

Vizi e virtù. Perché quando si parla di intelligenza artificiale si rischia di cadere nella classica polarizzazione dialettica di chi è a favore e di chi è contro. A prescindere. Invece, come accade per tutto, ci sono infinite sfumature da tenere in considerazione nel rapporto rischi-benefici. Proprio per questi motivi, sarà importante il ruolo delle istituzioni. Non solo dei singoli Paesi, ma a livello internazionale. Per questo motivo, il 2024 (sotto la guida dell’Italia, che avrà la ciclica presidenza di turno) vedrà al centro G7 e AI, con i Paesi del forum intergovernativo composto dai sette maggiori Paesi a livello di avanzamento economico (oltre al nostro troviamo Stati Uniti, Francia, Germania, Giappone, Regno Unito e Canada) alla ricerca di linee guida globali.

G7 e AI, perché l’intelligenza artificiale è al centro

Perché l’Europa, con il suo AI Act (arrivato alla fase finale, quello dei negoziati) ha messo le basi sulla verifica dei prodotti, mentre gli USA hanno – per ora – dato vita a un patto con le grandi aziende produttrici. Occorre, dunque, una linea comune e definita per poter affrontare le prossime e imminenti sfide che passano da tre temi fondamentali di analisi:

  • L’AI deve essere sviluppata in modo responsabile (anche a livello di etica) e sostenibile, partendo dal presupposto che si tratta di una tecnologia emergenze che avrà (e già sta avendo) un impatto significativo sulla vita delle  persone, anche in termini di salute e sicurezza.
  • L’intelligenza artificiale può essere il volano per la creazione di nuove opportunità in grado di inserirsi nel tessuto economico e occupazionale, ma questo potrebbe anche portare a uno “svilimento” del mercato del lavoro.
  • Disoccupazione e discriminazione sono i due argomenti che fanno parte dell’ampio calderone dei rischi che devono essere analizzati a fondo, per evitare che la “popolarità” di alcuni strumenti di AI possano mettere a repentaglio il lavoro umano.

Le tre macro-aree sono al centro del rapporto che si instaurerà nel 2024 (e negli anni successivi) tra G7 e AI. Senza demonizzazione, ma cercando di affrontare anche le problematiche con consapevolezza. Ovviamente, però, i tempi sono ristretti visto che moltissimi strumenti di intelligenza artificiale sono ampiamente diffusi.

Obiettivi e misure

Il primo passo sarà (e dovrebbe avvenire già nella giornata di oggi) l’approvazione del codice di condotta per gli sviluppatori, meglio conosciuto come “Hiroshima AI process“. Si tratta di 11 punti, 11 princìpi da base che chi sviluppa prodotti basati sugli algoritmo, sul machine learning e sull’intelligenza artificiale dovrebbero rispettare (anche a livello di responsabilità ed etica). Tutto nasce per tentare di raggiungere alcuni obiettivi

  • Promuoverne lo sviluppo e l’uso responsabile.
  • Favorire la collaborazione internazionale sull’AI.
  • Promuovere l’uso dell’intelligenza artificiale per il bene sociale.

Per fare ciò, servirà un’azione congiunta attraverso le analisi di un gruppo di lavoro dedicato (non è un caso, infatti, che l’Italia abbia avviato i lavori del Comitato sugli algoritmi e della task force sull’AI), aggiornamenti costanti sulle attività e le iniziative intraprese a livello internazionale e un sostegno alle iniziative di sviluppo (ma anche di ricerca) sull’intelligenza artificiale e su tutto ciò che gli orbita attorno. Il tutto mantenendo la barra dritta su temi come tutela dei dati personali degli utenti e copyright (fondamentale per quel che riguarda l’addestramento attraverso i dataset).

Share this article