Il G7 ha concordato il codice di condotta delle aziende sull’intelligenza artificiale

Nella giornata di oggi verrà ufficialmente approvato il codice di condotta sull'intelligenza artificiale in undici punti che punta a regolamentare l'utilizzo dell'AI nelle aziende

30/10/2023 di Ilaria Roncone

Il G7 – forum intergovernativo composto dai sette maggiori Stati economicamente avanzati, ovvero Stati Uniti, Francia, Canada, Germania, Giappone, Regno Unito e Italia più l’Unione europea come invitato permanente – ha concordato un codice di condotta AI per le aziende. La notizia è stata data in esclusiva da Reuters – che ha potuto consultare un documento del G7 – nell’ultimo weekend di ottobre e l’ufficialità dovrebbe arrivare nella giornata di oggi. Questo codice di condotta è frutto degli sforzi comuni dei Paesi facenti parte di questo gruppo i cui governi – così come quelli di tanti altri Stati – sono alle prese con gli effetti provocati dall’ingresso a gamba tesa dell’intelligenza artificiale nel lavoro quotidiano delle aziende.

Il codice di condotta è stato soprannominato “Hiroshima AI process”.

LEGGI ANCHE >>> L’intelligenza artificiale ha fatto arrabbiare Tom Hanks (e non solo)

In cosa consiste il codice di condotta AI

Del documento di undici punti – che è ancora una bozza – abbiamo parlato di recente. Si tratta di un testo che sintetizza gli undici principi di base, quei punti di partenza che – attraverso un coinvolgimento internazionale – dovrebbero condurre a un codice di condotta univoco e condiviso, che permetta di creare una prassi nella gestione delle tecnologie di intelligenza artificiale all’interno delle aziende per evitare usi impropri.

Quali sono gli argomenti principali di questo documento? Si parla dei nodi cruciali relativi alla privacy e dei rischi per la sicurezza cibernetica. Anche la ricerca e lo sviluppo di standard etici internazionali è finita al centro dell’ultima parte della bozza (articoli 7, 8, 9 e 10). Nel documento del G7 si legge come questo documento di undici punti «mira a promuovere un’IA sicura, protetta e affidabile in tutto il mondo e fornirà una guida volontaria per le azioni delle organizzazioni che sviluppano i sistemi di IA più avanzati, compresi i modelli di base più avanzati e i sistemi di IA generativi».

Share this article