Il contesto europeo che fa da sfondo al Comitato italiano sugli algoritmi

Una collaborazione tra l'UE e i Paesi del G7 per scrivere un codice di condotta sull'AI e per l'AI

23/10/2023 di Enzo Boldi

La genesi che ha portato alla nascita del Comitato sugli algoritmi guidato – nelle vesti di Presidente di questa “Commissione” – da Giuliano Amato non è una mera richiesta del governo italiano. Perché in attesa dell’effettiva entrata in vigore dell’AI Act (già approvato dal Parlamento UE), tutto il mondo si sta muovendo verso una regolamentazione dell’intelligenza artificiale. Al netto delle singole iniziative legislative, occorre una visione d’insieme a livello globale. Per questo motivo, c’è un contesto europeo (e, di sponda, internazionale) all’interno del quale si muove e si muoveranno i membri di questo Comitato.

LEGGI ANCHE > Un Amato per tutte le stagioni, anche per presiedere il comitato sull’impatto dell’AI sul giornalismo

La Commissione che inizierà i suoi lavori nella giornata di domani, martedì 24 ottobre 2023, avrà (poco) tempo per ascoltare gli stakeholder del settore dell’editoria e del giornalismo per poi redigere una relazione da consegnare al governo. Ma sullo sfondo c’è qualcosa di ancor più grande che parte da un contesto europeo che si espande anche ai membri del G7. Segno che la sfida ai rischi dell’intelligenza artificiale è di portata globale e non si può intervenire con iniziative singole.

Comitato sugli algoritmi, il contesto europeo e il G7

Dunque, l’Europa. In particolare, si fa riferimento al contesto rappresentato dal progetto – lanciato lo scorso 11 ottobre – chiamato “International Draft Guiding Principles for Organizations Developing Advanced AI systems“. Di cosa stiamo parlando? Si tratta di una consultazione con tutti gli stakeholder del settore per arrivare a una sintesi che si tradurrà nei (da traduzione) “Principi guida internazionali per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale”. La prima fase è quella di un sondaggio tra le parti interessate. Poi si tireranno le somme, alla ricerca dei punti focali per redigere un vero e proprio codice di condotta internazionale (che coinvolga i Paesi UE e quelli del G7) sull’AI. Macro-aree che si snodano su 4 pilastri fondamentali:

  • Diritti umani e valori democratici;
  • Sicurezza e protezione;
  • Affidabilità e trasparenza;
  • Responsabilità e rendicontabilità. 

Si tratta di definizioni che sono alla base di moltissimi dei discorsi e delle iniziative legislative già approvate in giro per il mondo. Ma a fasi alterne e non in modo “globale”. Come sottolineato anche dal governo italiano, questi elementi sono ancora in fase primordiale e non sono ancora definitivi. Si tratta, però, di un punto di partenza deciso nell’ambito del nell’ambito del Gruppo di lavoro “Hiroshima Process” sull’AI generativa.

Gli 11 princìpi

Per il momento, in attesa che ogni singolo Paese presenti al gruppo di lavoro i risultati delle proprie valutazioni (come quella che il Comitato sugli algoritmi italiano inizierà a redigere dopo gli incontri con i rappresentanti del mondo dell’editoria), il documento – ancora sotto forma di bozza – presenta 11 princìpi di base:

  1. Adottare misure appropriate durante tutto lo sviluppo di sistemi avanzati di AI, anche prima e durante la loro distribuzione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita dell’AI.
  2. Identificare e ridurre le vulnerabilità e, se del caso, gli incidenti e i modelli di utilizzo improprio, dopo la distribuzione e l’immissione sul mercato.
  3. Segnalare pubblicamente le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di AI, per garantire una sufficiente trasparenza.
  4. Lavorare per una condivisione responsabile delle informazioni e per la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di AI, anche con l’industria, i governi, la società civile e il mondo accademico.
  5. Sviluppare, implementare e divulgare politiche di governance dell’AI e di gestione del rischio, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e le misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi avanzati di AI.
  6. Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la cybersecurity e le protezioni contro le minacce interne in tutto il ciclo di vita dell’AI.
  7. Sviluppare e distribuire meccanismi affidabili di autenticazione e provenienza dei contenuti, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’AI.
  8. Dare priorità alla ricerca per mitigare i rischi per la società, la sicurezza e la protezione e dare priorità agli investimenti in misure di mitigazione efficaci.
  9. Dare priorità allo sviluppo di sistemi avanzati di AI per affrontare le maggiori sfide del mondo, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione.
  10. Promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali.
  11. Implementare controlli e audit appropriati sull’inserimento dei dati.

Undici punti di partenza. Un coinvolgimento internazionale per arrivare a un codice di condotta (pressoché) univoco e internazionale.

 

 

 

Share this article