Quali sono i punti salienti dall’AI Act

Dopo l'approvazione del Parlamento Europeo, il regolamento sull'intelligenza artificiale e il riconoscimento biometrico è quasi pronto per essere attuato

30/06/2023 di Redazione Giornalettismo

Dopo oltre due anni di gestazione, l’Europa si appresta ad attuare il primo regolamento sull’intelligenza artificiale. Lo scorso 14 giugno, infatti, è arrivato il passo più importante per fornire agli Stati membri le linee guida per recepire e rendere vincolanti tutti quegli strumenti e riferimenti normativi attorno ai nuovi strumenti che, da qualche mese, sono diventati di dominio pubblico. Perché il Parlamento UE ha approvato, a larga maggioranza, l’AI Act e ora mancano solamente i negoziati con i governi affinché questo impianto normativo entri in vigore definitivamente.

LEGGI ANCHE > OpenAI ha fatto pressione per far “annacquare” l’AI Act?

La bozza definitiva del testo, dunque, è pronta e il percorso iniziato nell’aprile del 2021 è agli sgoccioli. Ovviamente, si è trattato di un tragitto irto di ostacoli, con emendamenti ed evoluzione tecnologica che hanno costretto il legislatore ad alcune correzioni in corsa. Partendo dall’impianto iniziale, quello in cui si è tentato di mettere dei paletti all’uso indiscriminato (che diventa abuso) dei sitemi di riconoscimento biometrico. Poi, però, l’intelligenza artificiale a portata di mano è diventata di uso comune (ChatGPT e le sue “sorelle”) e si è intervenuto anche per limitare le problematiche. E ora, dopo il voto del Parlamento Europeo di Strasburgo dello scorso 14 giugno, ecco che entro fine anno dovrebbe completarsi l’iter dell’AI Act.

AI Act e il riconoscimento biometrico

Ma quali sono i punti sostanziali che cambieranno le dinamiche del mercato e dell’utilizzo di strumenti basati sull’intelligenza artificiale. Innanzitutto, proviamo ad elencare per punti tutte le decisioni prese in merito al riconoscimento biometrico.

  • Divieto di utilizzo di telecamere (e altri strumenti) di riconoscimento facciale nelle aree pubbliche (come invece richiesto da un emendamento – bocciato – proposto dal PPE);
  • No all’utilizzo di queste tecnologie nelle operazioni di “Polizia predittiva“;
  • Divieto di archiviazione nei database basati sullo scraping;
  • Divieto di categorizzazione biometrica;
  • No all’utilizzo di sistemi informatici che riconoscono e analizzano le emozioni (divieto che vale non solo per le forze dell’ordine, ma anche per le scuole e i luoghi di lavoro.

Questi sono i paletti principali relativi al riconoscimento biometrico e che vanno a normare una questione che, fino per ora, era nelle mani dei singoli Stati membri. Ovviamente, però, proseguiranno le discussioni e la stessa Unione Europea potrebbe individuare e definire delle “eccezioni” in base a fattispecie molto specifiche.

Le norme sugli strumenti di intelligenza artificiale

Detto del riconoscimento biometrico, occorre sottolineare e mettere in evidenza gli altri punti presenti all’interno del testo dell’AI Act recentemente approvato dal Parlamento Europeo. Perché l’ascesa di ChatGPT ha acceso il mercato degli strumenti basati sull’intelligenza artificiale “a portata di mano”, ovvero di tutti quei sistemi che (alcuni in forma gratuita, altri a pagamento) consentono a qualsiasi utente di generare contenuti automatizzati. Per questo motivo, il testo del regolamento si è incentrato su otto punti fondamentali:

  1. Definizione di intelligenza artificiale: nel concetto di AI si includono tutti sistemi basati su apprendimento automatico, ragionamento simbolico, inferenza statistica, tecniche di ricerca e ottimizzazione.
  2. Classificazione dei sistemi AI: si differenziano strumenti e tecnologie in base al livello di rischio, di sicurezza e diritti fondamentali. E lo si fa in base a tre categorie: rischio inaccettabile, alto rischio e basso o minimo rischio.
  3. Definizione dei requisiti per i sistemi ad alto rischio che devono soddisfare requisiti come trasparenza, robustezza, accuratezza, protezione dei dati e sicurezza prima di essere immessi sul mercato. Inoltre, devono essere sottoposti a una accurata valutazione di conformità da parte di organismi ad hoc.
  4. Trasparenza: i sistemi basati sull’intelligenza artificiale devono essere trasparenti e gli utenti devono – obbligatoriamente – essere informati del fatto che stanno interagendo con un sistema AI.
  5. Responsabilità: in caso di violazioni delle norme, produttori, importatori, distributori e utilizzatori di sistemi di intelligenza artificiale sono responsabili.
  6. Sanzioni: le aziende che violano le norme del regolamento europeo rischiano multe che possono arrivare fino al 6% del fatturato annuo totale o a 30 milioni di euro (a seconda dell’importo maggiore).
  7. Autorità di vigilanza: ogni Stato membro dell’UE dovrà predisporne una (anche allargando le competenze di autorità già esistenti) in modo tale da garantire la conformità con le norme. Oltre a questo, dovrà essere creato un Comitato europeo sull’intelligenza artificiale, come forma di coordinamento tra le autorità dei vari Paesi.

Questi, dunque, sono i punti salienti. Ma c’è un’attenzione particolare che necessita di un approfondimento. Nei giorni scorsi, basandoci su un report di NewsGuard, abbiamo parlato dei cosiddetti siti UAIN, ovvero di quei portali che ospitano “notizie” generate da bot attraverso gli strumenti di intelligenza artificiale. Notizie, per definizione, non affidabili e spesso intrise di fake news. Con l’entrata in vigore dell’AI Act, però, tutto ciò non dovrebbe più avvenire. Nel testo approvato, infatti, viene esplicitamente scritto:

«Gli utenti di un sistema di IA che genera o manipola testi o contenuti audio o visivi che potrebbero apparire falsamente autentici o veritieri e che rappresentano persone che sembrano dire cose che non hanno detto o compiere atti che non hanno commesso, senza il loro consenso (“deep fake”), sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome della persona fisica o giuridica che li ha generati o manipolati. A tal fine, i contenuti sono etichettati in modo tale da segnalare il loro carattere non autentico in maniera chiaramente visibile alle persone cui sono destinati. Per etichettare i contenuti, gli utenti tengono conto dello stato dell’arte generalmente riconosciuto e delle pertinenti norme e specifiche armonizzate».

L’articolo 52 della versione definitiva del testo, dunque, obbliga la presenza di un’etichetta sui contenuti generati dall’intelligenza artificiale e non dall’uomo. Questo, in concreto, potrebbe limitare gli abusi dell’AI per condizionare l’opinione pubblica. Anche in chiave politica.

Share this article
TAGS