Aspettando il testo: cosa sappiamo, finora, dell’AI Act

Quello che possiamo fare, adesso, è stilare una lista dei punti e delle nozioni chiare che - dopo la negoziazioni di 36 ore tra Parlamento, Commissione e Consiglio Ue - dovranno essere nel testo dell'AI Act

11/12/2023 di Ilaria Roncone

Chiariamolo immediatamente: quello che è stato trovato sull’AI Act è un accordo di tipo politico, che ha permesso a tutte le parti chiamate in causa all’interno degli organismi legislativi dell’Unione europea di avere punti in comune, ma del testo dell’AI Act ancora non vi è piena contezza. Ciò che è stato raggiunto dopo una negoziazione di 36 ore è un punto comune rispetto a determinati macrotemi – regolamentazione dell’intelligenza artificiale e della sorveglianza tramite identificazione biometrica – e il modo in cui essi devono entrare nel testo della legge. All’approvazione di un testo mancano, inoltre, tutta un’altra serie di passaggi burocratici che approfondiremo in un altro articolo dedicato nel monografico di oggi.

Cos’è che sappiamo, quindi, dell’AI Act allo stato attuale delle cose? Sono questi i principi del testo definitivo che, nei prossimi giorni, dovrà essere approvato.

LEGGI ANCHE >>> Perché tutti stanno esultando per l’AI Act (ma in pochi sanno cosa c’è scritto)

Il nodo cruciale del riconoscimento facciale usato dalle forze dell’ordine

A dare la notizia dell’accordo raggiunto, specificando i punti affrontati, è stato – tra gli altri – Euractiv. La rete media paneuropea specializzata nelle politiche dell’Ue ha fornito una panoramica di quello che è stato concordato. L’AI Act punta ad essere il primo testo di riferimento per regolamentare l’intelligenza artificiale, il suo sviluppo e gli usi che se ne possono (e non possono) fare nei vari contesti della vita umana. Quello che è accaduto venerdì 8 dicembre è che Commissione, Consiglio e Parlamento europeo hanno trovato una quadra, accordandosi su una serie di punto che erano nodo cruciale della questione.

I punti al centro del lunghissimo negoziato sono stati ventuno. Il trilogo – un tipo di dialogo formale utilizzato nel processo legislativo dell’Unione, letteralmente la parola vuol dire conversazione a tre – si è svolto in più parti. Nel corso della prima fase sono state risolte le questioni concernenti modelli di fondazione, governance e open source. Dopo ventidue ore di negoziato è stata chiesta una pausa poiché un nodo, in particolare, non riusciva ad essere sbrogliato: si tratta della richiesta, da parte del Consiglio Ue di un ampio margine di utilizzo di sistemi AI per scopi militari e di difesa. Questo significa, tra le altre cose, l’utilizzo del riconoscimento facciale da parte delle forze dell’ordine. A insistere in tal senso – ognuno per ragioni diverse legate alla propria storia – sono stati una serie di Paesi, tra cui l’Italia, capeggiati dalla Francia.

Parlando di tempistiche, l’AI Act si applicherà a partire da due anni dopo la sua entrata in vigore (il che ci riporta a un articolo sulle tempistiche lente delle leggi rispetto alla velocità dello sviluppo dell’AI). I divieti imposti, invece, saranno effettivi a partire da sei mesi dopo.

AI Act, cosa sappiamo del primo regolamento sull’AI nel mondo

Facciamo il punto della situazione, quindi, rispetto a ciò che sappiamo finora sull’AI Act: dai principi che costituiscono le sue fondamenta ai punti che dovrebbero comparire nel testo. L’AI Act contiene, innanzitutto, una serie di pratiche vietate e che rappresentano un rischio inaccettabile. Procediamo con una lista:

  • tecniche manipolative, ovvero sistemi che sfruttano le vulnerabilità e i punteggi sociali;
  • anche i database basati sullo scraping collettivo e non autorizzato di immagini facciali (si pensi, ad esempio, a Clearview AI) sono stati vietati;
  • è stato introdotto il divieto di riconoscimento delle emozioni sul posto di lavoro e nelle scuole;
  • stesso discorso per l’utilizzo di software di polizia predittiva per la valutazione, su base etnica e su altre caratteristiche personali e sensibili, della possibilità per un individuo di commettere crimini: vietato;
  • sempre legato a questo discorso, si punta a vietare l’uso di sistemi AI per classificare le persone sulla base non solo dell’etnia ma anche delle opinioni politiche o delle convinzioni religiose (questo si traduce, in pratica, nel divieto di utilizzare il riconoscimento facciale per schedare persone che partecipano a una manifestazione politica o a una manifestazione religiosa, per esempio. Ma occorrerà capire se, comprensibilmente, ci saranno eccezioni).

Sono stati identificati, quindi, una serie di ambiti di uso ad alto rischio per le tecnologie AI (casi in cui, in sostanza, si rischia di mettere a repentaglio sicurezza e diritti fondamentali degli individui). Tra questi troviamo: istruzione, occupazione, infrastrutture critiche, servizi pubblici, forze dell’ordine, amministrazione della giustizia, controllo delle frontiere.

Per quanto riguarda, invece, le aziende che forniscono sistemi AI e servizi AI di tipo generico (in primis i servizi di chatbot come ChatGPT), nell’AI Act viene stabilita la necessità di una maggiore trasparenza e collaborazione per rispettare l’obbligo di fornire tutte le informazioni necessarie quando si creano applicazioni che rientrano nelle categorie ad alto rischio.

Le sanzioni per chi non rispetta l’AI Act

Sono previste anche una serie di sanzioni a seconda della gravità dell’infrazione. Abbiamo, in primi, sanzioni amministrative fissate a una somma minima o che corrisponda a una percentuale precisa del fatturato globale dell’azienda a seconda dei casi. Le violazioni più gravi prevedono multe che possono raggiungere il 6,5% del fatturato globale annuo o 35 milioni di euro; per quanto riguarda la violazione degli obblighi riservati ai fornitori di sistemi AI, si parla del 3% o di 15 milioni di euro; il rifiuto di fornire le informazioni necessarie, quindi di essere trasparenti rispetto allo sviluppo dell’AI ai sensi dell’AI Act, può comportare una multa pari all’1,5% del fatturato annuo globale o di mezzo milione di euro.

Share this article