Ci sono ostacoli sulla strada dell’entrata in vigore dell’AI Act?

Una proposta di accordo tra Parlamento, Consiglio e Commissione UE sembra esser stata trovata. Ma si discute sulla classificazione "ad alto rischio"

26/10/2023 di Enzo Boldi

Un accordo (anche se ancora sotto forma di bozza) tra le parti sembra esser stato trovato, inserendo anche alcune caratteristiche già presenti all’interno del Digital Service Act. Ma la strada per l’effettiva entrata in vigore dell’AI Act sembra essere ancora irta di ostacoli. Dopo il voto favorevole al testo da parte del Parlamento Europeo, arrivato lo scorso 14 giugno, è iniziata la fase che dovrebbe portare alla definitiva approvazione, propedeutica alla pubblicazione in Gazzetta Ufficiale e all’inizio dell’epoca della legge europea sull’intelligenza artificiale. Negli ultimi giorni, dove ci sono state moltissime interlocuzioni per quel che riguarda i negoziati, è emerso – nuovamente – il problema relativo alla “classificazione”.

LEGGI ANCHE > Cosa manca all’AI Act per essere definitivamente approvato

Questa problematica potrebbe rallentare i tempi di entrata in vigore del pacchetto di norme europee sull’intelligenza artificiale. Come riporta il portale Euractiv, infatti, gli europarlamentari hanno proposto una nuova versione delle “disposizioni relative alla classificazione dei sistemi di intelligenza artificiale ad alto rischio”, sempre utilizzando il sistema basato sui filtri. Il tutto, nonostante fosse arrivato, solo qualche ora prima, un parere negativo da parte dell’Ufficio legale del Parlamento UE.

AI Act, le discussioni sulla classificazione “Alto rischio”

Nella giornata di oggi, Giornalettismo affronterà proprio questi ostacoli che si stanno ponendo sulla strada dell’entrata in vigore dell’AI Act. Un percorso che sembrava essere privo di dossi e che, invece, si sta rivelando molto più complesso rispetto alle aspettative. La classificazione, infatti, è stato uno dei temi al centro di grandi dibattiti anche prima del voto del Parlamento europeo. Come spiegato da Euractiv, venerdì 20 ottobre i due europarlamentari proponenti (Dragoș Tudorache e Brando Benifei) hanno presentato alcune modifiche, con una nuova versione del testo, andando a toccare proprio l’etichettatura dei sistemi considerati ad “alto rischio”, ovvero quelli che – per diffusione e “potenza” – devono rispettare i vincoli più stringenti del regolamento.

Di fatto, dunque, la nuova versione del testo ha modificato alcuni criteri di classificazione. In origine, infatti, erano considerati ad “alto rischio” quei sistemi che rispondevano – automaticamente – a determinati casi d’uso critici. Venerdì scorso, invece, si è passati a una serie di “eccezioni” che, di fatto, inseriscono dei filtri che possono portare ad alcune deroghe di applicazione di questa etichetta. Il tutto andrebbe in direzione parzialmente contraria rispetto al parere dell’Ufficio legale del Parlamento Europeo. Si tratta di argomenti di rilevanza, ma che non dovrebbero rallentare l’iter dell’AI Act.

Gli obblighi per i foundation models

Nel frattempo, oltre al parere dell’Autorità Garante per la Privacy europeo, l’accordo (la bozza) tra Parlamento, Consiglio e Commissione UE prosegue sembra aver trovato dei punti di unione. In particolare, si è deciso di applicare alcuni paletti già presenti all’interno del Digital Service Act. Perché l’AI Act, così come scritto, va a colpire i prodotti (ChatGPT, per esempio), mentre l’inserimento dell’azione diretta sui cosiddetti foundation models andrebbe a fissare le etichette (e, di conseguenza, gli obblighi) sul livello di rischio a partire dai modelli di base (GPT-4 o PaLM di Google).

Share this article
TAGS