Il parere negativo dell’Ufficio legale del Parlamento UE sui “filtri” per la classificazione

Gli esperti dell'Unione Europea hanno parzialmente bocciato la nuova soluzione che prevede dei filtri per designare il livello "ad alto rischio"

26/10/2023 di Enzo Boldi

Come spiegato in diverse occasioni, il voto favorevole del Parlamento Europeo dello scorso 14 giugno rappresenta solamente uno dei tanti step in vista della reale entrata in vigore del pacchetto di regole comunitarie sull’intelligenza artificiale. L’AI Act, infatti, per diventare effettivo deve “superare” l’ultimo step, quello relativo ai negoziati. E proprio in questa fase sono sorte alcune difficoltà, potenzialmente risolvibili, per quel che riguarda la struttura del sistema di classificazione delle AI considerate “ad alto rischio”, ovvero quei prodotti che dovranno seguire i vincoli e gli obblighi più stringenti previsti dalla legge.

LEGGI ANCHE > Ci sono ostacoli sulla strada dell’entrata in vigore dell’AI Act?

Proprio su questo tema, fin dall’inizio di ottobre, si è aperto un dibattito su cui è stato chiesto il parere dell’Ufficio legale del Parlamento Europeo. Infatti, nella fase di discussione postuma rispetto all’approvazione del testo, sono state proposte delle soluzioni sulla classificazione AI ad alto rischio che potrebbero modificare alcuni paradigmi strutturali. Si parla di un sistema di “filtri” che andrebbe a sostituire la classificazione automatica. Ma su questo tema, è arrivato un parere negativo. Nonostante ciò, come abbiamo raccontato, la proposta è comunque arrivata sul tavolo negoziale.

Classificazione AI ad alto rischio, il parere legale negativo

Occorre, ovviamente, fare una piccola premessa esplicativa sul nuovo sistema proposto dai co-relatori dell’AI Act sul tavolo negoziale. In pratica, si vuole arrivare a una classificazione dei livelli di rischio seguendo alcuni filtri. Dunque, si andrebbe ad agire in modo orizzontale, senza una verifica “caso per caso”. Come spiega Euractiv, che ha visionato il suddetto parere negativo, l’Ufficio legale del Parlamento UE ha messo in evidenza alcune storture. La prima riguarda un paradosso: trattandosi di “linee guida”, questi “paletti” sulla classificazione non sarebbero vincolanti rispetto al testo stesso della legge approvata.

Ma non c’è solo questo. La solidità giuridica delle condizioni di “filtraggio” è messa in dubbio da un aspetto contraddittorio: se nella definizione si lascia un elevato livello di autonomia ai produttori di prodotti e sistemi di intelligenza artificiale, si andrebbe in contrasto con l’identificazione dei reali sistemi considerati e considerabili “ad alto rischio”. Inoltre, i filtri potrebbero portare a una disparità di trattamento (con una possibile confusione tra cosa sia ad alto rischio e cosa non lo sia).

E quindi?

L’Ufficio legale del Parlamento UE, dunque, ritiene che questi filtri porterebbero a un’azione orizzontale nei confronti della classificazione AI ad alto rischio, sottolineando come dovrebbe essere compito dei responsabili politici dell’Unione Europea definire – caso per caso – le “eccezioni” a questa classificazione che prevede un controllo maggiore. I motivi sono semplici: un sistema di filtri pre-costituiti rischia di provocare un imbuto strettissimo e penalizzante per lo sviluppo dei sistemi di intelligenze artificiale e, soprattutto, porterebbe a una possibile incoerenza nelle azioni che si andrebbe a sommare a una confusione di base sulla definizione stessa del livello di rischio.

Share this article
TAGS