La metamorfosi dell’AI Act, com’era-com’è

Il testo licenziato dal parlamento europeo ha avuto un approdo molto diverso rispetto alle premesse con cui era sorto. Del resto, nel frattempo, il mondo è cambiato dal punto di vista dell'AI

30/06/2023 di Gianmichele Laino

Un anno, quando si tratta di digitalizzazione, corrisponde più o meno a un’era geologica. Soprattutto se si tratta di tecnologie che sono nel cuore pulsante della ricerca e dell’evoluzione. L’intelligenza artificiale è proprio una di queste tecnologie, con un tasso di avanzamento degli studi e dei prodotti che davvero fa impressione. Se nella primavera del 2022, infatti, pensavamo che i maggiori rischi connessi all’intelligenza artificiale fossero dovuti nella fattispecie alla sua applicazione nel riconoscimento biometrico e alla conseguente applicazione al settore della pubblica sicurezza, oggi dobbiamo ricrederci e dobbiamo ammettere che la situazione più calda si trovi sul crinale dell’intelligenza artificiale generativa. Questa evoluzione diventa ancor più evidente quando una tecnologia è oggetto di esame da parte di un potere legislativo. Il parlamento europeo ha intuito che per l’intelligenza artificiale potesse essere necessario un inquadramento normativo specifico e quindi aveva iniziato a lavorarci sin dagli albori del 2022.

LEGGI ANCHE > «Elon Musk non potrà ignorare gli obblighi del DSA»

Cambiamento AI Act dal 2022 a oggi, le nuove esigenze

L’iter legislativo europeo di certo non aiuta la capacità di sovrapposizione all’innovazione tecnologica. La procedura ordinaria prevede che la Commissione Europea sottoponga una proposta al Consiglio e al parlamento. Quest’ultimo, soprattutto in presenza di emendamenti (che, nel caso dell’AI Act sono stati significativi), deve avviare i propri lavori e questa fase non prevede dei limiti di tempo. Successivamente, ogni istituzione che prenderà in esame il testo modificato avrà tre mesi di tempo (più un mese di proroga) per poter portare a termine l’esame. Va da sé che, mentre le istituzioni europee si riuniscono, le tecnologie vanno avanti.

È quello che è successo tra la fine del 2022 e l’inizio del 2023. Il mondo, a quell’altezza cronologica, ha scoperto ChatGPT e altri strumenti di intelligenza artificiale generativa. Strumenti che promettevano di rivoluzionare l’ecosistema lavorativo, che minacciavano l’utilizzo delle macchine per sostituire alcune professionalità, che portavano all’attenzione del pubblico dei contenuti (video, immagini, testi) che inquinavano la correttezza delle informazioni. Impossibile, dunque, che il testo in discussione al parlamento europeo si limitasse esclusivamente a normare il riconoscimento biometrico.

Per un certo periodo di tempo, le priorità dei legislatori erano state quelle di discutere del divieto per la polizia predittiva, dell’obbligo, per tutti gli usi ad alto rischio di intelligenza artificiale, di registrazione, di capire quali istituzioni stessero utilizzando questi strumenti, della sorveglianza dei lavoratori, della verifica della produttività, dei criteri che passano per il riconoscimento emotivo per assumere o licenziare. Poi, con ChatGPT, è cambiato tutto.

La rincorsa, quindi, è stata fatta sull’intelligenza artificiale generativa, che – non a caso – è entrata a gamba tesa da protagonista dell’AI Act, nella sua versione approvata dal parlamento europeo. Nonostante l’azione di lobby tentata dai vertici di Open AI e dalle altre società che si occupano del prodotto, alla fine nel testo si è cercato di imporre una regolamentazione molto stringente, soprattutto per quanto riguarda eventuali usi intrusivi e discriminatori dell’intelligenza artificiale. L’obiettivo, ora, è quello di far entrare nella legislazione dei singoli stati membri quanto previsto dal parlamento europeo. Il rischio, infatti, è un ulteriore ritardo rispetto allo sviluppo tecnologico. Che a questo punto, però, sarebbe incolmabile.

Share this article
TAGS