L’AI corre più veloce della legge: come farà questo accordo a resistere a eventuali nuove evoluzioni?

Del resto, di AI Act si parla già dal 2020 e c'è stato già un momento in cui si è dovuto cambiare orizzonte rispetto a quanto era stato scritto

11/12/2023 di Gianmichele Laino

Immaginate un’autostrada e una strada statale di montagna. La prima dritta e veloce, con tre corsie per ogni senso di marcia. La seconda, stretta e tortuosa, piena di buche e con l’alert costante per una possibile caduta massi. Si tratta di un paragone calzante per descrivere qualsiasi ambito di innovazione digitale (che corre sempre lungo l’autostrada) e qualsiasi istituzione che cerchi di normarlo (che, invece, si arrampica a fatica sulla strada statale di montagna). È successo anche per l’AI Act e – dal momento che le premesse sono quelle che abbiamo descritto in questo monografico di oggi – probabilmente succederà ancora. Siamo di fronte, infatti, a una tecnologia – quella che si serve dell’intelligenza artificiale – che è l’ambito di ricerca maggiormente sviluppato da tutte le grandi multinazionali del Tech in questo periodo storico. E siamo di fronte a una legge, l’AI Act, che troverà la sua applicazione completa nei vari stati soltanto tra 24 mesi. Logico che, in due anni, cambieranno tante, troppe cose nell’evoluzione dell’AI.

LEGGI ANCHE > Aspettando il testo: cosa sappiamo fino a questo momento dell’AI Act

L’evoluzione dell’AI vs i tempi tecnici di una legge come l’AI Act

In effetti, il legislatore europeo avrebbe dovuto già essere esperto di tutto questo. Se consideriamo che una discussione sulla regolamentazione di un settore come quello dell’intelligenza artificiale sta andando avanti dal 2020 e se consideriamo le evoluzioni che, nel frattempo, questo settore ha fatto registrare, allora comprendiamo davvero bene come ulteriori tempi tecnici sono difficilmente digeribili. Basta, del resto, ripercorrere le tappe dell’evoluzione normativa dell’intelligenza artificiale.

Nel 2020, il Consiglio Europeo aveva invitato la Commissione europea a dare una cornice ai possibili investimenti, sia in ambito comunitario, sia in ambito nazionale, fatti negli anni successivi nel settore dell’intelligenza artificiale. In questa cornice si sarebbe dovuto prevedere una sorta di coordinamento nei principali centri di ricerca accademici che si occupavano di AI, in modo tale da favorire progetti di eccellenza e sottrarre spazi di iniziativa ai privati (che, invece, avrebbero sfruttato le nuove tecnologie esclusivamente per motivi di profitto). Già nel 2020, inoltre, si chiedeva alla Commissione Europea di prevedere alcune definizioni per sistemi di intelligenza artificiale definiti ad alto rischio.

Alla fine, però, un primo provvedimento è entrato in discussione nel 2021 e un primo accordo, su questa base, era stato raggiunto nel dicembre 2022. Il focus di questo accordo era sui sistemi che prevedevano al loro interno l’utilizzo del riconoscimento biometrico: una delle questioni più importanti era quello di far rispettare, in questo ambito, i diritti umani e il rispetto della privacy dei cittadini. In questa prima fase, infatti, il problema più evidente al grande pubblico rispetto all’intelligenza artificiale era quello della schedatura dei volti e di altri tratti biometrici. Problemi che permangono ancora adesso, sia chiaro, ma che sono stati – nel frattempo – affiancati alle nuove evoluzioni dell’AI anche da un punto di vista generativo.

Tra la fine del 2022 e l’inizio del 2023, l’esplosione di OpenAI e del suo strumento ChatGPT ha portato a un supplemento di riflessione sull’intelligenza artificiale. Accordi e iniziative sono stati al centro di tutta la prima parte del 2023, che ha portato a un primo voto del Parlamento europeo a giugno di quest’anno. Da qui, si è proseguito con le trattative che sono arrivate fino al tavolo del trilogo (Consiglio, Commissione e Parlamento) e che sono state approvate l’8 dicembre. Ora, però, manca un testo. Quando questo verrà depositato, dovranno passare altri sei mesi per vedere operative le sanzioni e le limitazioni e altri 24 mesi per una piena applicazione, anche negli Stati membri dell’Unione Europea, dell’AI Act.

Quali possono essere le conseguenze di questo disallineamento

È facile immaginare che, laddove in passato siano bastati pochi mesi per capovolgere completamente le prospettive dell’intelligenza artificiale e delle sue applicazioni, un periodo di tempo così lungo non faccia altro che favorire delle riflessioni all’interno delle varie aziende, delle istituzioni e di altri soggetti privati che stanno investendo grosse cifre nel settore dell’intelligenza artificiale. Anche perché alcune tecnologie – che non sono state previste ancora nemmeno da quest’ultima discussione legata all’AI Act, basti pensare all’intelligenza generale artificiale (che sarebbe in stato avanzato in alcuni progetti di OpenAI) – sembrano già pronte per essere immesse sul mercato. La sensazione è che lo sviluppo tecnologico avrà sempre un vantaggio incolmabile rispetto al legislatore. E che questo sviluppo tecnologico potrebbe rendere vana qualsiasi iniziativa di regolamentazione del settore.

Share this article
TAGS