L’esultanza per l’AI Act ha senso, ad ora?

AI Act, riconoscimento biometrico in mano alle forze dell'ordine e regolamentazione dell'intelligenza artificiale che anima sistemi come ChatGPT: a che punto siamo?

16/12/2023 di Ilaria Roncone

Dopo 36 ore di trilogo tra Consiglio europeo, Commissione europea e Parlamento europeo si è giunti a una conclusione politica dell’AI Act: i nodi che erano stati individuati sono stati sbrogliati e ora si entra nella frase transitoria poiché tutto ciò che sarà messo nero su bianco nel testo della legge verrà messo in atto tra i sei e i ventiquattro mesi dall’entrata in vigore. La questione che maggiormente è stata dibattuta – occupando ben 22 delle 36 ore di negoziato – è stata quella del riconoscimento biometrico per ragioni di sicurezza in mano alle forze dell’ordine.

AI Act tra divieti, nodi sciolti e garanzie

Mentre l’AI Act diventa legge, l’intelligenza artificiale corre e i dubbi sono sempre gli stessi. Pur riconoscendo all’Ue il merito di essere la prima a regolamentare il settore, non c’è il rischio che – mentre passano i fisiologici tempi per l’approvazione del testo e per l’entrata in vigore delle regole – la regolamentazione umana si trovi sempre un passo (o più passi) indietro rispetto al fulmineo sviluppo tecnologico?

Oltre alla questione del riconoscimento biometrico in ambito sicurezza, il dibattito si è incentrato anche sui modelli fondativi. Si tratta delle tecnologie alla base di sistemi come ChatGPT o Bard. I leader di settore, da OpenAI a Google, e tutte quelle aziende che vogliano proporre prodotti che funzionano basandosi sull’intelligenza artificiale dovranno garantire determinati standard di sicurezza, trasparenza e il rispetto dei diritti fondamentali dell’essere umano. Ogni realtà dovrà essere in grado di dimostrare – pena multe milionarie – che al centro dello sviluppo del suo sistema sono stati messi l’uomo e il rispetto dei suoi diritti.

Share this article