«Il governo italiano non pensi a piccoli interessi ed equilibri politici sull’AI Act»

L'intervista all'europarlamentare Brando Benifei, correlatore del Regolamento Europeo sull'intelligenza artificiale approvato lo scorso 14 giugno dal Parlamento UE

30/06/2023 di Ilaria Roncone

In attesa delle negoziazioni finali con i vari Stati membri, l’AI Act – il primo regolamento europeo sull’intelligenza artificiale – si appresta a diventare effettivo con tutte le sue linee guida per arginare gli abusi di queste nuove tecnologie. Regolamentazione a livello di mercato digitale e non solo: perché tra i tanti aspetti – oltre a quello del riconoscimento biometrico – ce ne sono altri atti a rendere le aziende molto più responsabili rispetto allo stato attuale delle cose. Di tutto ciò ne abbiamo parlato con l’europarlamentare Brando Benifei, correlatore all’Europarlamento del regolamento.

LEGGI ANCHE > Cosa manca all’AI Act per essere definitivamente approvato

In particolare, l’attenzione – soprattutto per il “successo” negli ultimi mesi di strumenti come ChatGPT – si è spostata sulla sicurezza delle nuove tecnologie: «Per i large language models – ha spiegato a Giornalettismo Brando Benifei – abbiamo previsto alcuni obblighi specifici, in particolare quello della trasparenza. Le aziende dovranno dichiarare che i loro output sono creati dall’AI, ma soprattutto dovranno progettare questi sistemi in modo che non generino contenuti illegali. Da ultimo, per evitare che i lavori di artisti e content creators sia rubato e usato senza permesso, dovranno rendere noto se e quali dati protetti da copyright hanno usato per l’addestramento dell’AI».

Da un grande potere derivano grandi responsabilità. Cosa accadrebbe, dunque, alle aziende che violeranno i rigidi paletti previsti dall’AI Act? «Sarebbero soggette a sanzioni che, rispetto a quelle proposte dalla Commissione, il Parlamento ha innalzato. Parliamo di un massimale di 40 milioni di euro o il 7% del fatturato globale. Per fare un paragone, quelle previste dal GDPR sono di 20 milioni o il 4% del fatturato».

Brando Benifei, cosa accadrà con l’approvazione dell’AI Act

Paletti e sanzioni per cercare di normare un settore che – finora – ha goduto di molta libertà, provocando anche molte contestazioni. Di recente, per esempio, si è parlato anche di un possibile “disimpegno” di aziende come OpenAI dal mercato europeo, proprio per via del regolamento che impone molte più responsabilità. Ma c’è la possibilità che questa “minaccia” diventi reale? «Questo non lo posso prevedere – ci ha spiegato Benifei -. Quello che posso dire è che negli ultimi anni, ad ogni proposta di regolamento europeo, tante aziende hanno fatto la stessa minaccia, ma sono ancora tutte qui. Il mercato europeo è troppo appetibile per rinunciare. Ma chi vuole lavorare in Europa deve anche rispettarne, prima che le regole, i valori che vedono al centro la tutela dei diritti fondamentali delle persone».

E parlando di contestazioni, non si può non far riferimento alla querelle tra il Garante Privacy italiano e OpenAI, con l’azienda americana guidata da Sam Altman che – alla fine – si è “convinta” a recepire tutte le modifiche richieste dall’Autorità nostrana. E anche all’interno del regolamento europeo, c’è un ampio spazio dedicato alla tutela dei dati degli utenti: «La protezione dei dati personali è ampiamente presente nel testo dell’AI Act, e lo era già nel testo proposto dalla Commissione nel 2021. Il merito del Garante è stato quello di accendere un faro sulla legittimità, rispetto alle norme già vigenti sulla protezione dei dati personali, di software come ChatGPT e i large language models, ricordandoci anche che l’AI Act servirà a regolare gli ulteriori scenari che si paleseranno, non quelli per cui si possono applicare le norme già vigenti».

L’AI Act in Italia

Ora, dopo l’approvazione del Parlamento Europeo dello scorso 14 giugno, sta arrivando il momento delle negoziazioni con gli Stati Membri. Il governo italiano, attualmente guidato dalla maggioranza di Centrodestra, ha idee piuttosto confuse sullo sviluppo tecnologico e questo potrebbe portare a un rallentamento nelle procedure di “entrata in vigore” dell’AI Act? «Trattandosi di un regolamento esso è auto applicante, quindi non necessita di essere recepito come una direttiva. Certamente ci sono alcune cose che gli Stati dovranno fare, inclusa la creazione dell’ufficio dell’Autorità che regolerà l’AI, e questa autorità dovrà avere le risorse, umane ed economiche, per affrontare questa sfida. Non vorrei che una partita così importante si giocasse solamente guardando a piccoli interesse ed equilibri politici di basso profilo, come abbiamo visto in altri casi. L’Italia ha dimostrato – ha concluso Brando Benifei a GTT – finora di essere un attore assolutamente competente nel settore della protezione dei dati, riconosciuto a livello internazionale, e sono certo che possiamo esserlo anche nell’Intelligenza Artificiale, purché la nuova Autorità abbia le persone giuste e competenti di cui c’è bisogno».

Share this article
TAGS