Aspettando l’AI Act si procede con l’AI Pact
L'entrata in vigore dell'AI Act richiede tempi tecnici ma l'Ue sta chiedendo una dimostrazione alle aziende tecnologiche invitandole a contrarre l'AI Pact
30/06/2023 di Redazione Giornalettismo
Destinazione responsabilità condivisa. Questa è l’ottica che emerge dalle ultime dichiarazioni e azioni compiute in ambito AI Act e dintorni. Partendo dal presupposto ormai universalmente riconosciuto, quello di un’intelligenza artificiale che va rivoluzionando il nostro modo di vivere in ogni ambito a livello più o meno profondi, è emersa la necessità di sottoscrivere un accordo volontario sulla regolamentazione dell’ AI (tale AI Pact) che preceda l’entrata in vigore del regolamento europeo AI Act, che prima di entrare in vigore (il che potrebbe avvenire non prima del 2026).
LEGGI ANCHE >>> Cosa dicono (o cosa non dicono) DSA e AI Act sulla monetizzazione dei siti che usano l’intelligenza artificiale
Come funziona l’AI Pact e chi sta aderendo
Thierry Breton ha lavorato – nell’ultimo periodo – per raccogliere l’adesione delle Big Tech al cosiddetto AI Pact. Si tratta di un accordo volontario che lega, in qualche modo, Google, Meta e OpenAI (insieme a tutte le altre che accettano di entrare a farne parte) a un determinato standard posto prima che entri in vigore l’AI Act, un regolamento che tutte le Big Tech e le aziende che lavorano con l’intelligenza artificiale saranno tenute a rispettare per operare in Europa. Le specifiche precise dell’AI Pact, a questo punto, sono ancora da studiare considerato che l’idea è stata lanciata circa un mese fa.
Mark Zuckerberg (Meta) e Sam Altman (OpenAI) si sono detti concordi con l’approccio normativo dell’Unione Europea, basato sul rischio e sul sostegno a misure come i watermarking per ciò che viene prodotto tramite l’AI. Altman ha lodato le istituzioni europee per la lungimiranza con la quale stanno affrontando la regolamentazione dell’intelligenza artificiale e OpenAI – a sua detta – è desideroso di conformarsi alle normative europee. Anche Nick Clegg, presidente Meta per gli Affari globali, si è detto concorde sul fatto che le aziende tecnologiche debbano essere trasparenti rispetto ai progetti che hanno in cantiere e in essere che prevedono l’utilizzo dell’intelligenza artificiale.
Obiettivo responsabilità condivisa
Intenzioni e azioni, quindi, puntano nella direzione di una cooperazione per uno sviluppo sicuro e sostenibile dell’intelligenza artificiale. Toccherà attendere per vedere in che modo e misura tutto questo impatterà – se riuscirà a farlo – sullo sviluppo della tecnologia che, per ora, non ha trovato ostacoli davanti a sé.
Oltre alla responsabilità condivisa si punta anche alla trasparenza reciproca e allo stabilire una serie di pratiche etiche. Tutto sta nel capire se la Commissione Ue sarà in grado di far valere i patti e i regolamenti su carta, riuscendo a creare un modello che possa aprire la strada a una regolamentazione su scala globale del progresso tecnologico che sia in gradi di stare al passo con il rapidissimo sviluppo dell’AI.