Cosa ha ottenuto OpenAI facendo pressing sulle modifiche all’AI Act

Dal White Paper dell'azienda, pubblicato dal Time, emergono alcuni dettagli. In particolare quello sulle modifiche dei riferimenti al concetto di modelli di intelligenza artificiale ad alto rischio

22/06/2023 di Redazione Giornalettismo

Sam Altman, nelle sue dichiarazioni pubbliche, si è sempre mostrato molto incline ed entusiasta di fronte alla possibilità di regolamentare i modelli di intelligenza artificiale per evitare che questa nuove tecnologie prendano sopravvento sull’uomo, diventando incontrollabili. Uno scenario apocalittico da film a cui lo stesso fondatore dell’azienda che ha dato vita (anche) a ChatGPT ha fatto più volte riferimento. Ed è proprio qui che si palesa il paradosso: mentre pubblicamente venivano affermate determinate cose, OpenAI ha agito – nella più classica attività di lobbying – affinché i funzionari dell’Unione Europea annacquassero alcuni paletti inseriti all’interno dell’AI Act, approvato dal Parlamento UE lo scorso 14 giugno.

LEGGI ANCHE > L’esclusiva del Time su Open AI che fa lobby per annacquare l’AI Act

A rivelare questo retroscena è stato il britannico Time che ha ricostruito questa attività di lobbying condotta dai rappresentanti dell’azienda statunitense nei confronti dell’Europa. Lo stesso quotidiano ha pubblicato il documento – un “White Paper” -, una relazione che OpenAI ha scritto proprio al Consiglio UE nel settembre del 2022. All’epoca, infatti, era iniziata la discussione con tanto di modifiche al testo dell’AI Act. E, facendo queste “pressioni”, Sam Altman sembra essere riuscito a portare a casa alcuni risultati.

OpenAI-AI Act, l’esito del pressing sull’Europa

In particolare, il testo approvato lo scorso 14 giugno dal Parlamento Europeo, rispecchia in alcuni aspetti le richieste avanzate da Open AI all’interno di quel White Paper. In particolare, l’azienda americana è riuscita a far declassare i sui “prodotti” GPT-3 e DALL-E da modelli “ad alto rischio” a un segmento inferiore rispetto a questa scala. Questo comporta maggiori responsabilità da parte dell’azienda. E nel documento inviato al Consiglio UE, questo aspetto viene esplicitamente dichiarato:

«La nuova formulazione dell’Allegato III 1.8.a potrebbe inavvertitamente imporre di considerare GPT-3 e DALL-E come sistemi intrinsecamente ad alto rischio, in quanto teoricamente in grado di generare contenuti che rientrano nell’ambito di applicazione della clausola. Suggeriamo che, invece di aggiungere queste clausole aggiuntive all’Allegato III, si possa fare affidamento sull’Articolo 52 (o modificarlo se lo si ritiene opportuno). Questo articolo può richiedere e garantire in modo sufficiente che i provider mettano in atto misure di mitigazione ragionevolmente appropriate per quanto riguarda la disinformazione e i deepfake, come ad esempio il watermarking dei contenuti o il mantenimento della capacità di confermare se un determinato contenuto è stato generato dal loro sistema». 

Escamotage recepito e applicato all’interno dell’ultima versione dell’AI Act, dove le cosiddette “general purpose AI” – intelligenze artificiale generiche – sono state declassate nella scala dei rischi. Dunque, chi sviluppa questi prodotti – tra cui OpenAI – dovrà solamente rispondere ai requisiti di trasparenza e non più anche di trasparenza e governance dei dati.

Tutto cambia per non cambiare (tutto)

Ma non finisce qui. Perché tra gli altri “allentamenti” a cui si è arrivati dopo il confronto OpenAI-AI Act (ma The Verge ha raccontato di come anche Google e Microsoft abbiano fatto pressioni e attività di lobby per cercare di ridurre le responsabilità indicate in alcuni emendamenti al testo iniziale del regolamento) ce n’è uno che riguarda le eccezioni all’utilizzo dei modelli di intelligenza artificiale generativa per quel che riguarda campi come istruzione e occupazione. Nella bozza iniziale, l’applicazione in questi settori era considerata “ad alto rischio”. Ora, invece, tutto è stato annacquato.

Share this article