Il White Paper di OpenAI e la definizione di strumento “ad alto rischio”

Il documento a firma OpenAI pubblicato dal Time chiarisce la posizione dell'azienda che, sostanzialmente, non ha voluto essere definita creatrice di tool "ad alto rischio"

22/06/2023 di Ilaria Roncone

Si tratta di un documento inviato da Open AI nel settembre 2022 ai funzionari della Commissione e del Consiglio dell’Unione europea. Il White Papare di Open AI (il titolo completo è: “OpenAI White Paper on the European Union’s Artificial Intelligence Act”) racchiude, in buona sostanza, la posizione della società rispetto alla classificazione degli strumenti di AI generativa come “ad alto rischio”: «Di per sé – si legge nel paper – GPT-3 non è un sistema ad alto rischio ma possiede capacità che possono essere potenzialmente impiegate in casi di uso ad alto rischio».

O poco etico, sarebbe il caso di aggiungere, se si considera – per esempio – una delle ultime notizie che arrivano dalla Germania: la testata tedesca Bild ha deciso di fare a meno, a partire da gennaio 2024, di duecento giornalisti tra caporedattori, redattori, correttori di bozze, segretari e photo editor. Queste persone verranno sostituite dall’intelligenza artificiale.

LEGGI ANCHE >>> L’esclusiva del Time su Open AI che fa lobby per annacquare l’AI Act

White Paper OpenAI, si parte con l’elogio all’Ue

Nel documento di sette pagine c’è una parte introduttiva che spiega cosa sia OpenAI secondo OpenAI, ovvero «un’azienda che si occupa di ricerca e sviluppo di IA con la missione di garantire che l’intelligenza artificiale generativa sia sviluppata e utilizzata in modo da apportare benefici a tutta l’umanità». Il focus viene immediatamente portato su tre sistemi sviluppati da OpenAI: GPT-3 («modello linguistico di grandi dimensioni che esegue una varietà di compiti legati al linguaggio naturale»), DALL-E («sistema di generazione di immagini che disegna immagini dettagliate a partire da input di testo») e CODEX («sistema di generazione di codice che scrive codici a partire da un input di testo»).

Tre diversi sistemi di AI generativa, quindi, che negli ultimi mesi hanno sollevato discussioni in tutto il mondo rispetto ai rischi che potenzialmente possono comportare (dalla generazione di contenuti fake che possono fare disinformazione e alterare le sorti di guerre, conflitti, discussioni nel mondo alla perdita di molti posti di lavoro più o meno specializzati potenzialmente nella quasi totalità degli ambiti lavorativi).

OpenAI afferma di «investire molto in ricerca e formulazione di politiche, nell’analisi e nella riduzione dei rischi, nell’infrastruttura tecnica e di processo per massimizzare l’uso sicuro delle nostre tecnologie». Nel documento OpenAI afferma di essere perfettamente consapevole del fatto che «la realizzazione di tali benefici richiede una supervisione e una governance dell’AI che vada al di là della sola industria» e quindi «sosteniamo approcci normativi e politici ponderati, volti a garantire che i potenti strumenti dell’IA vadano a beneficio del maggior numero i persone e ci congratuliamo con l’Ue per aver affrontato l’immensa sfida di una legislazione completa sull’IA attraverso l’Artificial Intelligence Act (AIA)».

Si parla inoltre di condivisione di obiettivi rispetto all’«aumento della fiducia del pubblico negli strumenti di AI, garantendo che siano costruiti, distribuiti e utilizzati in modo sicuro» definendo l’AI Act un «meccanismo chiave per garantire questo risultato». OpenAI afferma inoltre di controllare che «le applicazioni costruite con i nostri strumenti aderiscano a politiche di utilizzo che escludano usi dannosi o particolarmente rischiosi; monitoriamo e controlliamo le applicazioni per aiutare a prevenire usi impropri; e impieghiamo un processo di distribuzione iterativo, attraverso il quale rilasciamo prodotti con funzionalità di base e restrizioni rigorose, e lentamente espandiamo le funzionalità e/o restrizioni».

In che modo si è ottenuto il cambiamento della definizione “ad alto rischio”

Affermando di voler fornire una serie di «suggerimenti sul potenziale impatto e sulle questioni da considerare», OpenAI inquadra sistemi come Gpt-3 non ad alto rischio di per sé ma «con capacità che possono essere potenzialmente impiegate in casi d’uso ad alto rischio».

Sono state quindi delineate, consapevolmente rispetto a questo, delle «”applicazioni ad alto rischio” degli strumenti in settori quali la legge, la medicina, la politica, la finanza e i servizi civili in cui le applicazioni proposte per l’utilizzo dei nostri servizi sono soggette a un esame supplementare che richieste una chiara identificazione e gestione dei rischi».

Un esempio pratico: «In un contesto occupazionale, non sosterremmo un caso d’uso che preveda l’uso di GPT-3 per determinare l’idoneità all’impiego, ma potremmo sostenere un caso d’uso in cui GPT-3 assiste un utente suggerendo un potenziale testo per gli annunci di lavoro (che viene rivisto dall’utente prima della pubblicazione), dati i limiti più semplici e il rischio relativamente minore di quest’ultimo».

Detto ciò, il parere di OpenAI è quello di non rientrare – di fatti – nei sistemi “ad alto rischio” poiché esclude e condanna esplicitamente qualsiasi tipologia di usi rischiosi dei suoi sistemi («Come già detto – si legge nel paper – consideriamo e continuiamo a rivedere costantemente i diversi modi in cui i nostri sistemi possono essere utilizzati in modo improprio e adottiamo molte misure di protezione volte a evitare e contrastare tali abusi»).

Proprio in virtù di tutti questi viene chiesto di riconsiderare il linguaggio nel testi della legge «in modo da incentivare piuttosto che penalizzare i fornitori che considerano e affrontano l’uso improprio del sistema, soprattutto se intraprendono azioni che indicano che stanno evidentemente identificando e riducendo i rischi». Con le conseguenze sugli emendamenti fatti al testo finale di cui vi abbiamo parlato nell’articolo su ciò che OpenAI è riuscito a ottenere facendo pressing.

Share this article