ChatGPT e gli altri target dell’AI Act
Per quanto riguarda lo sviluppo di prodotti e aziende AI, sono stati stabiliti una serie di criteri e di obblighi che coinvolgono non solo ChatGPT ma - in generale - tutte le entità che mettono in commercio strumenti basati sull'intelligenza artificiale
11/12/2023 di Ilaria Roncone
Come stiamo spiegando nel monografico di oggi, ci sono una serie di questioni messe sul tavolo delle negoziazioni che sono giunte al termine solo una volta sciolti i nodi – tra le altre – della regolamentazione delle aziende che producono intelligenza artificiale e prodotti su di essa basati. Si tratta, come sono stati definiti, dei modelli fondativi. Si tratta dei sistemi di addestramento che stanno alla base di strumenti AI come Bard o ChatGPT (i modelli sono, rispettivamente, LaMDA e GPT-4). Sulla regolamentazione di ChatGPT e dei sistemi che lo fanno funzionare si è giocato, quindi, parte di questo match che porterà alla stesura del testo definitivo dell’AI Act.
LEGGI ANCHE >>> Aspettando il testo: cosa sappiamo, finora, dell’AI Act
ChatGPT, modelli fondativi e obblighi da rispettare
I modelli fondativi sono stati inquadrati, innanzitutto, rispetto alla loro capacità computazionale. Le AI ad alto impatto sono quelle con un potere di calcolo pari a 10^25 FLOPs (floating point operations per second). Allo stato attuale delle cose, solamente a GPT-4 di OpenAI sembra essere assegnabile una tale potenza. Queste AI ad alto impatto devono, secondo l’AI Act, applicare una serie di regole rispetto alla sicurezza informatica, alla trasparenza dei processi di addestramento e alla condivisione della documentazione tecnica ancor prima che arrivino sul mercato. Per tutti i modelli fondativi che non raggiungano quella potenza, gli obblighi dell’AI Act scattano quando le aziende mettono in commercio i propri prodotti. Questo vuol dire, ovviamente, che nel mirino non troviamo solamente ChatGPT ma tutte quelle tecnologie AI che vengono messe in commercio a prescindere da quanto fatturano.
Tutto questo, secondo quanto ha affermato Carme Artigas, segretaria di Stato all’innovazione del governo spagnolo avente la presidenza del Consiglio europeo, per riconoscere «l’ampio impatto che i modelli possono avere». Queste regole non riguardano, invece, i modelli destinati esclusivamente alla ricerca.
Dal rispetto del diritto d’autore all’analisi dei rischi sistemici
Gli obblighi che verranno imposti puntano a garantire uno sviluppo dei sistemi di intelligenza artificiale e dei prodotti su essi basati che rispettino in toto i diritti fondamentali degli esseri umani. Di quali diritti parliamo? Del diritto d’autore, tanto per cominciare, di cui deve essere garantito il rispetto chiedendo alle aziende di pubblicare una lista dei materiali utilizzati per l’addestramento degli algoritmi. Così facendo, chi produce quei contenuti dovrebbe poter difendere o farsi riconoscere questi diritto.
Le aziende dovranno essere anche in grado di dimostrare in che modo hanno sviluppato la loro tecnologia e il fatto di non aver leso in nessuna maniera ai diritti fondamentali delle persone (un esempio pratico riguarda i sistemi per influenzare l’esito delle elezioni e il comportamento degli elettori). Tecnologie che, tra le altre cose, devono svilupparsii tenendo conto dei rischi sistemici, valutando strategie di mitigazione. A vegliare sul rispetto di tutto questo e sulle eventuali sanzioni ci sarà un apposito AI Office della Commissione europea.
Per concludere, i diritti fondamentali delle persone dovranno essere al centro dello sviluppo di qualsiasi sistema di intelligenza artificiale e – in particolar modo – nel mirino saranno tutte quelle aziende che producono prodotti con un maggiore potenziale di danno umano. In termini di competitività, queste norme punterebbero a riequilibrare un mercato in cui – evidentemente – Cina e Stati Uniti sono in netto vantaggio sull’Europa.