Il Garante europeo dice che l’attività di scraping di OpenAI per l’addestramento di ChatGPT è di pubblico interesse
È il primo esito delle osservazioni della task force su ChatGPT che si è costituita all'indomani dello scontro tra OpenAI e il Garante della Privacy italiano
28/05/2024 di Gianmichele Laino
Attenzione. Non stiamo parlando di un’analisi che possa essere definita in qualche modo definitiva. La relazione della task force su ChatGPT presso il garante europeo della privacy è solo un punto preliminare rispetto alla conformità dello strumento di OpenAI basato sull’intelligenza artificiale con le regole europee che riguardano la privacy e che, proprio recentemente, stanno provando a normare questo settore (caso unico a livello globale, grazie all’AI Act). Qualche giorno dopo la definitiva approvazione a livello comunitario dell’AI Act e in attesa che quest’ultimo venga assimilato nei vari ordinamenti dei Paesi membri dell’Unione Europea, l’EDPB (ovvero il super garante della privacy a livello comunitario) ha diffuso le sue conclusioni preliminari rispetto agli scopi di OpenAI, alla sua azione in un alveo di conformità giuridica e alle azioni che dovrebbe mettere in atto per mitigare i rischi.
LEGGI ANCHE > ChatGPT rischia un nuovo blocco in Italia?
Scraping di OpenAI: l’azione può avere un legittimo interesse pubblico?
La prima notizia è che, sostanzialmente, non c’è una preclusione rispetto al meccanismo di addestramento di ChatGPT che più volte è stato messo in discussione non soltanto dai regolatori europei, ma anche da tutti coloro che – a livello globale – prestano opere di ingegno. Gli scontri che hanno portato ChatGPT a essere sospeso per un certo periodo di tempo in Italia, ad esempio, o il recente problema che si è verificato in Polonia con ChatGPT (dove l’azienda che produce lo strumento si è rifiutata di rettificare delle descrizioni di personaggi pubblici palesemente viziate da errori) sembravano far presagire un parere negativo su tutta la linea del Garante europeo della privacy rispetto all’attività di scraping del web che OpenAI esegue per addestrare i suoi modelli di intelligenza artificiale e renderli più consoni ai prompt che gli utenti richiedono.
Insomma, la notizia principale – che viene evidenziata anche dall’esperto DPO Christian Bernieri – è che l’EDPB riconosce un legittimo interesse da parte di OpenAI nell’attività di scraping:
SCRAPING (aver sgrafignato ogni cosa esistente sul web):
il rapporto riconosce che OpenAI si basa su un interesse legittimo per raccogliere ed elaborare i dati personali per addestrare ChatGPT
BOOM!
— Christian Bernieri – DPO (@prevenzione) May 24, 2024
C’è una sorta di pubblica utilità, insomma, che viene riconosciuta a ChatGPT e – quindi – in virtù di quest’ultima il Garante europeo non esclude che lo strumento attraverso cui ChatGPT si perfeziona (ovvero la collezione dei dati pubblici raccolti in rete) possa essere legittimo. C’è un ma. L’interesse è legittimo ma deve essere mitigato nei suoi rischi attraverso alcune misure che non possono essere sottovalutate in alcun modo. Ad esempio, il fatto che i dati siano pubblici non è detto che questi possano essere resi manifestamente pubblici: c’è la questione del consenso, insomma, che OpenAI deve riuscire ad affrontare in maniera più efficace per poter continuare ad agire indisturbato in un contesto europeo normato dal GDPR e dall’AI Act.
Inoltre – si legge nel rapporto della task force – «dovrebbero essere adottate misure per eliminare o rendere anonimi i dati personali raccolti tramite web scraping prima della fase di formazione», un obiettivo che potrebbe sicuramente tutelare le identità dei soggetti coinvolti. Il Garante europeo, inoltre, riconosce a OpenAI la buona volontà nell’aver “coperto” in qualche modo le falle alla base della querelle con il Garante italiano, dicendosi in qualche modo fiducioso rispetto al fatto che possa uniformarsi anche a ulteriori rilievi che verranno fatti in futuro.
Perché – e qui torniamo al punto di partenza – il report della task force è tutt’altro che conclusivo. Il Garante europeo della Privacy ha ancora molti dubbi di conformità e di trasparenza rispetto a OpenAI, dubbi che verranno esaminati nei prossimi mesi e che potranno essere valutati anche attraverso un questionario conclusivo che la task force allega al suo report. Tra le altre cose, si chiede una spiegazione tecnica del funzionamento di ChatGPT, l’inserimento di contatti diretti a cui OpenAI possa essere raggiunta, maggiori dettagli rispetto al DPO di OpenAI, le intenzioni di OpenAI di conformarsi al regolamento europeo sulla privacy e i principi di trasparenza che verranno rispettati. All’indomani delle risposte a questi quesiti – probabilmente – la posizione della task force su ChatGPT sarà molto più chiara.