L’atto del Garante nei confronti di OpenAI è parte di un «piano strategico»
Cosa succede ora, dopo l'esito positivo dell'incontro tra OpenAI e il Garante Privacy italiano? Abbiamo dialogato con Claudia Giulia Ferrauto, esperta di AI, per tracciare un quadro della situazione su ChatGPT
06/04/2023 di Ilaria Roncone
Cosa comporta l’accordo tra Garante della Privacy e OpenAI? Abbiamo dialogato con Claudia Giulia Ferrauto, esperta di innovazione e intelligenza artificiale e curatrice e autrice del libro “Intelligenza artificiale” (edizione Bollati Boringhieri 2021), per capire il suo punto di vista sugli ultimi sviluppi nel confronto tra le due realtà.
Al netto del fatto che l’esito dell’incontro è stato positivo, l’esperta ha fatto una serie di osservazioni su quella che – alla fine dei conti – è una vera e propria strategia da parte dell’Autorità italiana.
LEGGI ANCHE >>> Quali Garanti, nel mondo, seguono le orme dell’Italia su ChatGPT e quali no?
Un commento all’esito dell’incontro tra ChatGPT e OpenAI
«Trovo molto positivo che, a fronte di questo primo scambio abbastanza forte nei toni per l’eccezionalità del provvedimento emanato dal Garante, con OpenAI che ha reagito subito bloccando ChatGPT, ma poi si è reso disponibile – ha esordito Ferrauto -. Si tratta quindi di un primo passo importante poiché il dialogo è l’unica via per fronteggiare quella che sembra una dicotomia – ma, in effetti, non lo è – che è quella della tutela dei diritti a fronte del progresso in ambito tecnologico e, in particolare, dell’ambito dell’Intelligenza Artificiale».
Nell’incontro col Garante l’impegno preso da OpenAI è stato chiaro (“inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell’Autorità“):«OpenAI, in sostanza, ha accettato tutti i termini delle obiezioni mosse dal Garante e si sono impegnati a presentare un documento rispetto al quale, fino a che non esce, non possiamo entrare nel merito». Si tratta comunque di un buon inizio che evidenzia, tra le altre cose, come le osservazioni del Garante fossero pertinenti.
«Proprio perché l’ambito dell’AI – in particolar modo quella generativa – sta sviluppando una quantità di app e applicazioni in generale anche nel mondo dell’industria, tenere i fili di tutto è veramente difficile», afferma Ferrauto, confermando quello che in effetti è stato ammesso da OpenAI stesso in una sorta di “manifesto” in cui spiegano il loro modus operandi nel trattamento dati. «Le contestazioni fatte da filosofi – e anche da un punto di vista giuridico – alle osservazioni del Garante possono essere tutte giuste e tutte sbagliate allo stesso tempo».
Cosa significa questo? «Non sempre – ha spiegato l’esperta ai microfoni di Giornalettismo – quello che sembra essere in opposizione ai diritti è intenzionale. La mossa del Garante – seppure sotto certi aspetti si muova sul filo di lama per tutelare l’interesse dei cittadini -, non solo è legittima ma è stata, a mio parere, una mossa molto intelligente. Il collegio del Garante è fatto di persone molto preparate, non è che non si rendano conto di quanto sia border quello che hanno fatto».
Il Garante italiano è stato un apripista che ha messo in atto una strategia
Il punto è che «la dicotomia che viene vista spesso tra lo sviluppo di tecnologie come l’Intelligenza Artificiale generativa e la tutela dei diritti, dei dati e della privacy non esiste: sono due ambiti che tendono a viaggiar in parallelo. Questo è stato un momento di scontro scatenato da un provvedimento d’urgenza che è stato criticato ma che si sta rivelando un primo passo incredibilmente positivo e, come spiegavo anche su Punto e a capo (rubrica di tecnologia che curo per l’Istituto Leoni), a mio avviso il Garante italiano sta facendo scuola».
«Ha giocato una carta difficile – Ferrauto ne è consapevole – ma sta ottenendo che chi può operare realmente sta venendo a patti con l’istituto Garante dei dati e della privacy. In sostanza, noi stiamo facendo un gioco che è anche di strategia all’interno di questo botta e risposta. Analizzare è giusto, soprattutto per i giuristi – prosegue la studiosa – però da un punto di vista di comunicazione e di pubblico questa mossa va vista su un piano strategico per oggi e per il futuro; inquadrando il discorso della protezione dei dati in ottica più estesa – di tipo geopolitico, all’interno della quale il confronto tra Europa e Stati Uniti è già ampiamente avviato -, da questo confronto non si è riusciti a ottenere tutto quello che, dal nostro punto di vista, noi europei avremmo voluto ottenere».
Ciò che ha fatto il Garante italiano ha agitato le acque in tutto il mondo: «Con un provvedimento del Garante ha indirettamente bloccato un applicativo così diffuso, si è innanzitutto portato alla luce a livello generale un tema di cui o si parla poco si parla in modo impreciso, perché è un ambito molto tecnico. Una volta tolto “il giocattolo”, come reazione difensiva operata da OpenAI, tutti si sono interrogati su cosa significa difendere i dati degli utenti, la privacy e su cosa c’entri l’Intelligenza Artificiale», spiega l’esperta.
ChatGPT non dice sempre il vero e può citare anche fonti inesistenti
Non sono poche le persone che, nella polemica nata, sembrano non comprendere la portata – per esempio – di una fuga di dati e delle conversazioni su ChatGPT: «Ci sono quelli che lo usano per ridere ma ci sono anche persone che, per esempio, lo usano per avere risposte a livello medico». Una scelta che, andando indietro di un mese e mezzo, è stata incoraggiata dal CEO stesso di OpenAI Sam Altman: «In un tweet ha sottolineato come – tra le altre cose – avendo a disposizione un bacino di riferimento di informazioni molto ampio, l’intelligenza artificiale possa aiutare persone con problemi economici di accesso alla sanità – situazione notoriamente diffusa negli States – a ottenere risposte in ambito sanitario e medico».
Un consiglio, questo, che al netto di due recenti casi di cronaca che hanno coinvolto proprio ChatGPT potrebbe sembrare alquanto azzardato (il caso del sindaco australiano che vuole citare in giudizio OpenAI per averlo falsamente accusato di corruzione o – ancora – quello del docente indicato come molestatore di studenti citando come fonte un articolo del Washington Post del 2018 che non è mai esistito) e che lascia il tempo che trova.
La questione del valore economico dei dati
I dati, ha sottolineato giustamente Ferrauto, hanno un valore per la privacy e anche un valore economico e ognuno di noi dovrebbe comprenderlo. «Occorrerebbe definire tutti insieme alcuni punti di incontro comuni che associno la tutela dei dati e lo sviluppo tecnologico, che nessuno ha intenzione di limitare – come ribadito dal Garante stesso nella comunicazione di oggi -; i dati vengono troppo spesso visti come una fisima e non lo sono».
«Come mette in luce l’ipotesi di una causa per diffamazione, quella del sindaco australiano, in realtà l’utilizzo dei nostri dati può determinare conseguenze significative sulla vita di ognuno di noi; inoltre – e questo aspetto viene sempre trascurato ma con il blocco di ChatGPT sta emergendo – è anche una questione economica» (come abbiamo sottolineato anche nel nostro recente approfondimento sul cosiddetto “decreto influencer”). «Chi non vuole capire l’importanza dei dati sul piano della privacy è il caso che inizi a farlo sul piano economico», ha concluso Claudia Giulia Ferrauto, «anche perché senza dati l’AI non avrebbe modo di esercitare la sua natura».
(Immagine copertina: Foto IPP/zumapress)