La contemporanea battaglia del Garante della privacy polacco su ChatGPT
Nel grande calderone che ha portato all'istituzione di una task force europea in seno all'EDPB, c'è anche un'indagine che proviene dalla Polonia
28/05/2024 di Enzo Boldi
Se l’Italia, dal punto di vista tecnico, è stato il primo Paese ad aver mosso contestazioni (con tanto di blocco temporaneo) nei confronti del famoso chatbot sviluppato da OpenAI, in Europa ci sono state anche altre vicende che hanno portato alla creazione di una task force per valutare il rispetto del GDPR da parte di ChatGPT. In particolare, c’è una vicenda che arriva dalla Polonia e che ha messo in evidenza non solamente gli errori da parte dello strumento AI dell’azienda di Sam Altman, ma anche l’atteggiamento non collaborativo da parte di quest’ultima.
LEGGI ANCHE > Il Garante europeo dice che l’attività di scraping di OpenAI per l’addestramento di ChatGPT è di pubblico interesse
Tutto è partito dalla segnalazione/denuncia da parte di un ricercatore su privacy e sicurezza polacco, Lukasz Olejnik, che aveva interrogato ChatGPT chiedendo al chatbot di realizzare una sua biografia. Peccato che parte delle informazioni restituite come output al prompt, fossero non solo errate, ma inventate di sana pianta. Un problema che poteva essere risolto direttamente da OpenAI che, però, ha risposto che non era in grado di farlo. Ed ecco, dunque, la violazione dell’articolo 5 del GDPR per quel che riguarda la trasparenza e l’accuratezza delle informazioni.
Task Force ChatGPT, l’indagine parallela in Polonia
La vicenda risale al settembre dello scorso anno, con Olejnik che – vista la mancata collaborazione da parte di OpenAI, che ha deciso di rivolgersi al Garante per la Privacy polacco che ha aperto un’istruttoria su questa vicenda sottolineando, nello specifico, alcuni aspetti critici che fanno anche parte – oggi – della valutazione della task force europea:
«A quanto pare, ChatGPT, in risposta alla sua domanda, ha generato informazioni false sul denunciante. La richiesta di correggerli non è stata recepita da OpenAI, anche se ogni amministratore è obbligato a trattare i dati corretti. Il denunciante inoltre non è riuscito a scoprire quali dati su di lui vengono elaborati da CharGPT […] Nel reclamo presentato all’Ufficio per la protezione dei dati personali si rileva inoltre che la società non ha adempiuto al proprio obbligo di informazione nei confronti del denunciante. I dati di questa persona sono stati ottenuti nel 2021. Secondo il denunciante, l’obbligo di informazione dovrebbe essere adempiuto già nella fase di trattamento dei dati acquisiti a fini di formazione dei modelli linguistici di intelligenza artificiale. La società non ha informato il denunciante circa l’origine dei dati che lo riguardano né circa i destinatari o le categorie di destinatari di tali dati».
Ed eccoci arrivati a uno dei punti legati alla mancata mitigazione dei rischi, soprattutto quelli legati ai concetti di trasparenza e accuratezza delle informazioni.