ChatGPT può essere portato a rivelare dati personali e sensibili

Esiste un modo per spingere ChatGPT a rivelare dati con cui è stato addestrato. Una possibilità che non dovrebbe esistere

08/12/2023 di Redazione Giornalettismo

Ebbene sì: non importa quanto OpenAI (o chi per essa, se si pensa ad altri chatbot creati da Big Tech e affini) si prodighi per garantire la privacy e la segretezza dei dati di chi interagisce con ChatGPT, esiste un modo per aggirare questo limite. A scoprirlo e a pubblicare un paper di oltre 60 pagine in merito è stato DeepMind (la divisione di Google che si occupa di intelligenza artificiale) insieme a una serie di realtà universitarie tra cui troviamo l’Università di Washington, la Cornell, Berkeley e il Politecnico di Zurigo.

Lo studio su ChatGPT che rivela i dati con cui è stato addestrato

Tutto questo senza dover avere conoscenze in merito all’hackeraggio del sistema ma, semplicemente, riuscendo a interrogare ChatGPT con i giusti prompt, dando un input tale che porti l’output a contenere dati sensibili e personali di individui e aziende. Nella ricerca vengono spiegati i metodi utilizzati e, nelle conclusioni, si mettono in guardia le aziende che scelgono di utilizzare l’intelligenza artificiale generativa rispetto al rischio di dare in pasto a questi sistemi informazioni chiave del proprio business.

Riportando una serie di esempi divulgati tramite questo studio, nel monografico dedicato a questa tematica abbiamo provato a individuare le contraddizioni nella questione e a fornire anche un po’ di contesto relativo all’attualità: un presente in cui il lancio del ChatGPT Store (piattaforma che punta a rendere disponibile per gli utenti la possibilità di creare una propria versione di ChatGPT) è stato rimandato e in cui l’Europa, con l’AI Act, punta a regolamentare in maniera quanto più stringente possibile un settore su cui, per ora, l’Italia – insieme ad altri Stati membri – sembrerebbe voler investire parecchio.

Share this article