Le osservazioni di OpenAI sul trattamento dei dati personali che ricalcano le eccezioni del Garante della Privacy

Nelle ore immediatamente precedenti al confronto avvenuto nella tarda serata italiana, l'azienda che sta dietro a ChatGPT aveva pubblicato il suo "manifesto" sul trattamento dei dati personali

06/04/2023 di Gianmichele Laino

Non del tutto casualmente, a quanto pare, OpenAI – l’azienda che ha sviluppato ChatGPT e che ne sta seguendo da molto vicino l’evoluzione – ha pubblicato, qualche ora prima dell’incontro con il Garante della Privacy italiano che si è svolto nella tarda serata di ieri, una sorta di vademecum che indica quali sono le pratiche seguite dall’azienda in termini di sicurezza per rendere più controllato il processo evolutivo dell’intelligenza artificiale. I punti indicati all’interno del documento, firmato dagli ideatori di Open AI, ricalcano in molte parti le criticità che erano state sollevate dall’autorità italiana (che avevano avuto un effetto a cascata anche su altre autorità nel resto del mondo). E hanno cercato di fornire delle risposte rassicuranti, ancor prima di quelle più fattuali che sono emerse dall’incontro con il collegio del Garante della Privacy italiano.

LEGGI ANCHE > Cosa si sono detti il Garante della Privacy e Open AI nell’incontro di mercoledì sera

Documento OpenAI sulla privacy: i tratti fondamentali

Il documento è stato pubblicato sul blog ufficiale di OpenAI. I fautori di uno strumento come ChatGPT (diventato estremamente potente nella sua versione di ChatGPT 4, che ha fatto passi in avanti significativi rispetto alla precedente release 3.5) hanno riconosciuto che l’intelligenza artificiale, in questo specifico periodo storico, possa rappresentare un rischio, soprattutto per utilizzi deteriori. Per cercare di mitigarlo, OpenAI ha dato alcune indicazioni generiche rispetto all’iter di controllo del procedimento di verifica della sicurezza del suo strumento. In modo particolare, ha spiegato che – prima del rilascio dell’ultima versione di ChatGPT, la numero 4 – l’azienda ha incubato il prodotto per sei mesi, sottoponendolo a test di verifica interni ed esterni.

Nel raccontare questo iter, tuttavia, OpenAI riconosce l’impossibilità di prevedere tutte le sfumature e le sfaccettature dei vantaggi e degli abusi che gli utenti possono fare attraverso i loro strumenti.  Per questo ritiene opportuno, ad esempio, che alcune funzionalità debbano essere verificate, gradualmente, in produzione.

OpenAI, inoltre, cerca di rassicurare il pubblico sulla riservatezza e la sicurezza del proprio team di sviluppo e cerca di dare qualche informazione in più sul suo sistema di age verification (non a caso, una delle tre contestazioni principali del Garante della Privacy). L’azienda ribadisce che l’utilizzo del suo strumento è rivolto ai maggiori di 18 anni, con la possibilità – per i maggiori di 13 anni – di servirsi di ChatGPT sotto la sorveglianza di un tutore. Tuttavia, questa precisazione non risolve il dubbio che c’è all’origine del provvedimento del Garante: c’è un sistema efficace per impedire ai minori di utilizzare ChatGPT, senza che questo limite possa essere facilmente bypassato?

In ogni caso, OpenAI ha sottolineato: «Non permettiamo che la nostra tecnologia venga utilizzata per generare contenuti che incitano all’odio, che siano molestie, che siano violenti o che rappresentino contenuti per adulti. Il nostro ultimo modello, GPT-4, ha l’82% in meno di probabilità di rispondere alle richieste di contenuti non consentiti rispetto a GPT-3.5 e abbiamo istituito un solido sistema per prevenirli in ogni caso». Inoltre, Open AI sottolinea che ogni abuso eventuale viene segnalato al National Center for Missing and Exploited Children, esplicitando una collaborazione che punta a rafforzare la sicurezza della piattaforma.

Resta in piedi la questione dei dati personali. OpenAI sottolinea che i dati utili a generare le risposte di ChatGPT sono desunti da «contenuti disponibili pubblicamente, contenuti concessi in licenza e contenuti generati da revisori umani». Si tratta, dunque, di attività di scraping. In più, ChatGPT migliora a ogni interazione con l’utente: «Lavoriamo – sostengono da Open AI – per rimuovere le informazioni personali dal set di dati di addestramento, perfezioniamo i modelli per rifiutare le richieste di informazioni personali dei privati e rispondiamo alle richieste degli individui di eliminare eventuali informazioni personali che siano riuscite a trapelare».

L’altro timore – che non è stato evidenziato dal Garante, ma che è stato invece al centro dei timori degli esperti e degli accademici – è quello del contributo di questi sistemi di intelligenza artificiale alla disinformazione. Secondo OpenAI, i riscontri fattuali delle risposte di ChatGPT 4 sono già decisamente migliorati del 40%. Ma raggiungere una corrispondenza perfetta con la realtà sembra ancora un’ambizione in là con il tempo. E il documento di Open AI sembra più una lista dei desideri che un vero e proprio vademecum per risolvere i problemi di sicurezza.

Share this article
TAGS