ChatGPT rischia, un’altra volta, il blocco in Italia
A seguito dell'istruttoria avviata dal Garante per la Privacy lo scorso 30 marzo, sarebbero state individuate altre violazioni da parte di OpenAI
30/01/2024 di Enzo Boldi
È passato quasi un anno da quando il Garante per la Protezione dei dati personali intimò a OpenAI di sospendere (temporaneamente) il funzionamento del suo chatbot – attraverso la formula dello stop al trattamento dei dati – di punta sul suolo italiano. Un provvedimento che si trasformò in un’istruttoria che costrinse l’azienda di Sam Altman a rispondere concretamente alle richieste dell’Autorità attraverso una serie di modifiche, anche in termini di trasparenza. Ora la storia rischia di riprendersi, perché proprio a seguito delle indagini che si sono susseguite dall’avvio di quell’istruttoria, sono state rilevate altre violazioni. Il Garante Privacy, dunque, ha deciso di andare nuovamente contro ChatGPT, concedendo all’azienda di San Francisco trenta giorni di tempo per rispondere a queste nuove accuse mosse ai sensi del Regolamento Europeo sulla Protezione dei Dati Personali.
LEGGI ANCHE > ChatGPT rivela dati personali: in che modo? Gli esempi dello studio
Una storia che, dunque, sembra ripetersi. La lettera con le contestazioni è stata inviata in Irlanda, nella sede di Dublino che OpenAI ha aperto in Europa a settembre. Non sono noti i dettagli di quanto scoperto nel corso dell’istruttoria, ma sembrano essere emersi nuovi elementi contraddittori – in termini di protezione e tutela della privacy degli utenti – e anche un mancato rispetto di ciò che era stato prescritto lo scorso 30 marzo.
«A seguito del provvedimento di limitazione provvisoria del trattamento, adottato dal Garante nei confronti della Società lo scorso 30 marzo, e all’esito dell’istruttoria svolta, l’Autorità ha ritenuto che gli elementi acquisiti possano configurare uno o più illeciti rispetto a quanto stabilito dal Regolamento UE. OpenAI, avrà 30 giorni per comunicare le proprie memorie difensive in merito alle presunte violazioni contestate».
Trenta giorni di tempo per comunicare al Garante Privacy italiano la propria linea difensiva, rispondendo alle nuove (presunte) violazioni individuate nel corso dell’istruttoria, in seguito a quel provvedimento che portò al blocco del chatbot di OpenAI in Italia.
Garante Privacy contro ChatGPT, cosa può succedere
Quella mossa destò molto interesse da parte di tutta Europa, con altri Garanti che decisero di accendere un faro sul come OpenAI fosse stata poco trasparente nella gestione e trattamento dei dati degli utenti. E se l’azienda sembrava aver risposto prontamente a tutto, tornando disponibile online. Ma non è tutto oro quello che luccica. Nonostante l’impegno dimostrato, infatti, sembrano esserci ancora dei nodi non ancora districati. A partire dal sistema di verifica dell’età (age verification) che doveva necessariamente essere implementato all’interno di ChatGPT.
Oggi, Giornalettismo cercherà di chiarire quali sono i punti oscuri che hanno portato a questo secondo capitolo della querelle Garante Privacy contro ChatGPT. Cercheremo di spiegare quali sono le lacune della piattaforma chatbot conversazionale basata sull’intelligenza artificiale e, soprattutto, per quale motivo sia tornato disponibile e utilizzabile in Italia nonostante le premesse fossero tutt’altro che positive. Il tutto mentre nel mondo anche altre grandi aziende proseguono nello sviluppo dei nuovi dispositivi attraverso le funzionalità e gli strumenti sviluppati da OpenAI. E persino di come ci sia chi, in barba a ogni più basilare regola della scrittura creativa e romanzata, abbia deciso di utilizzare l’intelligenza artificiale per scrivere un libro. Ed essere premiato.