La multa a Meta è un “avviso” ai naviganti dell’AI?

Secondo gli esperti di GlobalData, la sanzione potrebbe rappresentare l'apertura del vaso di Pandora per quel che riguarda il rapporto legislativo tra "allenamento" dell'intelligenza artificiale e la privacy

23/05/2023 di Redazione Giornalettismo

Una multa, seppur la più imponente della storia (almeno fino a ora), non deve esser vista esclusivamente dal punto di vista economico. Leggendo tra le righe della decisione del Garante della Privacy irlandese di sanzionare Meta per 1,2 miliardi di euro per violazione della privacy, infatti, si può fare un ragionamento più vasto e strettamente legato all’attualità e quel che sta accadendo nel mondo della tecnologia. In particolare, si può aprire anche un capitolo sul rapporto tra Privacy (quindi protezione dei dati personali) e AI, ovvero tutte quelle dinamiche che portano all’addestramento e all’allenamento dell’intelligenza artificiale di cui tanto si sta parlando negli ultimi mesi.

LEGGI ANCHE > A Meta è stata contestata la violazione dell’articolo 46 del GDPR

Perché a Meta è stata contestata la violazione dell’articolo 46 (comma 1) del Regolamento generale sulla protezione dei dati personali (GDPR), quello che mette i paletti sul trasferimento di dati dei cittadini residente sul territorio dell’Unione Europea e i Paesi terzi (nel caso specifico, gli Stati Uniti). E come già accaduto nel caso che ha visto contrapposti Garante per la Privacy italiano e OpenAI su ChatGPT, occorre chiarezza sul come e sul cosa venga trattato e trasferito in Paesi in cui vi è una regolamentazione differente in termini di protezione dei dati personali.

Privacy e AI, la multa contro Meta è un avviso?

Perché privacy e AI potrebbero essere due concetti riflessi nella decisione del Garante Privacy europeo? Una riflessione molto interessante arriva da GlobalData, azienda che si occupa di sviluppo e innovazione. In particolare, Emma Taylor (analista di intelligence tematica) ha messo in risalto un aspetto:

«La multa record potrebbe essere solo l’inizio. La privacy dei dati sarà sempre più oggetto di esame con l’intensificarsi della corsa agli armamenti dell’IA tra le Big Tech, poiché grandi quantità di dati sono essenziali per lo sviluppo di modelli di IA. I dati utilizzati per addestrare i sistemi di IA dovranno avere una solida provenienza, in grado di dimostrare che non rappresentano un rischio per la privacy degli utenti, ma anche che non perpetuano pregiudizi, non minacciano la sicurezza informatica e non violano le leggi sul copyright». 

Perché, come noto, manca ancora una legge specifica per regolamentare l’intelligenza artificiale e l’Europa sta correndo ai ripari con la discussione finale dell’AI Act dopo il via libera delle Commissioni LIBE e IMCO. All’interno, secondo la proposta in approvazione (di gran lunga differente rispetto alla versione iniziale), del testo che dovrebbe essere votato entro la metà di giugno, si fa riferimento proprio alla trasparenza sulle metodologie di addestramenti dell’intelligenza artificiale: si parla di copyright ma, di riflesso, anche di dati personali degli utenti. Il caso Meta ha, dunque, dimostrato che le prescrizioni indicate dal GDPR possono essere utilizzate su larga scala. E seguendo questo principio, l’articolo 46 del Regolamento generale sulla protezione dei dati dei cittadini europei può essere estero alla alla protezione della privacy legata all’AI.

Share this article