Tutti i rischi dell’age verification per i siti a luci rosse
Se non ci fidiamo delle piattaforme che fanno contenuti per adulti, possiamo mai consegnare a loro i nostri dati personali?
03/04/2024 di Gianmichele Laino
La domanda è retorica (ma qualcuno, forse, non se la sta ponendo in modo corretto): affidereste i vostri dati personali – e i dati personali dei minori – a delle piattaforme, come quelle che propongono dei contenuti per adulti, che a volte hanno mostrato video che ritraevano delle persone senza il loro consenso, quando non addirittura immagini di violenza? Se il controllo su questa tipologia di contenuto multimediale a volte è lacunoso, cosa accadrebbe nel caso in cui i gestori di queste piattaforme si trovassero a maneggiare grandi quantitativi di dati personali? Eppure, oggi si parla con molta scioltezza di age verification per le piattaforme per adulti, di metodi di accesso regolamentati ai loro contenuti, di una consultazione dell’Agcom per stabilire i principi secondo i quali tutto questo potrà accadere. Il tutto con un livello di consapevolezza medio molto basso, ben fotografato da un ministro italiano che, in un’intervista che ha totalizzato il 10% di share in prima serata, ha mostrato di confondere la pornografia con la prostituzione.
LEGGI ANCHE > Google chiude la sua app per ascoltare i podcast
Age verification sui siti per adulti: quali problemi potrebbero esserci
Il fatto che la consultazione dell’Agcom preveda in ogni caso un’azione di concerto con il Garante della Privacy ci fa immediatamente presente una questione non di poco conto: introdurre dei sistemi di age verification significherebbe mettere a disposizione delle piattaforme un quantitativo di dati personali e sensibili superiore a quello attualmente richiesto per la loro navigazione. E questo vale per qualsiasi sistema di age verification, sia esso la scansione di un documento di identità, sia esso l’inserimento di dati biometrici, sia esso una identità digitale.
Quello che dicevamo all’inizio è piuttosto preoccupante. Nel 2021, un articolo del New York Times aveva evidenziato come su PornHub circolassero centinaia di video pubblicati senza il consenso delle persone che comparivano nelle immagini. L’accusa era tremenda: monetizzare sulla base delle visualizzazioni di materiale che, in qualche modo, rappresentava una forma di sfruttamento dei corpi. La soluzione di PornHub, all’epoca dei fatti, fu quella della semplice rimozione dei video segnalati. Una scelta di ripiego, che non ha consentito una risoluzione alla radice del problema: una delle più grandi piattaforme per adulti, infatti, era stata accusata di non essere stata proattiva con la moderazione del contenuto, né con le segnalazioni delle vittime.
Applichiamo questo principio a piattaforme anche meno famose e controllate di PornHub e pensiamo a ciò che potrebbe succedere in caso di cessione dei nostri dati personali attraverso scansioni del nostro viso, attraverso l’inserimento di documenti di riconoscimento o attraverso l’introduzione degli estremi delle carte di pagamento. Il controllo e la tutela sono gli stessi applicati ai video caricati in piattaforma? Per questo motivo, sempre più spesso, si parla di aziende terze che dovrebbero in qualche modo essere responsabili dell’age verification: le grandi piattaforme, insomma, dovrebbero chiudere degli accordi con queste aziende e affidare loro il trattamento dei dati personali degli utenti. Ma il rischio di manomissione dei dataset con i riferimenti personali degli utenti resta sempre altissimo, esposto alla mercé di malintenzionati. La verità è che il principio dell’age verification non è fatto per un sistema come quello di internet e che qualunque soluzione si cerchi di applicare sarà sempre un riadattamento poco efficace e molto vulnerabile.