Google ha segnalato l’account di un uomo per delle foto di nudo sospette di suo figlio

In realtà, l'uomo aveva scattato le foto per inviarle al medico e ricevere una diagnosi. Il caso di cronaca ha aperto la discussione sul livello di privacy che Google garantisce agli utenti

22/08/2022 di Giordana Battisti

Un uomo ha usato il suo smartphone con sistema operativo Android per fare delle foto all’infezione all’inguine di suo figlio e mandarle al medico per ricevere una diagnosi. Google ha segnalato queste foto come materiale pedopornografico, ha chiuso gli account dell’uomo e sporto denuncia al National Center for Missing and Exploited Children (NCMEC). Google ha intimato alla polizia di indagare, sottolineando quanto sia complicato distinguere tra un potenziale abuso e una foto scattata per altri scopi quando non si conosce il contesto e le ragioni per cui la foto è stata scattata.

La vicenda è avvenuta a febbraio 2021, quando a causa della pandemia consultazioni di questo genere si sono rese necessarie e all’ordine del giorno. Il caso è stato riportato dal New York Times. Mark, questo il nome dell’uomo del quale non è stato reso noto il cognome, ha spiegato al NYT che due giorni dopo aver scattato quelle foto ha ricevuto una notifica da parte di Google che lo informava della chiusura dei suoi account a causa della presenza di “contenuti dannosi” che costituiscono “una violazione delle politiche di Google e potrebbero essere illegali”.

LEGGI ANCHE > Quel +78% di revenge porn e l’aumento di arresti per pedopornografia nel 2021 la dicono lunga

Quali strumenti utilizzano le società per individuare materiale pedopornografico?

Come altre società tra cui Facebook, Google in passato ha utilizzato lo strumento di analisi delle immagini PhotoDNA sviluppato da Microsoft per scansionare le immagini caricate dagli utenti, confrontarle con immagini note e rilevare così eventuale materiale pedopornografico. Nel 2012 questo sistema ha consentito di far arrestare un uomo che utilizzava Gmail per condividere materiale pedopornografico. Nel 2018 Google ha rilasciato uno strumento che utilizza l’intelligenza artificiale per scansionare e identificare materiale pedopornografico mai visto prima. Quando trova del materiale potenzialmente illegale, Google invia una segnalazione al National Center for Missing and Exploited Children, come prevede la legge.

Un rischio per la privacy o un doveroso provvedimento?

Il dipartimento di polizia di San Francisco, dove vive Mark, ha aperto un’indagine e ha ottenuto tutte le informazioni che l’uomo aveva archiviato con Google. Alla fine è stato stabilito che l’accaduto non costituiva un crimine.

Molti sostengono che nonostante proteggere le persone, in particolare i minori, dagli abusi sia innegabilmente importante, le pratiche di Google costituirebbero una violazione della privacy dell’utente. Un portavoce di Google ha detto al NYT che Google scansiona le immagini degli utenti sono quando gli utenti compiono azioni come il backup delle immagini su Google Foto e in ogni caso, Google risponde alle leggi federali in materia di materiale pedopornografico e abusi sui minori.

*Statement Google Italia*

Aggiorniamo l’articolo con la dichiarazione di Google ricevuta dall’ufficio stampa: «Il materiale pedopornografico (CSAM) è ripugnante e siamo impegnati per prevenire ogni sua diffusione sulle nostre piattaforme. Seguiamo la legge statunitense nel definire cosa costituisce CSAM e utilizziamo una combinazione di tecnologia di hash matching e di intelligenza artificiale per identificarlo e rimuoverlo. Inoltre, il nostro team dedicato alla sicurezza dei minori esamina l’accuratezza dei contenuti segnalati e si consulta con esperti pediatri per garantire la possibilità di identificare i casi in cui gli utenti potrebbero richiedere un consiglio medico».

Share this article