Apple spiega che il controllo sul Cloud avverrà solo per i contenuti pedopornografici

«Governi autoritari non potranno utilizzarlo per scopi diversi»

09/08/2021 di Redazione

Non ci sarà nessuna possibilità, secondo Apple, che governi autoritari possano approfittare del suo sistema di controllo della pedopornografia sul cloud per altri scopi. È questa la rassicurazione che l’azienda di Cupertino ha diffuso in una FAQ sul proprio sito ufficiale, in risposta all’annuncio – pubblicato qualche giorno fa – di avviare una operazione di scansione di tutti gli iPhone sul territorio americano in risposta a una richiesta delle autorità che vogliono una maggiore collaborazione per combattere la diffusione di materiale pedopornografico. 

LEGGI ANCHE > La battaglia di Apple che scansionerà tutti gli iPhone in Usa per cercare immagini pedopornografiche

Apple contro pedopornografia, la rassicurazione della Mela

Apple ha comunicato che l’utilizzo dell’intelligenza artificiale serve esclusivamente a scansionare il cloud per quanto riguarda le immagini cosiddette CSAM (child sexual abuse material): «Il nostro sistema – si legge nella FAQ – è progettato per rilevare CSAM noto eseguendo la scansione delle immagini degli utenti se scelgono di caricarle su iCloud. Apple riceve una notifica se viene rilevato CSAM e avviserà le autorità quando verifica l’esistenza di tale materiale». Le varie associazioni che si occupano della tutela della privacy degli utenti, soprattutto in seguito all’utilizzo di strumenti informatici, hanno avuto modo di sottolineare come questo sistema possa in qualche modo essere in contrasto con le norme più basilari del rispetto della riservatezza e che eventuali governi stranieri potrebbero impiegarlo anche per scopi diversi rispetto alla pur sacrosanta lotta contro la pedopornografia.

Il sospetto degli altri big del web

Apple ha rassicurato: «Le immagini verranno scansionate esclusivamente sulla base di un database che è fornito dal National Center for Missing and Exploited Children (NCMEC) e da altre organizzazioni per la sicurezza dei bambini e che il sistema funziona solo con le “impronte” delle immagini CSAM forniti da NCMEC e da altre organizzazioni». Insomma, un utilizzo diverso è poco ipotizzabile, anche se resta il grande interrogativo sul principio di base che porta alla scansione di materiali informatici di proprietà dei cittadini. Will Cathcart, capo dell’app di messaggistica Whastapp, aveva già espresso le sue perplessità in proposito e aveva sottolineato come il servizio di proprietà di Facebook si andrà a dissociare da questo tipo di scansione proposta da Apple. La sensazione è che si sia toccato un nervo scoperto tra i colossi del web e che questa lotta alla pedopornografia (in realtà un intento nobile) possa aprire un vero e proprio vaso di Pandora sulla privacy degli utenti.

Share this article
TAGS