La battaglia di Apple che scansionerà tutti gli iPhone in Usa per cercare immagini pedopornografiche

L'arma a doppio taglio di Cupertino: il fine giustificherà il mezzo?

06/08/2021 di Gianmichele Laino

La notizia è di quelle che, inizialmente, ti fanno dire: ah, però, grande. Ma poi stai lì un attimo a pensarci e dici: aspetta un momento, ma che significa ‘scansionare tutti gli iPhone’? Già, perché Apple ha raggiunto un accordo, negli Stati Uniti, con diversi gruppi per la protezione dei minori al fine di combattere in qualsiasi forma la pedopornografia online. L’azienda di Cupertino eseguirà una scansione di tutti gli iPhone sul territorio alla ricerca di materiale multimediale pedopornografico, da foto a video, passando per GIF e altri file di questo genere. Una lotta senza quartiere, con uno strumento di controllo potentissimo, contro il dilagare della pedopornografia negli Stati Uniti.

LEGGI ANCHE > La mappa di Apple che fa finire fuori strada gli automobilisti

Apple contro pedopornografia, ma a che prezzo?

Apple farà ricorso a un applicativo chiamato neuralMatch e che permetterà di analizzare tutti quei file che gli utenti, più o meno consapevolmente, caricano sul grande Cloud di Apple, il sistema di archiviazione che ha rivoluzionato la telefonia mobile. Le immagini sospette passeranno al vaglio di un team di esperti che dovrà confermarne il contenuto: nel caso di una corrispondenza con del materiale pedopornografico, partirà direttamente una segnalazione al Centro nazionale per i bambini scomparsi e sfruttati. Con un vantaggio innegabile sulla lotta alla pedopornografia.

Ma a che prezzo? Ciò significa che tutti i materiali caricati sul Cloud – anche quelli più innocui – passeranno al vaglio di neuralMatch e, quindi, potrebbe esserci attività di controllo anche al di fuori del recinto della pedopornografia, per gli scopi più disparati. Il Center for Democracy and Technology ha immediatamente mandato una diffida ad Apple, sostenendo che il sistema di controllo utilizzato rappresenti una gravissima violazione rispetto alle garanzie che l’azienda fornisce a proposito della sua crittografia end-to-end.

Inoltre, un team di ricercatori della Johns Hopkins University ha agevolmente dimostrato come le tracce delle immagini caricate sul Cloud possono tranquillamente essere modificate in modo tale da farle riconoscere come immagini pedopornografiche, anche se immagini pedopornografiche non sono. Immaginate le conseguenze per queste persone che potrebbero essere coinvolte, senza alcuna colpa, in iter giudiziari di questo tipo? C’è molta perplessità su questa iniziativa.

foto IPP/imago/Mario Aurich

Share this article
TAGS