Da dove prende i dati (senza consenso) il sistema AI israeliano Habsora?

Da tempo l'intelligence israeliana utilizza questo sistema e sembrano essere proprio questi dati quelli utilizzati per "addestrare" il sistema

06/12/2023 di Enzo Boldi

Nella giornata di oggi, Giornalettismo si sta concentrando sul sistema basato sull’intelligenza artificiale utilizzato da Israele per procedere con i bombardamenti e gli attacchi missilistici su Gaza nel tentativo – stando alle dichiarazioni ufficiali – di colpire i militanti e gli affiliati ad Hamas. Parliamo di Habsora (termine che vuol dire “Vangelo”), uno strumento – più che altro un sistema – che pone le sue basi su alcuni dati raccolti nel corso del tempo in territorio palestinesi. Come? Per esempio, si parla di un uso indiscriminato (e senza consenso) del riconoscimento facciale.

LEGGI ANCHE > Israele usa l’AI nei bombardamenti su Gaza

L’utilizzo di Habsora in questo conflitto è confermato – anche se con dettagli poco accurati e approfonditi – direttamente dal sito ufficiale dell’IDF (Israel Defence Force) che ne parla in questi termini, proprio relativamente ai primi due mesi di questa nuova fase del conflitto nella Striscia di Gaza:

«Si tratta di un sistema che consente l’uso di strumenti automatici per produrre obiettivi a un ritmo rapido e funziona migliorando il materiale di intelligence accurato e di alta qualità in base ai requisiti. Con l’aiuto dell’intelligenza artificiale e attraverso l’estrazione rapida e automatica dell’intelligenza aggiornata, produce una raccomandazione per il ricercatore, con l’obiettivo che ci sia una corrispondenza completa tra la raccomandazione della macchina e l’identificazione effettuata da una persona». 

Ma come si arriva a questo punto? Come fa a funzionare questo sistema basato sull’intelligenza artificiale? Anche se non viene esplicitamente dichiarato, la memoria non può tornare al caso del riconoscimenti facciale fatto da Israele sui palestinesi. Senza il consenso di questi ultimi.

Habsora, il database del riconoscimento facciale

A evidenziarlo è stato un report, pubblicato lo scorso 2 maggio, da Amnesty International che ha citato il sistema Red Wolf.

«Quando un palestinese passa attraverso un posto di blocco dove il sistema “Red wolf” è attivo, il suo volto è scansionato a sua insaputa e senza il suo consenso e comparato coi dati biometrici contenuti negli archivi dove sono conservate solo le informazioni sui palestinesi. In questo modo, il sistema “Red wolf” determina se una persona possa oltrepassare il posto di blocco e acquisisce automaticamente ogni nuovo volto scansionato». 

Riconoscimento facciale, senza consenso, in grado di fornire un database praticamente totalizzante al cui interno si trovano tutti i dati biometrici di chi è passato davanti a una telecamera “Red Wolf” e ha subìto – inconsapevolmente – la scansione del proprio volto.

Ed è proprio questo l’archivio che potrebbe esser stato utilizzato per addestrare (in parte) quell’intelligenza artificiale utilizzata – come confermato dalle fonti ufficiali – per condurre la maggior parte degli attacchi missilistici su Gaza.

Posti di blocco (e non solo)

E non si parla solamente di posti di blocco, ma anche di intere città finite sotto l’occhio invadente di quelle telecamere in grado di procedere con il riconoscimento biometrico – all’insaputa dei soggetti – e archiviare quei dati in un database dedicato. Perché lo stesso report di Amnesty International sottolinea come in due città (Hebron e Gerusalemme Est), con il passare del tempo quelle telecamere siano state installate praticamente in ogni angolo. Tecnologie invasive che, dunque, raccolgono dati senza consenso. E appare piuttosto semplice il sillogismo tra questa dinamica e l’utilizzo di questo sistema Habsora per generare centinaia di obiettivi “da colpire” ogni giorno in quel di Gaza.

Share this article