Israele usa l’AI nei bombardamenti su Gaza

Si potrebbe pensare a una soluzione per colpire obiettivi mirati ed evitare perdite civili, ma non è così

06/12/2023 di Enzo Boldi

Quando si parla di intelligenza artificiale, si pensa a soluzioni che possono migliorare la vita delle persone. Quando si parla di intelligenza artificiale applicata a un contesto di guerra, questa definizione già inizia a decadere. Si potrebbe pensare che l’AI sia in grado di limitare al minimo le perdite civili, andando a colpire esclusivamente obiettivi mirati. Una dinamica che, nel cinismo di una guerra, potrebbe persino essere considerata positiva. In realtà, quel che sta emergendo nello scontro frontale tra Israele e Hamas a Gaza è l’esatta rappresentazione di come l’AI e i suoi effetti dipendano dal suo utilizzo. Come nel caso degli attacchi missilistici condotti con un sistema chiamato Habsora.

LEGGI ANCHE > I video del conflitto Israele-Hamas nelle pubblicità delle app di gaming

Nel monografico di oggi, Giornalettismo analizzerà alcune delle inchieste pubblicate nei giorni scorsi su questo sistema di intelligenza artificiale utilizzato da Israele nel corso di questo conflitto contro Hamas. Lo faremo approfondendo anche l’utilizzo dell’AI – a livello militare e di intelligence – da parte degli israeliani, a partire dal 2019. Dunque, molti anni prima rispetto a quanto accaduto lo scorso 7 ottobre e la successiva risposta (ovvero l’inizio di questa nuova sanguinosa fase di una guerra che va avanti da decine di anni lungo e intorno alla Striscia di Gaza).

Habsora, l’AI israeliana per i bombardamenti su Gaza

Stando a un’inchiesta pubblicata dal portale +972 (in collaborazione con Local Call), il sistema Habsora (che, in ebraico, viene chiamato “Vangelo”) viene utilizzato pedissequamente dalle forze militari israeliani durante i continui bombardamenti su Gaza. Di cosa stiamo parlando? Si tratta di un sistema sviluppato nel corso degli anni – quindi, non parliamo di un qualcosa di sviluppato nel giro di pochi mesi, a partire da un monitoraggio (anche con riconoscimento facciale) – che oggi si sta rivelando come uno strumento “fondamentale” per condurre gli attacchi missilistici su Gaza.

Stando a quanto riportato da +972 – che ha consultato, nella sua inchiesta, sette tra membri ed ex membri dell’intelligence israeliana -, questo sistema viene utilizzato per generare “obiettivi” da colpire a Gaza. Un qualcosa che, detta così, è il fulcro di ogni conflitto. Però, questa intelligenza artificiale è in grado di generarne centinaia nel giro di poche ore. Leggendo così la descrizione, si potrebbe pensare a un qualcosa di (nel teatro dell’assurdo, parlando di una guerra) potenzialmente etico. Dunque, ridurre al minimo le perdite civili puntando su obiettivi certi e mirati. Il problema è, come sempre, l’utilizzo di questo sistema AI.

Tutte le problematiche

Perché si parla di danni collaterali. Dopo aver individuato un obiettivo, l’AI restituisce ai militari israeliani il target. Anche residenziali. Questo vuol dire che se viene individuato anche uno solo obiettivo (un membro di Hamas) all’interno di un solo edificio, viene bombardato tutto quell’edificio. Senza pensare ai civili che vivono all’interno di quella stessa struttura. Di fatto, dunque, quel principio di “target” utilizzando l’AI, svanisce. Habsora, stando a questa inchiesta, è stato e viene utilizzato (e si vocifera la volontà di commercializzare questo “prodotto”) al di fuori di quel che dovrebbe essere una garanzia per proteggere i civili.

Share this article