Gaza come «banco di prova» per l’utilizzo dell’AI in guerra

L'IDF parla di una tecnologia utilizzata per minimizzare il coinvolgimento dei civili ma, secondo una serie di esperti, l'utilizzo dell'AI in guerra operato da Israele ha obiettivi diversi

06/12/2023 di Ilaria Roncone

L’utilizzo dell’intelligenza artificiale nell’ambito di un conflitto armato è davvero utile a minimizzare le vittime civili? Può o non può essere considerato etico? Queste domande sono fondamentali se si pensa a come il mondo, attualmente, sta guardando a quello che è il primo conflitto in cui una delle due parti mette in campo sofisticate tecnologie di machine learning. Una serie di esperti si sono detti dubbiosi a proposito di ciò che l’esercito israeliano ha affermato in merito, ovvero che Habsora funziona in una maniera tale da «produrre attacchi precisi contro le infrastrutture associate ad Hamas, infliggendo grandi danni al nemico e danni minimi ai non combattenti».

LEGGI ANCHE >>> L’esercito israeliano ha iniziato a usare l’AI nel 2019

AI in guerra porta alla precisione, secondo l’IDF

L’IDF ha dichiarato, tramite un suo alto funzionario, che l’unità «produce attacchi precisi contro le infrastrutture associate ad Hamas, infliggendo grandi danni al nemico e danni minimi ai non combattenti». Sono diversi i rapporti dei media israeliani che, nel tempo, hanno sottolineato la precisione degli attacchi pianificati utilizzando la «banca degli obiettivi dell’IA». Il quotidiano Yedioth Ahronoth, tra gli altri, ha scritto che il compito dell’unità è quello di «assicurarsi che, per quanto possibile, non vi siano danni ai civili coinvolti». Ancora, una ex fonte militare israeliana – parlando col Guardian – ha dichiarato che viene utilizzata una misura «molto accurata» del tasso di civili che devono evacuare un edificio prima di un attacco: «Usiamo un algoritmo per valutare quanti civili sono rimasti. Ci dà un verde, un giallo, un rosso, come un segnale stradale».

I dubbi sulla precisione dell’AI che evita di minimizzare i danni ai civili

Partiamo da un presupposto noto a tutti: la devastazione che gli attacchi missilistici di Israele stanno provocando a Gaza non ha precedenti. Il Guardian, a tal proposito, ha chiesto il parere di alcuni esperti che – effettivamente – stentano a confermare che le affermazioni dell’IDF sui danni ai civili ridotti usando l’AI siano sensate e frutto di prove empiriche (come sostiene un avvocato esperto di diritto umanitario chiamato in causa).

C’è chi invita, semplicemente, a guardare Gaza: «Guardate il paesaggio fisico di Gaza. Stiamo assistendo all’appiattimento diffuso di un’area urbana con armi esplosive pesanti, quindi affermare che ci sia precisione e ristrettezza della forza esercitata non è confermato dai fatti», ha detto Richard Moyes, ricercatore a capo di Article 36. Il punto è che i generali che decidono quale obiettivo verrà attaccato «ricevono una lista di obiettivi generata da un computer non sapendo necessariamente come è stata creata». Ciò significa anche non avere necessariamente «la capacità di interrogare e mettere in discussione adeguatamente le raccomandazioni ricevute».

In questo senso, Marta Bo – ricercatrice presso l’Istituto internazionale di ricerca sulla pace di Stoccolma – afferma un punto importante: c’è da considerare che a vagliare ciò che l’AI fa c’è – prima di attaccare – l’essere umano. C’è il rischio, in questo senso, che sviluppino «pregiudizi di automazione e si affidino eccessivamente a sistemi che arrivano ad avere troppa influenza su decisioni umane complesse». Il rischio, in sostanza, è anche che le persone addette a stabilire quali obiettivi dovranno essere attaccati si affidino in maniera cieca ai sistemi AI perdendo, di fatti, la capacità di valutare il reale rischio di creare danno ai civili in maniera più o meno concreta.

L’assenza di etica nell’uso dell’AI in guerra

C’è anche un altro punto fondamentale, quello che evidenzia – parlando col Guardian – una fonte che, fino al 2021, ha lavorato nell’ambito della pianificazione degli attacchi per l’IDF. «La decisione di colpire viene presa dal comandante dell’unità di servizio – ha dichiarato – e alcuni erano più propensi al grilletto di altri». Secondo lui, non sono mancate occasioni in cui «c’erano dubbi su un obiettivo» e «abbiamo ucciso quella che, secondo me, era quantità sproporzionata di civili».

Il punto, con l’intelligenza artificiale, è sempre uno solo: come si sceglie di utilizzarla. In un recente articolo, Middle East Eye ha interpellato alcuni esperti per avere una valutazione rispetto alla situazione attuale e ai possibili sviluppi dell’uso dell’AI questa guerra e in possibili conflitti futuri. Partendo dal presupposto che la verifica umana dei tanti obiettivi generati dall’AI «non è affatto fattibile» – sostiene un esperto israeliano nell’uso militare dell’AI – occorre essere consapevoli una volta di più che, come negli altri ambiti, non c’è la piena consapevolezza di come funzioni l’algoritmo che stabilisce quali obiettivi scegliere.

La Palestina come banco di prova

La Palestina, secondo Mona Shtaya – ricercatrice presso il Tahrir Institute for Middle East Policy con sede a Washington – costituisce un «banco di prova» e «l’intelligenza artificiale fa parte di un sistema di sorveglianza più ampio, in cui i palestinesi vivono sotto costante sorveglianza».

Secondo Anwar Mhajne, professore di scienze politiche allo Stonehill College in Massachusetts, il punto non è solo dare prova della forza israeliana in risposta gli attacchi del sette ottobre. Qui si tratta di proiettare nel mondo l’immagine della potente tecnologia israeliana: «Testano cose sui palestinesi. Ecco perché Israele è all’avanguardia nello sviluppo della sicurezza informatica e dell’intelligenza artificiale, perché hanno un banco di prova. Nessuno parla di come la stanno sviluppando e di come la stanno testando. Ti garantisco che questa tecnologia, dopo la guerra, sarà venduta a tutti i regimi repressivi che conosci».

Analizzando tutto, non sembra difficile capire come l’interesse israeliano possa andare ben al di là della distruzione di Gaza: «In futuro, le persone che lavorano lì si rivolgeranno al settore privato e faranno cose simili e le esporteranno, di sicuro – sostengono gli esperti, puntualizzando anche che le vendite di armi israeliane sono già aumentate -. Questa guerra è già un grande vantaggio per i trafficanti e le esportazioni di armi israeliane».

Share this article