Il bombardamento israeliano a Gaza, pianificato con il supporto di un database basato sull’intelligenza artificiale (IA) chiamato Lavender, ha sollevato questioni legali e morali significative.
È stata un inchiesta congiunta di +972 Magazine, Local Call e Guardian a rivelare che i massicci bombardamenti su Gaza che hanno colpito intere abitazioni spesso uccidendo numerosi civili erano effettuati con “dumbs bombs” a cui l’IDF ha fatto ricorso per eliminare i miliziani di Hamas.
L’individuazione dei target era però operata da Lavender, un programma di intelligenza artificiale con il quale Israele ha identificato fino a 37mila potenziali obiettivi legati ad Hamas e alla Jihad islamica palestinese. Il sistema Lavender è stato sviluppato dall’Unità 8200 dell’esercito israeliano.
Tutto parte dalle “rivelazioni” contenute in un libro del 2021 scritto sotto pseudonimo, The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, a firma “Brigadier General Y.S.”. L’autore è l’attuale comandante dell’unità di élite israeliana 8200. Nel saggio si sosteneva la necessità di sviluppare un sistema in grado di elaborare grandi quantità di informazioni finalizzate alla individuazione e alla gestione di bersagli pericolosi per la sicurezza dello Stato di Israele come normalmente avviene in tempo di guerra. Un mega iprogetto in IA, insomma, per rendere più efficienti le operazioni militari con attacchi di precisione.
+972 Magazine e Local Call ha rivelato che tale programma non appartiene al futuro ma è già operativo: si tratta proprio di Lavender, che ha avuto una parte significativa nelle operazioni militari durante l’attuale guerra nella Striscia di Gaza. Lavender ha avuto un ruolo centrale nei bombardamenti, soprattutto nelle prime fasi della guerra. Con un piccolo dettaglio: il ruolo umano nella elaborazione strategica si è fortemente ridotto, ivi compreso il processo decisionale e l’autorizzazione a procedere.
Inizialmente, i comandi giustificavano l’uccisione di un numero fino a 20 civili per eliminare un miliziano di basso rango. Fonti interne all’intelligence israeliana rivelano che Lavender ha identificato fino a 37mila palestinesi come militanti sospetti, le cui case sono state segnate come possibili obiettivi di bombardamento, e colpite preferibilmente nelle ore notturne, quando nelle abitazioni vi erano anche donne e bambini. Soprattutto durante le prime settimane di guerra, l’esercito si è quasi completamente affidato a Lavender, senza operare un controllo approfondito delle “decisioni” della macchina o dell’analisi dei dati di intelligence su cui tali decisioni si basavano.
+972 Magazine riporta che i militari “approvavano” le decisioni della macchina dedicando normalmente solo circa “20 secondi” per autorizzare ogni bombardamento, verificando solo che il bersaglio segnato da Lavender fosse maschile, nonostante fosse noto che il sistema presentava un tasso di errore del 10%.
L’impiego di IA nel conflitto israeliano a Gaza riflette un’escalation nella militarizzazione della tecnologia e solleva interrogativi sull’etica e sulla legalità di tali pratiche. Il ricorso a un database di IA per identificare obiettivi basati su vasti set di dati suggerisce un tentativo di ridurre il coinvolgimento umano diretto e le incertezze nelle operazioni militari, ma anche una possibile de-umanizzazione del processo di selezione dei bersagli. Questo metodo, sebbene aumenti l’efficienza delle operazioni, può anche portare a un aumento delle vittime civili e a una maggiore distruzione, influenzando negativamente la percezione internazionale di Israele e complicando ulteriormente il già tumultuoso equilibrio geopolitico in Medio Oriente.
Questo scenario potrebbe intensificare le critiche internazionali verso le tattiche israeliane e influenzare le future dinamiche di conflitto nella regione, potenzialmente alimentando ulteriori cicli di violenza e instabilità. La tensione tra l’efficacia militare e le normative etiche e legali internazionali è destinata a diventare un punto focale nei dibattiti sulla guerra moderna e l’uso della tecnologia in ambito bellico.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.