All’incirca tre mesi prima che l’organizzazione militante palestinese Hamas lanciasse un attacco inaspettato su Israele, Ronen Bar, il direttore del servizio di sicurezza interna israeliano noto come Shin Bet, aveva rivelato che l’agenzia aveva fatto un significativo passo avanti nell’integrazione dell’intelligenza artificiale (IA) nel suo arsenale di strumenti di sicurezza. Questa tecnologia, paragonabile in capacità a ChatGPT, era stata descritta come una forza rivoluzionaria all’interno del “meccanismo di prevenzione” dell’agenzia, agendo di fatto come un assistente decisionale. Secondo quanto riportato da Tech12, un portale di notizie tecnologiche in Israele, il sistema era capace di aggregare e analizzare vasti volumi di dati personali e comportamentali sui sospetti terroristi, dall’analisi dei loro movimenti alla loro rete di contatti, passando per le attività online.
Nonostante l’adozione di questa tecnologia avanzata, l’attacco del 7 ottobre 2023 da parte di Hamas ha colto di sorpresa non solo lo Shin Bet, ma l’intero apparato di difesa israeliano, nonostante fosse stato orchestrato senza particolari precauzioni per nasconderlo. Le esercitazioni di Hamas, visibili chiaramente attraverso video postati online e le segnalazioni di residenti israeliani vicino al confine, non sono state interpretate correttamente come preparativi di un attacco imminente. Questo fallimento nell’intelligence è stato particolarmente sconcertante data la palese natura delle preparazioni di Hamas, che comprendevano manovre di assalto simulate nei pressi del confine e in aree vicine agli insediamenti israeliani. Le truppe di Hamas avevano persino reso pubbliche le loro attività tramite la pubblicazione di video sulle piattaforme online. Tuttavia, questi segnali allarmanti, nonostante fossero stati notati e segnalati dai residenti israeliani nelle vicinanze della Striscia di Gaza, sono stati sostanzialmente ignorati dalle autorità. Le relazioni dettagliate preparate dal personale militare di leva, prevalentemente giovani donne incaricate di monitorare le immagini delle telecamere di sorveglianza, che delineavano le strategie di Hamas per violare le barriere di sicurezza e catturare ostaggi, sono state liquidate come improbabili.
La convinzione erronea nell’invulnerabilità del sistema di difesa israeliano era radicata nelle premesse dell’intelligenza artificiale, che, sebbene avesse raccolto un’enorme quantità di informazioni sui singoli terroristi, non era in grado di comprendere le intenzioni nascoste dietro le mosse di Hamas. Gli artefici di Hamas, a loro volta, avevano astutamente manipolato le informazioni accessibili allo Shin Bet, facendo leva su informatori già noti per le loro connessioni con gli israeliani, per dipingere un quadro fuorviante delle loro vere intenzioni, concentrando l’attenzione sulle iniziative economiche locali e sull’apparente deterrenza rappresentata dalla superiorità militare israeliana.
Questa falla nella sicurezza si riflette nel contesto più ampio della fiducia riposta nella tecnologia di intelligenza artificiale per la sicurezza nazionale e la difesa, come evidenziato dalle osservazioni di Michèle Flournoy, figura di spicco nell’ambito della difesa statunitense e sostenitrice dell’integrazione dell’IA nelle operazioni militari. Sebbene Flournoy abbia promosso i vantaggi dell’IA nel migliorare l’analisi dei dati e nel sostenere la presa di decisioni strategiche, l’attacco di Hamas ha dimostrato i limiti di questa tecnologia nel prevedere e neutralizzare minacce complesse.
Il crescente impegno del Dipartimento della Difesa degli Stati Uniti verso l’adozione di tecnologie avanzate, incluso un investimento multimiliardario nel cloud computing per potenziare le capacità basate sull’intelligenza artificiale, evidenzia un punto di svolta nel rapporto tra innovazione tecnologica e sicurezza. Tuttavia, la storia offre esempi cauti, come il progetto Igloo White durante la guerra del Vietnam, che nonostante l’enorme impegno finanziario e la promessa della tecnologia, si è rivelato inefficace di fronte alle tattiche ingegnose del nemico.
Questi episodi sollevano interrogativi fondamentali sulla fiducia riposta nell’intelligenza artificiale come soluzione onnicomprensiva per le sfide di sicurezza e difesa. Mentre la tecnologia continua a evolversi a un ritmo senza precedenti, la lezione dell’attacco di Hamas evidenzia l’importanza di un approccio equilibrato che valorizzi sia l’innovazione tecnologica sia l’analisi umana critica.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.