A causa degli attuali sviluppi tecnologici che hanno reso la circolazione delle informazioni digitali come mai avvenuta in passato, incrementando il loro carattere pervasivo e rendendone meno facile il loro controllo da parte di un’entità centralizzata, la dimensione cognitiva ha visto crescere sempre più la sua rilevanza. E oggi come oggi, lo si vede chiaramente, anche a seguito dell’invasione da parte della Federazione Russa dell’Ucraina.
La tecnologia attuale, difatti, consente di raggiungere delle comunità sia più ampie, sia più granulari rispetto al recente passato a cui applicare metodi ibridi, come la propaganda, la mis/dis-informazione, il sabotaggio e altre tattiche non militari le quali vanno sotto il nome di operazioni informazionali (information operations, IO). Queste sono divenute, pertanto, di facile utilizzo e disponibili per “tutti gli attori”, anche piccoli gruppi organizzati.
In generale, lo spazio informazionale è sostanzialmente composto da individui, organizzazioni e artefatti digitali che raccolgono, elaborano, diffondono e manipolano informazioni. Siccome tale ambiente è costituito da molteplici dimensioni, sia tecnologiche sia psicosociali, molte capacità cyber si manifestano nel dominio cognitivo piuttosto che solo in quello cinetico. In questo contesto, le IO di carattere offensivo hanno l’obiettivo precipuo di pregiudicare il processo decisionale dell’avversario.
Quando un avversario e uno specifico obiettivo sono identificati durante un periodo di conflitto o crisi le IO diventano una guerra informazionale (information warfare, IW) come nel caso attuale del conflitto russo-ucraino. A questo riguardo, l’IW condivide le stesse caratteristiche di una guerra tradizionale: combattenti, obiettivi, campo di battaglia, mezzi e strumenti per pregiudicare le risorse strategiche dell’avversario. Nel caso delle IO tali risorse strategiche sono costituite dalla stessa informazione, persone che fanno uso e controllano tali informazioni, sistemi e processi che organizzano, comunicano e trasformano l’informazione in intelligenza strategica.
I mezzi e strumenti per condurre delle IO sono numerosi e diversificati, spesse volte assai innovativi, e da ciò ne deriva che la capacità di stimare i loro effetti sia molto limitata. Ciò è ancora più vero in ambienti ostili, dove può risultare difficile e inaffidabile condurre interviste e sondaggi tradizionali. Oppure, quando le metriche fornite dai social media potrebbero non essere disponibili. Ciò vale, evidentemente, non solo quando si effettuano le proprie operazioni, ma, a maggior misura, quando si tratta di identificare e smascherare le IO avversarie, senza avere informazioni affidabili su ciò che l’attaccante sta veramente cercando di ottenere. Si tratta di un processo complesso che richiede uno studio accurato e un’attenta calibrazione della metodologia da utilizzare.
Sempre al fine di valutare il rischio-impatto delle IO, l’informazione in sé, le persone, i sistemi e i processi possono essere scomposti in una serie di attributi che se opportunamente definiti si possono descrivere, specificare e gerarchizzare in base a un valore specifico che gli viene attribuito. Ogni attributo può essere ulteriormente scomposto, difatti, in una serie di obiettivi misurabili che dovrebbero avere le caratteristiche di essere completi, non ridondanti e operazionali. Come esempi si possono qui riportare i seguenti.
Relativi all’informazione in sé, si possono enucleare i tentativi di spingere l’avversario a: 1) fargli ottenere una quantità di informazioni eccessive e non necessarie (overload); 2) fargli utilizzare informazioni datate; 3) fornirgli informazioni utili a far rigettare la verità di alcuni asserti/fenomeni; 4) fornirgli informazioni utili a far accettare la falsità di alcuni asserti/fenomeni.
Relativi alle persone, si possono qui enucleare alcuni bias cognitivi che stante la loro numerosità non è possibile riportare per intero (Framing; Sunk costs fallacy; Overconfidence effect; Anchoring; Loss aversion; Group polarization; Embodied cognition: Hindsight; Neglect of probability; ecc.)
Relativi ai processi, si possono qui riportare: 1) attacchi all’efficienza in termini di consumo di risorse essenziali e di tempo; 2) attacchi all’efficacia in termini di ridurre i tempi di risposta, ridurre l’accuratezza della risposta, ridurre il focus della risposta mediante un reindirizzamento degli sforzi di processo, ridurre la resilienza dei processi. Gli attributi relativi ai sistemi informazionali non vengono qui considerati, invece, in quanto attinenti alla cybersecurity. Vale qui solo evidenziare, che l’attuale diffusione di interfacce simbiotiche uomo-macchina permette di effettuare nuovi tipi di attacchi quali, a esempio, set di dati scientemente manipolati i quali possono essere integrati all’interno di reti o database di intelligenza artificiale/apprendimento automatizzato (AI/ML) al fine di influenzare i risultati a supporto di agende strategiche.
In questo contesto, le campagne IO hanno l’obiettivo di destabilizzare e influenzare le operazioni civili e militari, sostanzialmente per minare la fiducia e la coesione degli avversari dall’interno. La fiducia può essere considerata un obiettivo cruciale e vulnerabile nell’ambito delle IO in quanto la guerra ibrida mira a ottenere un vantaggio sulla parte avversaria, o a provocare potenzialmente un cambiamento nella politica del gruppo bersaglio, attraverso il processo cognitivo. Non si può trascurare il fatto, pertanto, che gli esseri umani costituiscono l’obiettivo primario di tutte queste operazioni.
Sebbene le IO emergano dal campo di studi relativi all’ingegneria sociale (social engineering) e alla sicurezza informatica, si differenziano da quest’ultima perché si concentrano su: 1) lo sfruttamento dei pregiudizi (bias) cognitivi nei gruppi sociali; 2) l’informazione fine a se stessa, intesa come influenza sociale dell’operazione; 3) la misurazione del rischio-impatto.
L’insieme dei mezzi e strumenti relativi alle IO rientrano all’interno del concetto più generale di sicurezza cognitiva (cognitive security, COGSEC). Contrariamente alla cybersecurity, la quale enfatizza la protezione di dispositivi, computer, reti e altri artefatti digitali, la COGSEC si concentra sulla protezione dell’essere umano, che richiede un approccio socio-tecnico che integri una serie di discipline tra cui scienze sociali/comportamentali, intelligenza artificiale, scienza dei dati e informatica.
In definitiva, si possono qui fornire alcuni spunti al fine di un’implementazione efficace di una COGSEC difensiva che ha l’obiettivo precipuo di rafforzare gli individui e le popolazioni contro l’influenza informazionale malevola e rendere inefficaci gli influencer avversari. Il fine sarebbe quello di cercare di mantenere il proprio spazio informazionale resiliente rispetto alle campagne di IO malevoli messe in essere da entità nation-state o da gruppi a essi allineati.
Questo risultato potrebbe essere ottenuto mediante la promozione in tutto il corpo sociale di una sorta di IO awareness diffusa. In questo senso, bisognerebbe aumentare maggiormente la resilienza cognitiva contro l’influenza informazionale malevola, la quale include la coltivazione del pensiero critico e l’alfabetizzazione mediatica attraverso la costante formazione alle digital skills, nonché lo sviluppo di strumenti in grado di fornire identificazione e difesa in tempo reale, per le persone e le organizzazioni, nei confronti di campagne di influenza IO sofisticate. Queste tecniche e tecnologie dovrebbero avere, tuttavia, la caratteristica di poter funzionare alla scala e alla velocità di Internet, a esempio l’identificazione automatizzata di deepfake e altri social media (agenti o bot basati su software) i quali vengono sempre più ingegnerizzati per un uso malevole.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.