L’intelligenza artificiale è recentemente finita al centro di un’accusa da parte del presidente della Banca d’Inghilterra, Andrew Bailey, secondo il quale viene impiegata per giocare in borsa. Fin qui potrebbe essere tutto in regola, anche perché concretamente i broker traggono vantaggi dall’implementazione delle IA, grazie alle quale possono automatizzare alcuni aspetti del loro lavoro, e la stessa Autority la impiega per monitorare gli scambi.



Qual è dunque il problema? È presto detto, perché se è vero che l’intelligenza artificiale può aiutare chi lavora in borsa, può anche rappresentare un vero e proprio ostacolo, manipolando a suo favore il mercato azionistico. Tutto questo, peraltro, senza necessità di un aiuto umano, data la sua capacità di “comprendere” (o, meglio, imitare) azioni compiute da altri attori. La manipolazione, poi, può avvenire in tre modi. Il primo, che per certi versi è il più “innocuo”, è quanto accaduto recentemente con il video generato da un’intelligenza artificiale di un finto attacco terroristico a Washington, prontamente smentito, ma non prima che avesse effetti in borsa.



Come l’intelligenza artificiale può manipolare la borsa autonomamente

La reale manipolazione del mercato azionistico con l’intelligenza artificiale che gioca in borsa, però, l’ha teorizzata un esperto della Sparx asset management. Questi, infatti, ha sviluppato un’IA in grado di studiare le strategie manipolative impiegate dai broker reali, comprendendo quale sia la migliore da utilizzare in determinate circostanze, programmabile anche affinché agisca in modo autonomo per portare a termine un determinato obiettivo. Un paper, invece, ha dimostrato la possibilità che l’intelligenza artificiale, giocando in borsa, si allei con altre attività di investimento, coordinando le strategie al fine, nuovamente, di ottenere il risultato fissato dall’operatore.



Com’è possibile, però, che l’IA agisca in modo autonomo? È piuttosto semplice, ma occorre andare oltre al paradigma che rappresentano i modelli generativi alla ChatGPT. In questo caso, infatti, la macchina impara dalle interazioni con l’utente, mentre nel caso della borsa l’intelligenza artificiale viene lasciata “libera” di agire a lungo termine, al fine di raggiungere un obbiettivo senza limiti temporali. In questo caso, dunque, l’IA interagisce con gli altri attori, con il rischio che apprenda meccanismi fraudolenti da un operatore sleale, applicandoli senza comprenderne l’illegalità, ma influenzando in modo attivo e permanente il mercato.