L’evasione fiscale è di fatto, un problema che interessa non soltanto l’Italia, ma soprattutto l’Unione Europea. E proprio a tal proposito l’UE ha stabilito che l’integrazione dell’intelligenza artificiale per contrastare questo fenomeno piuttosto grave e penalizzante, non sia “assolutamente un alto rischio”.
Se l’AI integrata in sistemi dove la valutazione è imputabile ed espressa in “possibili reati” è un forte rischio, lo stesso non si potrebbe dire nelle aree interessate all’amministrazione finanziaria, dove per l’UE: “non dovrebbero essere classificate come sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati“.
Evasione fiscale contrastata dall’AI: ma in che modo?
L’evasione fiscale potrebbe avere un nuovo alleato, l’intelligenza artificiale. Se è pur vero che come ogni nuova tecnologia e innovazione, anche l’AI possa avere “il suo buco nero“, per l’Unione Europea questa integrazione nell’amministrazione finanziaria non fa paura, anzi, potrebbe essere un’opportunità di crescita.
Dopo una serie di diatribe tra Consiglio, Parlamento e Commissione, si è giunti alla conclusione che l’intelligenza artificiale debba essere classificata in base all’entità di rischio che potrebbe provocare in determinate occasioni, tra cui, come citato dal testo:
Azioni che potrebbero susseguire degli usi di sistemi di IA, caratterizzati da un significativo squilibrio di potere e che potrebbero portare alla sorveglianza, all’arresto o alla privazione della libertà di una persona fisica, nonché ad altri impatti negativi sui diritti fondamentali garantiti nella Carta dei diritti fondamentali dell’Unione europea.
L’approccio per contrastare l’evasione fiscale si baserà dunque, sul “principio di rischio“. Più sono potenzialmente alte le conseguenze che potrebbero derivare dall’uso della AI, maggiore sarà l’esenzione di quest’ultima dai sistemi governativi.
Il regolamento dell’UE è stato posto in esame, contenente una lista di attività potenzialmente ammesse e non, sulla base – come ribadiamo – dei potenziali rischi e danni che potrebbe arrecare l’intelligenza artificiale.