Ben resto – poco più di una settimana e mezza, ovvero il prossimo 2 febbraio – in UE entrerà ufficialmente in vigore l’AI Act che avrebbe dovuto contenere tutta un a serie di regolamentazioni per l’uso dell’Intelligenza Artificiale tutelando – innanzitutto – la privacy e la libertà delle persone: il condizionale, tuttavia, è d’obbligo perché oltre ai proclami europei il team investigativo Investigate Europe ha scoperto che nel frattempo su spinta della Francia si sono condotti una serie di negoziati blindatissimi che hanno portato ad un’apertura della sorveglianza di massa con quegli stessi strumenti che si sarebbero voluti limitare ricorrendo alla sempre buona scusa della tutela dell’ordine pubblico.
L’argomento è importante e certamente scottante, ma prima di arrivarci è bene partire dal principio precisando che in fase negoziale del testo sull’Intelligenza Artificiale il vice ambasciatore francese Cyril Piquamal aveva già cercato di ottenere le deroghe che vedremo a breve nel 2022 citando tra le sue preoccupazioni quella dei giochi olimpici che si sono svolti la scorsa estate e che avrebbero richiesto uno sforzo importante per tutelare l’ordine pubblico: così, da una iniziale voce nell’autunno del 2023 si sono uniti al coro anche l’Italia, l’Ungheria, la Romania, la Svezia, la Repubblica Ceca, la Lituania, la Finlandia e la Bulgaria che hanno fatto da traino alla rimozione di ogni tipo di restrizioni sull’uso – da parte delle forze dell’ordine – dei sistemi di sorveglianza ‘intelligenti’.
Sorveglianza di massa con l’Intelligenza Artificiale: cosa dice il testo dell’AI Act approvato dall’UE?
Le novità – per così dire – ‘segrete’ sul testo sono tante, ma le più rilevante è certamente quella che apre all’uso dei software di sorveglianza di massa per la tutela dell’ordine pubblico che prevede una generale deroga nel caso si parli di almeno 16 reati differenti: tra questi ci sono – per esempio – il terrorismo, lo sfruttamento sessuale dei minori, la tratta di esseri umani e i vari traffici illeciti (dalle armi, fino alla droga); ma non mancano neppure la rapina, i ‘reati ambientali’ e l’omicidio, lasciando ben poco spazio alle materie per cui non è concesso.
Similmente, è interessante notare che sempre in quelle 16 materie per cui si può ricorrere alla sorveglianza con l’Intelligenza Artificiale i governi e le istituzioni possono anche chiedere anche il supporto di aziende private permettendo loro di raccogliere, conservare e vendere i dati ottenuti con i loro sistemi (si pensi, per esempio, ai satelliti cinesi o russi); mentre l’ultima – e forse ancor più preoccupante – novità riguarda l’apertura all’uso di quei software per schedare chiunque passi davanti ai sistemi di sorveglianza di massa secondo etnia, credo religioso, appartenenza politica od orientamento sessuale.