Il Parlamento Ue in seduta a Strasburgo nella giornata di oggi ha approvato le nuove norme sull’intelligenza artificiale contenute nel dibattuto, discusso e talvolta criticato Ai Act. Un testo fitto e frutto di un accordo raggiunto dagli Stati membri lo scorso dicembre, con 523 voti a favore e solamente 46 contrari e 49 astenuti. Le norme, come evidenziato più volte, mireranno a proteggere i diritti fondamentali degli europei, oltre alla democrazia, allo Stato di diritto e alla sostenibilità ambientale dei modelli Ia.



Complessivamente, il testo divide i vari sistemi con intelligenza artificiale in base ai possibili rischi stimati, oltre che al loro livello d’impatto sulla popolazione. Buona parte del testo, infatti, elenca le varie applicazioni proibite e definisce, per quelle utilizzabili, diversi obblighi basati sulla loro pericolosità. Nel livello di rischio minimo, e dunque i sistemi con finalità generali (come i noti chat bot e le Ia generative), dovranno soddisfare dei requisiti di trasparenza, oltre a rispettare le norme Ue sul diritto d’autore durante la fasi di addestramento dell’intelligenza artificiale. Similmente, immagini, audio e video creati o manipolati con l’Ia (come i deepfake), dovranno essere chiaramente etichettati in quanto tali. I modelli a medio rischio, invece, prima di essere implementati dovranno svolgere analisi sistemiche sui possibili rischi e incidenti, sulle quali verrà valutata la loro eventuale implementazione.



Intelligenza artificiale: quali applicazioni ha proibito l’Ue

Differenti, invece, le norme Ue che regoleranno l’intelligenza artificiale definita ad alto rischio, ovvero che potrebbe causare danni a salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto. Vengono inclusi in questa categoria tutti gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati, ma anche contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici. I modelli ad alto rischio oltre a valutare i rischi possibili, dovranno anche mantenere registri d’uso, essere trasparenti e accurati, oltre che sorvegliati da esseri umani.



Invece, saranno proibiti gli usi dell’intelligenza artificiale basati sulla categorizzazione biometrica, sulle caratteristiche personali degli individui, oltre che quelli che utilizzano foto prese da internet o dalle telecamere per creare banche dati di riconoscimento facciale. Vietati, inoltre, i sistemi di riconoscimento delle emozioni sui luoghi di lavoro e nelle scuole, ma anche i sistemi di credito sociale, polizia predittiva e manipolazione del comportamento umano sfruttando le vulnerabilità delle persone. L’unica casistica per cui si potrà usare l’intelligenza artificiale con riconoscimento facciale è davanti ad un comprovato (e motivato da un giudice) reato, tra cui la ricerca di persone scomparse e criminali o la prevenzione terroristica. L’uso, in questo caso, dovrà essere limitato nel tempo, oltre che giustificato da un “elevato rischio” sociale.