AI Act, approvato dall’UE il testo sull’Intelligenza artificiale

Nella giornata di oggi il Parlamento Europeo ha approvato l’AI Act, ovvero la prima legge europea in materia di Intelligenza artificiale. Se ne parlava già da diverse settimane, ma nel frattempo il testo originariamente proposto è stato discusso e leggermente cambiato, portando ad un nuovo testo che ora è entrato nella fase finale. Fonti interne al Parlamento, citate dal Sole 24 Ore, ritengono che la legge entrerà ufficialmente in vigore entro la fine dell’anno, massimo nei primi mesi del 2024.



Complessivamente, del testo originariamente proposto dell’AI Act, che dovrebbe regolare il campo d’azione dell’Intelligenza artificiale, è rimasta intatta la maggioranza degli articoli, conservando soprattutto l’approccio basato sul rischio. Vengono, infatti, stabiliti obblighi tanto per le aziende che creano le IA, quanto per tutte le altre che le utilizzano in qualsiasi forma, e questi varieranno in base ad un determinato livello di rischio stabilito dalla legge stessa. Grazie all’AI Act saranno, ovviamente, vietati tutti gli usi e i sistemi con Intelligenza artificiale che rientrano nella categoria di rischio maggiore, ritenuti inaccettabili per la sicurezza delle persone (tra tutti, i sistemi di social scoring, ovvero che classificano le persone in base al comportamento sociale e a determinate caratteristiche fisiche).



Cosa cambia e come applicare al meglio l’AI Act

L’unica modifica significativa apportata all’AI Act sull’Intelligenza artificiale è una concessione a livello di riconoscimento facciale. Questo, infatti, è stato vietato quando è “in tempo reale”, ma concesso “a posteriori” per il solo perseguimento dei reati gravi e con un’autorizzazione giudiziaria. Per le aziende che creano o operano attraverso le IA, sono previsti ora due anni di tempo per adeguarsi alla legge europea, pena il divieto di utilizzare quella determinata tecnologia.

Data la sempre maggiore diffusione dell’Intelligenza artificiale pressoché nella maggior parte dei siti, adeguarsi all’AI Act sarà premura di buona parte delle Pmi italiane. Il primo passo sarà quello di controllare che l’IA utilizzata rientri nella categoria ad alto rischio, e nel caso “procedere ad una valutazione di conformità”, spiega al Sole Stefano da Empoli, presidente I-Com. Questa potrà essere fatta internamente o attraverso aziende specializzate private. Per chi crea sistemi con Intelligenza artificiale, l’AI Act prevede anche un monitoraggio dei rischi continuo nel tempo, con nuove valutazioni necessarie ad ogni modifica o aggiornamento del codice. Le aziende, invece, la cosa più importante “soddisfare l’obbligo di non discriminazione”. Infine, Pellegrino sottolinea anche quali sono i principali sistemi ad alto rischio, da tenere d’occhio, ovvero quelli per calcolare il rischio creditizio/bancario, e quelli di analisi dei curriculum per le assunzioni.