Ue fissa le regole sull’intelligenza artificiale. Dopo tre giorni di trattative, Parlamento e Consiglio europeo hanno raggiunto un accordo politico sul testo legislativo, che è stato definito rivoluzionario, in quanto regolamenta l’uso dell’AI. Di fatto, l’Ue diventa la prima giurisdizione al mondo a regolare questo ambito delicatissimo. Le associazioni di categoria e le organizzazioni non governative, però, sono preoccupate, infatti le loro reazioni sono state negative. Per Carme Artigas, rappresentante del Consiglio è stato raggiunto «un equilibrio delicato tra la promozione dell’innovazione e la garanzia del pieno rispetto dei diritti dei cittadini». Relatore del testo è Brando Benifei, deputato socialista italiano, secondo cui con le nuove regole «i sistemi che verranno usati in ambito sensibile come le scuole, i luoghi di lavoro, gli ospedali, i tribunali saranno sottoposti a regole stringenti (…) a tutela delle persone più fragili».



I parlamentari volevano ottenere regole più restrittive, ma i governi cercavano margini di manovra nei campi sicurezza ed economia. Stando a quanto riportato dal Sole 24 Ore, la diplomazia italiana ha spinto per proteggere le prerogative nazionali, in particolare sull’ordine pubblico. Rispetto alla proposta della Commissione Ue, l’accordo prevede poteri di applicazione a livello europeo, l’estensione dell’elenco dei divieti, ma c’è la possibilità di usare l’identificazione biometrica a distanza da parte delle autorità di polizia negli spazi pubblici, con specifiche salvaguardie. Inoltre, prevede una protezione migliore dei diritti tramite l’obbligo per chi impiega sistemi di intelligenza artificiale ad alto rischio di condurre una valutazione d’impatto.



LEGGE UE SU INTELLIGENZA ARTIFICIALE, LE REAZIONI

Per quanto riguarda l’intelligenza artificiale generativa, il compromesso raggiunto prevede un approccio a due velocità. In primis, regole per tutti per garantire la qualità dei dati usati nello sviluppo degli algoritmi e per verificare che non venga violata la legislazione sul diritto d’autore. Gli sviluppatori dovranno garantire che suoni, testi e immagini siano identificati come artificiali. Previsti vincoli più stringenti solo per i sistemi più potenti. La regolamentazione Ue dell’intelligenza artificiale era considerata urgente a causa dei rischi legati a tale tecnologia. Ma non tutti sono soddisfatti.



Come Marco Leto Barone, dirigente dell’Information Technology Industry Council: «Accogliamo positivamente i progressi compiuti, ma siamo preoccupati da un approccio a due livelli che provocherà significativa incertezza giuridica . Inoltre, siamo delusi dal divieto di categorizzazione biometrica, che ostacolerà molti usi commerciali dell’intelligenza artificiale, tendenzialmente vantaggiosi e a basso rischio». Critica anche Ursula Pachl, vicedirettrice della European Consumers Organisation: «Si è fatto eccessivo affidamento sulla buona volontà delle aziende di autoregolamentarsi. Per esempio, gli assistenti virtuali (…) non saranno regolamentati a sufficienza perché non sono considerati sistemi ad alto rischio. Inoltre, sistemi come ChatGPT o Bard non otterranno le garanzie necessarie affinché i consumatori abbiano piena fiducia». L’accordo sull’intelligenza artificiale prevede alte sanzioni pecuniarie contro le imprese che ne violano i principi, ma il testo legislativo andrà curato in vista del voto definitivo del Parlamento e del Consiglio Ue. L’applicazione piena si avrà a due anni dall’entrata in vigore.

MODELLI FONDATIVI, DISCIPLINA A DOPPIO LIVELLO

Sono due le questioni chiave su cui si è discusso: foundation models, i modelli che elaborano grandi masse di dati che possono essere usati però per scopi diversi tra loro, e riconoscimento biometrico. Per quanto riguarda il primo aspetto, si prevede una disciplina a due livelli, sulla base del principio di proporzionalità, che è quello chiave del costituzionalismo europeo. I modelli fondativi, alla base ad esempio di GPT, sono ora inclusi nel regolamento che non li contemplava prima. Come evidenziato dal Sole 24 Ore, l’accordo prevede che se i modelli sono ad alto impatto, e ciò dipende dal potere di calcolo, bisogna fare una valutazione ex ante e condividere la documentazione tecnica prima dell’accesso al mercato.

Se invece non sono ad alto impatto, sono previsti obblighi di trasparenza per la commercializzazione. Per quanto concerne il riconoscimento biometrico, come quello facciale, lo scontro è più politico e ha impatto sulla sovranità. Infatti, alcuni Paesi avrebbero voluto estendere l’uso a fini di sicurezza. L’accordo consente il riconoscimento solo in alcuni casi: minaccia concreta di attacco terroristico, ricerca delle vittime, persecuzione di reati gravi, previa autorizzazione del giudice. Le sanzioni sono pesanti: da 7,5 a 35 milioni o da 1,5% a 7% del fatturato.