Intelligenza artificiale: la legge proposta dell’UE

Il Parlamento Europeo sembra essere sempre più vicino a raggiungere un accordo per regolamentare l’uso dell’intelligenza artificiale. L’obiettivo non è quello a cui ambiscono in molti (forse moltissimi) di limitare completamente e senza appello servizi come ChatGPT, o le varie controparti prodotte da aziende rivali, ma è piuttosto quello di trovare una via legale con cui si possano utilizzare, in sicurezza, i sistemi basati sull’apprendimento generativo.



La regolamentazione sull’intelligenza artificiale prende il nome di AI Act ed è in discussione nel Parlamento di Bruxelles da circa due anni, dopo la proposta iniziale avanzata nel 2021. I lavori, però, hanno subito rallentamenti di varia natura, tra cui lo scoppio della Guerra in Ucraina che ha portato ad una (doverosa) ridefinizione delle priorità. In ultima istanza, l’arrivo sul marcato (e il conseguente boom) di ChatGPT e modelli simili sempre basati sull’intelligenza artificiale, ha costretto ad una revisione completa del testo, che ha fatto slittare la sua votazione in Commissione al 26 di questo mese. Non è detto, però, che il testo dell’AI Act venga redatto in tempo e potrebbero verificarsi ulteriori rallentamenti.



Cos’è e a cosa serve l’AI Act

Complessivamente, l’obiettivo dell’Unione Europea è quello di legiferare sull’uso e sull’applicazione dell’intelligenza artificiale al fine che avvenga nel rispetto della salute e della sicurezza di tutti i cittadini europei. Sembra che qualcosa sia vicino a muoversi, ed alcune bozze dell’AI Act stanno già iniziando a circolare, anche se è troppo presto per definire concretamente quali saranno le norme e le limitazioni previste dal testo definitivo.

Complessivamente, emerge come per ora l’intelligenza artificiale dovrà essere classificata secondo un nuovo criterio, che rappresenta la potenziale pericolosità del mezzo. Si distingue tra l’AI a scopo generale (che non viene addestrata con i dati, ma che fornisce aiuto in diversi campi) e l’AI di base (ovvero tutti i modelli che richiedono addestramento e raccolgono dati, come ChatGPT), prevedendo norme più stringenti in particolare per questi ultimi. Sarà definita una catena di responsabilità per ogni intelligenza artificiale, al fine di individuarne i responsabili, e saranno sicuramente incluse norme per la trasparenza sulla raccolta dei dati degli utenti.