L’Unione europea si appresta a mettere i paletti all’intelligenza artificiale. I lavori a Bruxelles per l’AI Act, che potrebbe essere la prima regolamentazione a livello internazionale, sono ancora in corso, la trattativa appare infinita, ma c’è un accordo su alcuni punti chiave. Queste le indiscrezioni riportate dal Corriere della Sera, secondo cui uno riguarda i modelli fondativi (foundational models), cioè le strutture alla base dei sistemi più complessi di intelligenza artificiale. Di fatto, può essere considerata l’anima dei servizi già noti attualmente come ChatGPT di OpenAI e Bard di Google, che nel frattempo ha lanciato un nuovo modello, Gemini.



Salvo colpi di scena nel documento definitivo, l’AI Act dovrebbe contenere le prescrizioni per i modelli di intelligenza artificiale considerati a rischio sistemico. Per valutare chi dovrà finire in questa categoria verrà usato un approccio complesso a più livelli, tenendo conto di parametri quantitativi (capacità di calcolo) e qualitativi (segnalazioni di un comitato scientifico). Per avere la licenza per operare in Europa, le aziende dovranno affrontare una valutazione di rischio sistemico, di sicurezza informatica e ambientale. Quindi, chi usufruirà di questi modelli per creare proprie intelligenze artificiali dovrà pubblicare una sintesi con i contenuti usati per addestrarle.



INTELLIGENZA ARTIFICIALE, PROGRESSI NELLA TRATTATIVA UE

Chi usa intelligenze artificiali libere o “aperte” (open source) potrà avere un’esenzione alla licenza, a meno che non vengano considerate ad alto rischio o se hanno scopi di per sé vietati. Ad esempio, rientrano in questa categoria progetti come quelli di Meta e Ibm, che hanno lanciato AI Alliance. Italia, Germania e Francia nelle ultime settimane hanno appoggiato una proposta in base alla quale i produttori di intelligenza artificiale generativa avrebbero dovuto autoregolamentarsi. Una posizione contro cui si schierano molti accademici che hanno scritto una lettera aperta e 34 associazioni della cultura con un documento. Stando a quanto riportato dal Corriere della Sera, l’intelligenza artificiale manterrà paletti etici. Ad esempio, saranno vietate le applicazioni in ambiti quali tecniche subliminali o manipolative per distorcere il comportamento.



Stesso discorso per lo sfruttamento di vulnerabilità di individui o gruppi specifici, il social scoring (“voti” ai cittadini e relative sanzioni), l’uso del riconoscimento facciale con immagini acquisite in maniera massiva. Thierry Breton, il commissario Ue al Mercato interno, ha twittato che nelle ultime 22 ore sono stati registrati molti progressi sull’AI Act. D’altra parte, va risolto il rebus delle norme legate all’uso dell’intelligenza artificiale nella pubblica sicurezza. Una parte del Parlamento europeo vorrebbe vietare la sorveglianza biometrica, ma diversi governi spingono per eccezioni su sicurezza nazionale, difesa ed esercito. Comunque, l’accordo va raggiunto in tempi brevi, visto che la legislatura è in scadenza. Ma anche con un accordo totale sull’AI Act, potrebbero passare quasi altri due anni prima dell’entrata in vigore della legislazione.