Manca ancora l’accordo in Ue sulle trattative dell’IA Act, la prima legge al mondo sull’intelligenza artificiale. Dopo ventidue ore di negoziazioni, le istituzioni comunitarie non sono riuscite a trovare un punto di incontro: i negoziati riprenderanno adesso alle 9, come spiegato dal commissario Ue per il Mercato unico, Thierry Breton. I negoziatori erano chiamati a discutere 21 punti all’ordine del giorno. Tra loro ci sarebbe un accordo “in linea di principio” sui modelli di fondazione come Gpt-4, alla base del chatbot ChatGpt.



Più difficile, invece, trovare un accordo su punti critici come la valutazione d’impatto sui diritti fondamentali, i sistemi di identificazione biometrica in tempo reale e a distanza, il riconoscimento facciale e le deroghe nell’ambito della sicurezza nazionale, spiega il portale “CorCom”. Anche dopo l’accordo, bisognerà continuare il lavoro a livello tecnico per finalizzare il Regolamento entro la fine della legislatura nella primavera del prossimo anno. Serve lavorare più specificatamente sulle norme di classificazione per i sistemi ‘ad alto rischio’, applicazione della legge e modelli generativi di intelligenza artificiale. Per quanto riguarda quest’ultimo punto, Francia, Germania e Italia non sostengono l’approccio spagnolo e chiedono codici di condotta per lo sviluppo di questi modelli.



Intelligenza artificiale, proseguono le discussioni

Risale al 21 aprile del 2021 la proposta di un quadro normativo sull’intelligenza artificiale presentata dalla Commissione Europea per lo sviluppo e l’utilizzo di tecnologie all’avanguardia sul suolo dell’UE, spiega “Eunews”. Si tratterebbe della prima raccolta di regole, chiamato IA Act, con loro scopo appunto di regolare un settore sorto negli ultimi anni. Sia il Consiglio sia il Parlamento Europeo hanno deciso di dare seguito all’impostazione presentata dall’esecutivo. Dovrebbe esserci dunque una scala rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo (videogiochi e filtri anti-spam), limitato (chatbot), alto (punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in tribunale) e inaccettabile (“chiara minaccia” per la sicurezza e i diritti delle persone ecc.).



Per il primo livello non è previsto alcun intervento ma l’ultimo sarà vietato integralmente. Dunque saranno vietati i sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone. Le istituzioni Ue stanno discutendo se includere o meno in questo caso anche i sistemi di identificazione biometrica. Come ricordato da Ursula von der Leyen, all’interno della proposta di Regolamento Ue sull’Ia vi è anche la proposta di creare un Ufficio europeo per l’intelligenza artificiale. “Questo Ufficio potrebbe occuparsi dei modelli di Ia più avanzati, con la responsabilità della supervisione”, ha spiegato la presidentessa della Commissione UE.