L’Unione Europea intende regolamentare l’utilizzo dell’IA, Intelligenza Artificiale, alla luce anche della sua massiccia diffusione negli ultimi tempi, così come ad esempio dimostrato da ChatGPT. La prima proposta di regolamento, come ricorda stamane Le Monde, risale all’aprile del 2021, con l’obiettivo di favorire ricerca e sviluppo ma nel contempo assicurare il rispetto dei diritti fondamentali degli individui e la sicurezza dei sistemi. Il 6 dicembre 2022, il Consiglio Europeo aveva quindi apportato alcune modifiche al testo originario, sottolineando come la definizione di IA venisse limitata solo ai sistemi sviluppati mediante approcci di apprendimento automatico e approcci basati sulla logica e sulla conoscenza: così facendo si è deciso di agevolare la distinzione tra tecnologie di IA e semplici software.



Inoltre venne introdotto il nuovo titolo 1 bis che disciplinava le “IA per finalità generali”, sistemi che possono essere utilizzati quindi per scopi diversi e per cui sono applicabili determinati requisiti previsti per i sistemi ad alto rischio. Si è quindi arrivati allo scorso mese di gennaio 2023, durante il quale sono stati pubblicati ulteriori aggiornamenti circa le discussione interne al Parlamento europeo, pubblicati sul sito del network Euractiv, e infine all’inizio di questo mese, febbraio 2023. I deputati sembrerebbero voler ridefinire il concetto di IA ad alto rischio, lasciando quindi a coloro che sviluppano queste tecnologie se stabilire se il proprio prodotto ponga dei rischi alla salute, alla sicurezza o ai diritti fondamentali. Sono state inoltre proposte delle modifiche alla definizione “sicurezza” riferendosi solo ai rischi di danni a salute o sicurezza delle persone fisiche. A marzo 2023 è probabile che il Parlamento europeo tiri le somme circa il Regolamento sull’IA, dopo di che scatterà un intenso dibattito a Bruxelles e il testo sarà quindi adottato.



IA, L’UE CERCA DI REGOLAMENTARLA: ECCO TUTTI GLI ULTIMI RISVOLTI E I PARERI AUTOREVOLI

“L’Unione Europea deve essere la numero uno nella regolamentazione ma anche innovazione”, sono le parole del Commissario europeo per mercato interno, Thierry Breton. L’obiettivo finale sarà quello di individuare quali saranno i campi di applicazione leciti dell’IA e alcuni sono già stati banditi come ad esempio le “tecniche subliminali” volte a manipolare i cittadini, i software “che puntano a sfruttare le vulnerabilità dovute a età, disabilità o situazione sociali”, e anche la videosorveglianza che consente “l’identificazione biometrica delle persone in tempo reale nello spazio pubblico”.



Altre applicazioni sono state invece classificate ad Alto Rischio, ed inoltre il testo ha posto l’accento sugli obblighi dell’IA, leggasi verificare la “qualità” dei dati utilizzati per addestrare il software, “ridurre al minimo i rischi e gli esiti discriminatori”, garantire un basso tasso di errore. In ogni caso nessuno sa dire come si concluderà questa vicenda, e a riguardo sono tante le voci e i pareri, molti dei quali discordanti, come ad esempio quella di Jason Oxman, direttore del settore della tecnologia dell’informazione Council (ITI), lobby che rappresenta Microsoft, Meta e Google che afferma: “Dobbiamo regolamentare gli usi, non gli strumenti. Un coltello può essere usato per imburrare un toast o uccidere”, mentre per Amazon una legge troppo severa rischia di bloccare l’innovazione e la tecnologia.