Il tentativo dell’Europa di “domare” l’intelligenza artificiale si sta rivelando molto debole. Lo evidenzia Meinhard Lukas, professore universitario di diritto civile presso l’Università Johannes Kepler di Linz, dove è stato anche rettore fino al 30 settembre, in un’analisi pubblicata su Presse in cui parte dalla bozza di regolamento sull’IA presentata dalla Commissione europea il 21 aprile 2021. Ebbene, mirava a creare un quadro uniforme per lo sviluppo, commercializzazione e uso dell’intelligenza artificiale, ma si è rivelata vecchia ancor prima di diventare legge. Mentre la società OpenAI lanciava la piattaforma ChatGPT, appariva evidente come l’ambizioso progetto dell’Europa di diventare il centro mondiale dell’AI solo tramite un quadro giuridico fosse in realtà limitato.
Ora il Parlamento europeo vuole includere nella normativa i “modelli di base“, cioè i modelli di sistemi di intelligenza artificiale che sono stati addestrati su un’ampia base di dati, sono stati progettati per un output generale e possono essere adattati ad un’ampia gamma di compiti diversi, proprio come nel caso di ChatGPT o Bard. Le regole per i modelli di base si applicano indipendentemente dalla classificazione del rischio dei sistemi altrimenti prevista dal regolamento. Quindi, i fornitori di questi modelli di base devono essere soggetti a obblighi completi anche prima che vengano messi a disposizione sul mercato o in funzione. Il regolamento previsto è rivolto, quindi, sia i giganti dell’informatica sia le PMI o le start-up che forniscono la loro tecnologia ai clienti in applicazioni specifiche. E si sta già discutendo se questa parità di trattamento contribuisca davvero al funzionamento del mercato interno.
INTELLIGENZA ARTIFICIALE, I LIMITI DELLE REGOLE UE
Per quanto riguarda i modelli di base, deve essere riconoscibile che il contenuto è stato generato dall’intelligenza artificiale. Quindi, i fornitori devono identificare, ridurre e attenuare i rischi per salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto prima e durante lo sviluppo, tramite un’adeguata pianificazione, oltre che test e analisi. Ma ciò vale solo per i rischi “ragionevolmente prevedibili”. Inoltre, i fornitori sono tenuti a pubblicare i dati usati per la formazione del modello di base in forma aggregata. Tra gli obblighi proposti dal Parlamento europeo ce ne sono altri che risultano comprensibili nella loro essenzialità. Ad esempio, i requisiti qualitativi per i dati di addestramento al fine di evitare distorsioni (“biases”). Ma per soddisfare questi requisiti ora si deve tenere conto dello “stato dell’arte generalmente riconosciuto”.
Ciò evidenzia il vero problema della regolamentazione europea secondo il professor Meinhard Lukas. Come evidenziato su Presse, con i modelli di base, la normativa prevista regola una tecnologia dominata e portata avanti dai giganti dell’informatica della Silicon Valley. Questi specificano lo stato dell’arte, a cui la legislazione europea può solo impunemente agganciarsi. Ma c’è un aspetto ancor più grave per il giornale austriaco: la documentazione tecnica sui modelli linguistici altamente sofisticati alla base dei chatbot diventa sempre più scarna a ogni versione. «In definitiva, l’Ue sta cercando di regolamentare una tecnologia che per lei è in gran parte una scatola nera (almeno prima dell’entrata in vigore dei requisiti di divulgazione)», scrive il docente.
UE, COME RAGGIUNGERE LA SOVRANITÀ DIGITALE
La situazione è ancor più complessa di come appare. Infatti, anche chi sta dietro i chatbot sembra un apprendista stregone privo di un maestro. Come sottolineato dal professor Meinhard Lukas, sono consapevoli che anche loro hanno solo una comprensione rudimentale del funzionamento dei modelli linguistici che hanno progettato. Ad esempio, lo ha ammesso Sébastien Bubeck, ingegnere capo dell’apprendimento automatico presso Microsoft, in un articolo scientifico molto citato. Quindi, si sta diffondendo in tutto il mondo «una tecnologia la cui natura e i cui meccanismi sono in gran parte inesplorati». Per questo motivo la risposta normativa dell’Ue «non deve limitarsi a una regolamentazione dell’IA ben intenzionata, che pone limiti soprattutto per le proprie aziende».
Anche perché l’Europa può raggiungere la sua sovranità digitale solo quando riuscirà a sviluppare modelli linguistici su larga scala come ChatGPT. Quindi, avrebbe bisogno di un istituto di ricerca europeo sull’intelligenza artificiale con una infrastruttura informatica che sia all’altezza di Google, Amazon e Microsoft. «La creazione del Cern è un modello eccellente. Se l’UE non riuscirà ancora una volta a raccogliere la forza creativa per un progetto del genere, il nobile obiettivo di un’Europa digitalmente sovrana rimarrà iscritto in una bolla di sapone e di parole», conclude Lukas.