L’intelligenza artificiale, IA, pilastro della nuova rivoluzione industriale, cambierà in profondità la nostra società dalla salute all’ambiente, al lavoro, al funzionamento della democrazia e prefigura un forte impatto sui valori, bisogni e aspettative della società. Emergono nuove problematiche rispetto al modo tradizionale di fare software: la responsabilità delle azioni, la dignità umana, la non-discriminazione, per citare solo alcuni risvolti. Lo scorso aprile, la Commissione europea ha costituito un gruppo di intelligenze umane per tracciare le linee guida sugli aspetti etici, sociali e legali auspicabili nella progettazione di sistemi di intelligenza artificiale e fornire così un indirizzo alle future politiche comunitarie per lo sviluppo di IA eticamente accettabile e socialmente desiderabile.
Dopo 8 mesi di lavoro corposo: dai 2-3 giorni di incontri al mese e una mole di “compiti a casa” sui documenti scambiati, i 52 esperti designati rappresentati da informatici e ingegneri ma anche giuristi, filosofi, matematici, industriali, sociologi, hanno prodotto una bozza di codice etico. L’IA come dovrebbe essere è stata quindi sottoposta a consultazione pubblica raccogliendo circa 500 i commenti da accademici, sindacati, associazioni civili e anche semplici cittadini. Oggi la Commissione europea presenterà ufficialmente il documento finale rivisto alla luce delle osservazioni ricevute. Ne parliamo con Stefano Quintarelli uno dei membri del High-Level Expert Group on Artificial Intelligence. Con alle spalle una carriera di docente in sicurezza informatica e imprenditore nel digitale, è stato deputato nella scorsa legislatura e attualmente presiede il comitato di indirizzo dell’AGID Agenzia per l’Italia Digitale, è advisor dell’ONU e ha appena pubblicato il saggio “Capitalismo Immateriale, Le tecnologie e il nuovo conflitto sociale”.
Perché un codice etico per l’IA?
Perché non tutte le scelte sono affrontabili con il calcolo computazionale. L’IA che altro non è che una tecnica per distillare modelli statistici dai dati, utilizzati per fare delle predizioni, ricorre a dei che sistemi cessano di essere deterministici ma diventano probabilistici. Bisogna quindi capire che cosa fare in particolare per quegli errori insiti nella statistica. Tuttavia non si tratta solo di gestione dei margini di errore, ma essendo l’IA applicabile ad ambiti che per natura, non sono deterministici, dove una valutazione implica un giudizio, richiede maggior cautela, si ha quindi bisogno di etica.
È necessario un codice etico?
Se vogliamo creare un mercato con queste applicazioni, dobbiamo creare le condizioni affinché la gente si fidi. La gente deve crederci.
Quali sono gli obiettivi del codice etico proposto dall’Europa?
Precisiamo intanto che non è un codice, ma sono delle linee guida. Dopo questo primo passo, la finalità del gruppo di lavoro, nei prossimi 12 mesi, è produrre delle raccomandazioni che includano proposte e modifiche regolamentari sotto varie tipologie: direttive, codici di autoregolamentazione, ecc. per la Commissione che deciderà come utilizzarle. Ma il passaggio preventivo era definire le linee guida etiche che orienteranno le raccomandazioni. Questo è il senso e la finalità del codice etico.
A chi si rivolge principalmente?
Alle aziende, ai ricercatori, alla comunità in generale.
Il tema richiama l’attenzione di molti; anche quella dei colossi del web che finora hanno sfruttato in modo un po’ spregiudicato il clima da Far West giustificandosi col motto “go fast and break things”. L’Europa fa da apripista sull’etica su IA?
Va riconosciuto che come entità statuale, l’Europa ha anticipato Stati Uniti e Cina i quali, a loro volta, hanno costituito dei gruppi per rendere IA degna di fiducia. Sicuramente il gruppo europeo è stato istituito per primo.
Come evitare il rischio che quello europeo rimanga un approccio formale?
Va considerato che l’area economica europea è molto significativa perché il Vecchio Continente è il principale produttore di ricerca pura e ricerca applicata su IA. Siamo davanti a Cina e Stati Uniti. Il problema è che poi in Europa non abbiamo i fondi per trasformare questo sforzo di R&S in aziende.
Quali caratteristiche deve possedere un sistema intelligente di cui ci si possa fidare?
Deve rispondere a 4 principi precauzionali: il rispetto per l’umano, la spiegabilità, l’imparzialità (fairness) e la prevenzione del danno. Per intenderci, l’autonomia dell’umano deve prevalere sulla macchina, pertanto il potere di controllo e supervisione spetta sempre in ultima istanza all’uomo. Per fare un’analogia con un recente fatto di cronaca, è quello che non è successo con i piloti al comando del Boeing 737 Max. La spiegabilità non coincide necessariamente con la trasparenza: si può fare una cosa totalmente trasparente che non risulta comunque comprensibile; di converso puoi spiegare ogni passaggio del processo: come lo hai realizzato, le certificazioni, ecc. e comunque non essere trasparente. La formula della Coca-Cola è spiegabile senza essere trasparente.
L’IA è già arrivata già nella nostra quotidianità: probabilmente all’insaputa di molti, ci stiamo già relazionando con sistemi di IA presenti sul nostro smartphone?
Esatto. Quando per esempio, etichettiamo la foto di una persona indicando questo è Giovanni, e poi ogni volta che fotografiamo Giovanni, il telefono mette in automatico il tag Giovanni di modo che possiamo trovare tutte le foto di Giovanni, stiamo interagendo con un sistema di IA. Questo un esempio di IA in esecuzione sul nostro proprio dispositivo e non in remoto, ma che ne sappiamo… Quando chiediamo la traduzione di una parola in rete, facciamo una ricerca su un motore di ricerca o acquistiamo un teiera su Amazon, stiamo ancora interagendo con IA. Se poi questa IA discrimini i fornitori sulla base, mettiamo, della loro localizzazione filtrando solo i produttori di una certa area geografica, allora entra in gioco il concetto dell’imparzialità. Per sostenere la correttezza, il sistema deve essere in grado di spiegare perché sono state fatte determinate scelte, quali sono i meccanismi che hanno determinato la costruzione dell’algoritmo per la selezione.
Siccome sono degli umani a scrivere linee di codice, gli algoritmi rispecchiano inevitabilmente i bias che abbiamo?
Questo è il problema, il problema del bias è centrale.
Per superarlo bisognerebbe penetrare nella mente dello sviluppatore… Come interviene il codice etico?
Il principio dell’autonomia dell’umano dovrebbe aiutare a mitigare gli effetti del bias insito nella società. Si può ridurre il rischio del bias incentrando grande attenzione nella fase di raccolta dei dati. Com’è scritto nel documento, la qualità e l’accuratezza dei dati è condizione fondamentale anche se non sufficiente, per tendere alla realizzazione del principio di imparzialità, equità, fairness che è un altro dei pilastri di un’IA fidata. Non dobbiamo però illuderci, anche con una raccolta di dati di alta qualità, integri, si correre il rischio di trascinarsi dei bias. Per questo sono state anche elaborate delle check-list di auto-validazione da “spuntare” nella fase di design, per arginare l’esposizione al rischio bias. Del resto non è solo importante evitare gli errori di valutazione nella fase dello sviluppo ma anche come gestirli nel momento in cui insorgono.
Quindi stiamo chiedendo all’IA di essere moralmente superiore di noi umani?
In un certo senso sì. Provo a rispondere con la battuta che dà Georges Clooney, candidato presidenziale nel film Le Idi di Marzo. Alla domanda su come reagirebbe se gli ammazzassero la moglie, replica che cercherebbe chi l’ha uccisa e si farebbe giustizia da sé. E all’obiezione come sia concepibile che proprio lui che è un oppositore alle armi, alla pena di morte, agisca in tal modo, Clooney ribatte che è consapevole che starebbe infrangendo la legge, ma che la società deve essere migliore dell’individuo. Quindi noi, come società, dobbiamo dare queste indicazioni per un IA eticamente perfetta. Anche se sappiamo che per definizione non lo è.
Se il resto del mondo non seguisse lo sforzo dell’Europa, si avrebbe un mercato di IA a doppia velocità?
Certamente, ma il fatto stesso di pubblicare le linee guida che hanno riscosso una larga partecipazione pubblica e sollevato notevole interesse di molti paesi extra-europei, un impatto l’ha avuto. Altra massima: non basta avere ragione, bisogna che te la diano, ed è così. Questo documento ha comunque già cambiato il mondo. Il GDPR (regolamento Ue sulla protezione dei dati personali) ha dimostrato che in Europa si possono fare delle norme che sono di buon senso e che vengono in larga misura imitate dal resto del mondo. Generalizzando, in Cina produci, in Usa sfrutti finanziariamente, in Europa si fanno le regole.
(Patrizia Feletig)