Nello Cristianini, fisico, professore e ricercatore di Intelligenza Artificiale presso l’Università di Bristol, è intervenuto ieri nella prima giornata del Meeting di Rimini 2017, nell’incontro dal titolo “L’uomo e la macchina: inquietudini e speranze del futuro prossimo”, e ha continuato il dibattito sul tema all’interno dello spazio “WHAT? Macchine che imparano”. La Redazione dello spazio What lo ha intervistato. 



Buonasera professore. Dalla Fisica al Machine Learning e all’Intelligenza Artificiale. Cosa l’ha spinta a interessarsi a questo campo di studi?

Fin dalle scuole medie mi interessavo all’informatica, avevo un piccolo computer e programmavo. Oggi è normale che un ragazzino usi un computer, al contrario di quegli anni, in cui non era comune nemmeno possederne uno. Ho intrapreso gli studi di fisica dopo la maturità classica, mi affascinava l’astronomia e l’epistemologia. Poi, negli anni, studiando mi sono interessato sempre più all’apprendimento automatico. Il mio percorso, poi, è stato molto diverso da quello che era classico, cioè passare dalla Meccanica Statistica alle Reti Neurali, nei primi anni ’90 studiavo anche informatica teorica e ho cambiato corso di studi in Fisica Matematica.



Dopo cos’è successo?

Poi negli anni dal ’93 al ’95 ho seguito una serie di conferenze organizzate a Trieste sui temi dell’Intelligenza artificiale e ho conosciuto il professor Somalvico, che insegnava Intelligenza Artificiale al Politecnico di Milano. In breve, durante una cena mi offrì di lavorare insieme alla tesi, che quindi feci a Milano. È un po’ una storia di incontri fortuiti, ma ai quali io ero pronto perché da anni coltivavo questo interesse. La preparazione da fisico è poi stata cruciale durante il master a Londra, quando in un lavoro di Machine Learning era richiesta la conoscenza degli spazi di Hilbert, che allora gli esperti in informatica non avevano.



Cos’ha trovato di particolarmente interessante nell’apprendimento automatico?

Beh è la chiave di tutto! Per certi versi, non so bene perché, ciò mi è stato chiaro da subito: adottare delle tecniche di Machine Learning, affinché una macchina possa imparare dagli esempi, è la chiave per utilizzare le macchine in una grande varietà di impieghi diversi, quali la computer vision, lo speech recognition, e la traduzione automatica. Tutti i vari campi dell’intelligenza hanno problemi e dati diversi, ma tutte queste attività sono ora possibili e dietro ciò c’è un algoritmo di Machine Learning che ha imparato dagli esempi: così oggi abbiamo auto che si guidano da sole (come quelle di Google), le traduzioni automatiche e gli assistenti vocali con cui è possibile interagire. Quando chiesi la tesi sul Machine Learning il professor Somalvico mi disse di aver scelto l’argomento peggiore, perché non c’era nulla: io ero in realtà contento che non vi fosse nulla, soltanto qualche collezione di articoli che descrivono un campo molto aperto, che è cambiato molto nel tempo.

In che senso? Cos’è cambiato? Com’era inteso il campo dell’intelligenza artificiale prima e come è invece interpretato oggi?

Per quarant’anni, dagli anni 50 ai 90 circa, l’approccio all’intelligenza artificiale era molto “da matematici”: ci si chiedeva quale fosse l’attività intellettualmente più alta che un umano potesse svolgere e la risposta più naturale sembrava essere “dimostrare teoremi” o “giocare a scacchi”. L’idea che l’intelligenza fosse una partita a scacchi, strategia, deduzione logica, e regole assiomatiche era molto popolare nei decenni fino ai ’90 e tutti gli sforzi investiti nel tentativo di creare macchine intelligenti in aderenza a tale idea non aveva portato a nessun risultato. Il punto di svolta è stato l’abbandono di questo approccio in favore di metodi statistici: fu con questo “cambio di paradigma” che riuscimmo ad avere i primi traduttori.

Cos’ha portato questo cambiamento?

Il concetto è quello di emulare comportamenti utili, imparare dagli esempi, lasciando da parte il tentativo di risolvere il “problema dell’intelligenza”, abbandonando anche la questione di dare una etichetta al concetto stesso o definirlo univocamente. Amazon riesce a consigliare un libro senza comprendere il modello di una personalità o quello di un libro, ma funziona; allo stesso modo è possibile bloccare le mail indesiderate senza avere una comprensione reale del loro contenuto. Il modo in cui abbiamo visto il Machine Learning trovare soluzioni a campi in cui decenni di indagine non hanno trovato soluzioni funzionanti può avere anche ricadute sulla teoria, si pensi alla linguistica. In sintesi, si è passato dal cercare di definire delle regole precise e procedere per deduzione logica a seguire un modello comportamentale guidato da inferenza statistica. Abbiamo anche evitato di prendere l’essere umano come modello di intelligenza, di renderla prerogativa umana: l’idea è quella di interessarsi di comportamenti intelligenti più che di intelligenza stessa, che possono essere anche propri di un agente o di un sistema che in modo autonomo persegue i propri obiettivi.

Questa definizione è in qualche modo legata alla coscienza?

No, non bisogna equivocare. Prima o poi bisognerà porsi questi interrogativi, ma per la nostra esperienza ogni volta che si tenta di affrontare la questione troppo presto ci si blocca. Per adesso è bene limitare le domande a cosa ci può essere utile in questo momento, piuttosto che parlare di scenari futuri e ipotetici. In sostanza, preoccupiamoci dei problemi di oggi delle AI, dei rischi di oggi e a più breve termine.

Cosa intende per “rischi a breve termine”? Si tratta di problemi reali?

Ci sono rischi reali, concreti e a brevissimo termine non alla nostra esistenza, ma alla nostra libertà personale, alla nostra autonomia di cittadini, alla privacy. Ritengo siano questi i problemi affrontare oggi, la stessa opinione pubblica è condizionata dagli algoritmi. Abbiamo creato delle macchine di cui adesso non possiamo più fare a meno e non abbiamo ancora le norme culturali, le leggi e i valori per conviverci. È un problema attualissimo di struttura culturale, che si deve affrontare come comunità. C’è bisogno di persone che “dipingano” i nuovi problemi per trasmettere alle generazioni future una coscienza di questi rischi, un po’ come per le favole che ci hanno per secoli ammonito e guidato.

(Riccardo Zaccone – Camplus Lingotto; Ing. Informatica Politecnico di Torino)