A partire dai molti stimoli e dai contributi offerti dallo spazio WHAT? Macchine che imparano durante lo scorso Meeting per l’Amicizia fra i Popoli di Rimini, abbiamo incontrato Nello Cristianini, Professore di Intelligenza Artificiale all’Università di Bristol per parlare dei vantaggi e dei rischi dell’utilizzo indiscriminato delle macchine intelligenti.
Si tratta di governare il cambiamento essendo consapevoli delle molteplici implicazioni: in campo educativo, a livello sociale ma anche sui nostri processi cognitivi.
L’importanza del dialogo tra diverse discipline, anche non scientifiche.
Vai alla Home-Page della Rivista | Chi Siamo | Vai al Sommario del N° 67 – Dicembre 2017 |
Vai alla Sezione SCIENZAinATTO | Vai agli SPECIALI della Rivista |
Il Meeting per l’Amicizia fra i Popoli 2017 ha rappresentato un’importante occasione di conoscenza e dibattito sulle nuove tecnologie attraverso gli incontri organizzati dall’Associazione Euresis tenutisi principalmente nello spazio WHAT? Macchine che imparano.
In primo piano c’erano i nuovi sistemi informatici avanzati, che si stanno diffondendo rapidamente aprendo nuovi spazi di azione e cambiando progressivamente il modo con cui si possono svolgere attività finora affidate esclusivamente all’uomo: sono i sistemi in grado di immagazzinare un’enorme quantità di dati e di connetterli ed elaborarli applicando le tecniche di Intelligenza Artificiale, di Machine Learning e di Deep Learning.
Tutti coloro che sono stati interpellati hanno concordato nel ritenere le macchine uno strumento potente e imprescindibile: sarebbe anacronistico pensare di poterne fare a meno, restando nostalgicamente ancorati al passato, tante sono le conquiste raggiunte in campo medico, industriale e scientifico.
Tuttavia sono anche tante le domande circa il futuro tecnologico. Non solo per quanto riguarda gli aspetti economici – quali lavori svolgeranno gli uomini se i robot sostituiranno interpreti, cassiere, taxisti o badanti? – o sociali – sta cambiando già ora il mondo della scuola, il mondo del lavoro? – che implicano oltretutto la necessità di modifiche legislative per chiarire ruoli e responsabilità.
Ma anche, più profondamente, per gli aspetti antropologici: come suggerivano due tra gli intervenuti di area non scientifica – lo scrittore Davide Rondoni e il politico Luciano Violante – c’è da chiedersi se in questo processo di sostituzione dell’uomo e di mediazione degli strumenti tecnologici non si annidi il rischio che l’uomo perda parte della sua identità, riducendo la propria consistenza a ciò che sa fare una macchina e alla soddisfazione di nuovi bisogni per lo più indotti.
Il rischio, insomma, che l’uomo diventi dipendente dalle macchine tanto da perdere la sua capacità di giudizio e, in ultima analisi, la sua libertà, anche solo in parte. Rispetto a certa cultura cinematografica a cui siamo avvezzi (si pensi a Matrix) il problema è ribaltato: non sarebbe la macchina a rappresentare una minaccia, ma l’uomo stesso se non affronta le questioni secondo una giusta prospettiva.
Il tema è ampio e non possiamo pretendere di esaurirlo in poco spazio. Abbiamo iniziato ad approfondirne alcuni aspetti con Nello Cristianini, fisico, Professore di Intelligenza Artificiale presso l’Università di Bristol (UK), tra gli ospiti di spicco del Meeting di Rimini.
Nella sua vita fin da piccolo è stato potente l’interesse e il fascino per il mondo informatico. Quali sono oggi le prospettive che le sembrano più interessanti e cariche di conseguenze? Pensando anche alla sua esperienza personale, quali possono essere gli aspetti più attraenti per un ragazzo?
Quello che mi ha sempre affascinato fin da quando ero al liceo, quando programmavo col mio computer, è la possibilità di realizzare una macchina autonoma, che ragiona e impara, pianifica e decide.
Dal 2006 sono Professore di Intelligenza Artificiale presso l’Università di Bristol dove attualmente mi occupo di apprendimento automatico e di bioinformatica. Ventidue anni fa preparavo la tesi con Marco Somalvico del Politecnico di Milano (pioniere nell’Intelligenza Artificiale. Si veda la sua intervista dal titolo: Macchine per l’uomo pubblicata sul n° 04 – Dicembre 1998 di questa Rivista) mentre frequentavo l’Università di Fisica a Trieste, proprio perché avevo questa domanda viva in me: come fa una macchina a diventare intelligente? Non avevo alcuna idea di innovazione tecnologica per il futuro e soprattutto non potevo prevedere che il mondo informatico avrebbe cambiato così velocemente e potentemente le nostre vite quotidiane, anche se in fondo ci speravo.
La bellezza che io sperimento da allora è che questo ambito richiede conoscenze che riguardano diverse discipline di solito concepite come slegate tra loro: la psicologia, la scienza sociale, la pedagogia oltre che la matematica, l’informatica, l’ingegneria.
Infatti per insegnare a un computer qualsiasi cosa devo usare gli esempi consoni a quell’apprendimento fornendo istruzioni di come comportarsi quando sbaglia. Ma anche le applicazioni sono le più svariate: tradurre un testo, eseguire operazioni di tipo meccanico, svolgere calcoli matematici e così via.
Quali sono le attenzioni, le precauzioni e le regolamentazioni che ritiene più urgenti a fronte di situazioni rischiose a cui potremmo essere esposti affidandoci alle macchine per svolgere attività tradizionalmente eseguite dagli uomini?
Adesso che queste macchine esistono nascono nuove domande. La prima, la più immediata, è: quanto possono ancora migliorare? L’altra, più preoccupante, è: come possiamo conviverci, senza compromettere la nostra autonomia? Tra queste domande nuove ci sono anche quelle di tipo etico.
Per entrare nello specifico della sua domanda, posso dire che uno degli ambiti di cui mi occupo è proprio la considerazione degli aspetti di rischio. Tuttavia al momento è prematuro rispondere esaurientemente, dobbiamo ancora individuare i settori più sensibili. Ma un grande aiuto sarebbe una regolamentazione seria circa i dati personali, che dovrebbe coinvolgere tutti gli Stati.
La stessa cosa si può dire riguardo alla dipendenza patologica che si può innescare con un uso eccessivo di videogiochi o in generale di accessori tecnologici: non esiste ancora una letteratura medica adeguata su questo fronte, che certamente è un problema serio da monitorare con cura per proteggere soprattutto le fasce d’età più deboli.
Questo è un aspetto che mi interessa molto e che ritengo urgente. Va capito come intervenire per limitare tale dipendenza.
A questo proposito, quali aspetti ritiene siano da tenere sotto controllo, da un punto di vista educativo, da parte di un genitore/educatore?
Me lo domando anch’io, che sono genitore. Occorre ricordarsi però che tutte le provocazioni che ci presenta la vita portano due facce della medaglia: a fronte di grandi possibilità di sviluppo delle proprie conoscenze personali, di contatto con molte persone (i social, le mail) oltretutto gratis, ci sono evidenti rischi e difficoltà che sono inevitabilmente fonte di preoccupazioni, se ne siamo consapevoli.
Affronteremo anche questi problemi, ma è indubbio che non possiamo e non vogliamo sottrarci ai cambiamenti in atto perché sappiamo che essi portano anche tanti vantaggi.
Credo che per gli educatori, compresi gli insegnanti, sia importante raccontare nel giusto modo la realtà: evitare le cose cattive e ricercare quelle buone, come la storia di Pinocchio insegna.
Occorre inventare nuove favole che aiutino i bambini mettendoli in guardia rispetto ai pericoli e perseguendo invece ciò che ci costruisce.
Un eccessivo uso delle macchine anche nel campo della ricerca, secondo lei può andare a discapito del ricercatore limitando lo sviluppo di ipotesi creative e originali e sfavorendo un uso corretto del metodo sperimentale in genere?
Le tecnologie intelligenti costituiscono un aiuto enorme in molte discipline, a cominciare dall’ingegneria genetica.
Quello che temo semmai è l’adattamento supino da parte nostra al modo di procedere delle macchine: il loro utilizzo senza pensare alle conseguenze a lungo termine potrebbe causare problemi di impoverimento culturale e di concezione del metodo scientifico stesso: se una buona previsione solo sulla base di dati forniti diventasse equivalente a una buona spiegazione, ci perderemmo in profondità di conoscenza, di comprensione dei fenomeni e di cultura in generale.
È chiaro che c’è in gioco il valore che diamo a tutti questi aspetti in quanto potremmo decidere che non abbia valore comprendere nel caso in cui riuscissimo comunque a controllare la situazione in esame. Come ha deciso Amazon che vende con successo i suoi libri senza conoscere bene il meccanismo che utilizza, sa solo che funziona.
Per fare altri esempi che vanno in questa direzione: c’è una proposta in ambito scientifico che comporterebbe la condivisione dei risultati tra i ricercatori mediante linguaggi standard (machine-readable).
Oppure, si pensi molto più banalmente al nostro uso di Google per ricercare informazioni solo a partire da parole chiave: è chiaro che non abbiamo più bisogno in molte situazioni di utilizzare un registro linguistico molto articolato, dunque c’è il rischio di un impoverimento linguistico.
In sintesi: il modo in cui comunichiamo, in cui apprendiamo sta cambiando drasticamente. Come è successo che nel periodo rinascimentale con l’avvento della carta stampata si è potenziata la possibilità di raggiungere molte persone in poco tempo, allo stesso modo oggi è in atto un cambiamento della stessa portata rispetto alla possibilità di raggiungere in breve tempo tantissime persone con cui scambiare informazioni. Possiamo leggere qualunque cosa in qualunque momento solo portando un cellulare con noi e questo è certamente un vantaggio per conoscere tante cose all’occorrenza e nei tempi morti della nostra giornata.
È pur vero che il modo di apprendere con le nuove tecnologie è molto più visivo e dunque, sebbene la comprensione avvenga in modo immediato ed efficace, si può perdere tuttavia in capacità di spiegare ciò che si è appreso; soprattutto per i più piccoli questo può rappresentare un rischio.
Pensa che dietro a questa rincorsa alla progettazione di macchine sempre più potenti possa esserci un rischio scientista? Ossia la tentazione di risolvere tutti i problemi complessi attraverso le macchine?
Sono colpevole anch’io probabilmente. Non so se questo sia un sogno scientista, o un antico sogno umano.
Credo che il problema principale in questo senso riguardi il controllo dei mezzi di comunicazione attuali. Essi costituiscono una fonte di potere enorme riguardo alla loro capacità di influenzare scelte, opinioni e decisioni, a tutti i livelli.
Per l’interpretazione di qualunque evento o situazione possono esistere diversi punti di vista. Se solo alcuni controllano l’informazione, le conseguenze omologanti potrebbero essere devastanti. Ma questo rischio c’è in ogni ambito e, al solito, dipende dal valore e dal significato che noi diamo alle cose e dagli orientamenti che prendono coloro che esercitano il potere decisionale.
Se per esempio chi ha questo potere decide che la scuola abbia un’utilità solo di tipo economico saranno formati soggetti in grado esclusivamente di produrre ricchezza.
Personalmente credo comunque fermamente nelle grandi possibilità che ci si offrono in questo periodo storico. Penso per esempio a coloro che possono seguire i corsi di Stanford o di altre Università prestigiose senza alcun costo anche abitando in paesi in via di sviluppo o in cui c’è la guerra. Penso alla circolazione di informazioni, di idee in Paesi dove vige la censura.
Speriamo di non sprecare queste occasioni. Ritengo che tenere conto di tutti i fattori in gioco significhi anche il coinvolgimento di umanisti (filosofi o letterati): personalmente collaboro con molti di questi nelle mie ricerche, proprio per evitare di escludere aspetti importanti. Si comincia ora, anche se il dialogo non è facile.
Vai al PDF di questo articolo |
Vai alla Home-Page della Rivista | Chi Siamo | Vai al Sommario del N° 67 – Dicembre 2017 |
Vai alla Sezione SCIENZAinATTO | Vai agli SPECIALI della Rivista |
A cura di Nadia Correale
(Docente di matematica e Scienze presso la Scuola Secondaria di primo grado e membro della Redazione della rivista Emmeciquadro)
© Pubblicato sul n° 67 di Emmeciquadro