L’Intelligenza Artificiale è largamente presente, quasi invisibile, nella nostra vita. Aprendo enormi possibilità anche se ancora lontane da molte semplicistiche idealizzazioni.
Con il Machine Learning si possono insegnare alle macchine molte cose; ma non a darsi da sé gli obiettivi e neppure a riconoscere l’imprevisto.
Forse l’uomo d’oggi non è pronto per convivere con sistemi così avanzati e per gestire intelligentemente la mole di dati disponibile. Da qui una ulteriore urgenza educativa.



 

Vai alla Home-Page della Rivista Chi Siamo Vai al Sommario del n° 66 – Settembre 2017
Vai alla Sezione SCIENZAinATTO Vai agli SPECIALI della Rivista

 

 

L’Intelligenza Artificiale (I.A.) non è più un tema per libri e film di fantascienza e neppure soltanto obiettivo di ricerca per un ristretto numero di specialisti: sistemi basati sulla I.A. sono sempre più diffusi nel nostro quotidiano e anche il mondo della scuola inizia ad accorgersene.
L’argomento va preso in seria considerazione, sia per le sue possibili applicazioni sia per le profonde implicazioni culturali ed educative che il suo sviluppo comporta, evitando gli approcci semplicistici o le estremizzazioni (in entrambi i sensi, pro o contro, entusiasmo acritico o scetticismo immotivato).
Una conversazione con Daniele Magazzeni, ricercatore di robotica e Intelligenza Artificiale al King’s College di Londra, ci aiuta a individuare i reali contorni del fenomeno e la natura dei problemi che pone.



 

L’Intelligenza Artificiale è destinata a un utilizzo generalizzato?

La diffusione dell’I.A. oggi è paragonabile a quello che è accaduto anni fa con la diffusione dell’elettricità, in particolare da due punti di vista.
Da un lato l’I.A. sta permettendo di fare cose impensabili prima e sta sviluppando enormemente il potenziale di tante aziende e industrie con nuovi business e nuovi servizi; al tempo stesso sta potenziando le possibilità di ogni persona di interagire con la realtà (si pensi alla facilità di comunicare di oggi rispetto a venti anni fa, o alla rapidità con cui è possibile accedere a informazioni di ogni tipo).
Dall’altro lato l’I.A. è ormai presente ovunque e, come con l’elettricità, la usiamo continuamente e spesso senza rendercene conto, è quasi «invisibile» (ogni volta che usiamo uno smartphone, entriamo in metropolitana o in macchina e usiamo il navigatore, o ogni volta che usiamo le email o i social network, di fatto stiamo utilizzando l’I.A.).
Inoltre, e questo viene evidenziato poco, oltre a essere fruitori dei servizi di I.A., noi (spesso inconsapevolmente) contribuiamo anche ai servizi di I.A., attraverso i dati che forniamo (quali siti visitiamo, quali prodotti compriamo online, quali destinazioni inseriamo nel nostro navigatore, eccetera).
Oggi in tanti sono contenti del fatto che molti servizi sono gratis. Ma se un prodotto è gratis, vuol dire che il prodotto sei tu, attraverso i dati che fornisci, e che altri (Google, Facebook, Amazon, eccetera) utilizzano per fare business.



 

In quale misura l’I.A. è modellata sull’intelligenza umana (della quale, tra l’altro, sappiamo molto poco)? In particolare, in quale misura le reti neurali sono modellate sul cervello umano?

Una delle aree dell’I.A. che in questo momento sta facendo grandi progressi è il Machine Learning (insieme alla sua versione più recente e avanzata detta Deep Learning).
In effetti queste tecniche si basano sulle Neural Network, che simulano la struttura e il comportamento della rete neurale del cervello. Sebbene il comportamento sia simile, occorre evidenziare un problema di scala.
Il cervello umano contiene miliardi di neuroni e migliaia di miliardi di connessioni tra i neuroni. Le Neural Network più avanzate del Deep Learning contano qualche migliaio di neuroni e alcuni milioni di connessioni.
La differenza è evidente, e raggiungere i numeri creati dalla natura non è solo questione di tempo. Lo dico anche per evidenziare un doveroso rispetto verso la misteriosità e la grandezza della creatura umana.

 

I.A., Machine Learning, Big Data, Internet of Things: mondi tecnologici che dialogano tra di loro. Potranno tali tecnologie dare alle macchine una capacità decisionale, cioè renderle veramente capaci di decidere autonomamente dall’uomo?

Come uomo e come ricercatore tengo sempre aperta la categoria della possibilità, per cui non lo escludo. Tuttavia ci sono alcuni limiti evidenti, che con le tecnologie attuali non sembrano superabili.
Innanzitutto il problema di scala che evidenziavo prima (tra l’altro nel cervello ci sono diversi tipi di neuroni, e diverse strutture che sono utilizzate per attività diverse, perciò anche con le macchine sarebbe necessario raggiungere questo grado di specializzazione).
Secondo, il Machine Learning si basa sull’imparare dai dati, e ha bisogno di tanti dati per imparare efficacemente. Il problema è che non è sempre facile avere questi dati a disposizione.
Certo, in diversi ambiti ci sono tantissimi dati: per esempio lo speech recognition (cioè la capacità di una macchina di ascoltare e trascrivere quello che un umano dice) ha fatto enormi progressi, proprio perché c’è una enormità di dati relativi ai dialoghi tra persone. Ma in tanti altri ambiti questa disponibilità di dati non c’è.

Terzo, è difficile «fidarsi» del Machine Learning. Se tu mi dici una cosa, posso conoscere tanti aspetti di te che mi portano a fidarmi di quello che dici (questo non vale per una rete neurale). In alternativa (o insieme) se tu mi dici una cosa, io te ne chiedo le ragioni, e tu puoi «spiegarmi» perché dici quella cosa.
Questo aspetto nell’I.A. non c’è, in quanto il Machine Learning è di fatto una black box (una scatola nera), e tu non sai perché ti suggerisce di fare A o B. E’ molto importante, soprattutto quando si tratta di usare l’I.A. per decisioni di grande impatto o con potenziali rischi di sicurezza, e ha anche implicazioni legali in termini di responsabilità (per esempio come si gestiranno le assicurazioni per le self-driving car?).
Non a caso, un’area di ricerca scientifica che è diventata molto attiva recentemente (e di cui anch’io mi occupo con il mio team) è quella dell’Explainable AI, ovvero lo studio di tecniche che permettano all’I.A. di spiegare le decisioni che l’I.A. prende. Ma la ricerca in questo campo è ancora agli albori.
Quarto, il Machine Learning si basa sui goal (obiettivi di apprendimento) dettati dall’uomo: l’uomo insegna a una macchina a giocare a scacchi, o a riconoscere le parole, o a cucinare, e le fornisce i dati per imparare ognuna di queste cose. Che una macchina si dia da sé (o dia ad altre macchine) nuovi goal o obiettivi, è un passo che non è stato ancora fatto.
C’è poi un ultimo aspetto, più controverso ma molto affascinante, e cioè il tema dell’«intuizione».

 

A cosa si riferisce?

Una macchina può fare certe cose o perché è programmata per farle, o perché impara a farle analizzando (tanti) esempi. Nell’uomo l’intuizione non è solo il frutto di queste due cose. C’è un aspetto in più, misterioso, che non è appena il risultato dell’esperienza (sebbene quella incida).
Le macchine non sono capaci di intuizioni. Attenzione, intuizione non è appena il creare nuove cose (ci sono già sistemi I.A. che inventano canzoni o scrivono testi).
L’intuizione è più legata a un imprevisto riconoscimento di una possibilità, o di un aspetto della realtà, quasi come una sorpresa, non riconducibile solo a quello che hai già visto. Questo l’I.A. non lo fa.

 

Esiste il rischio che l’uso sempre più comune di queste tecnologie, e delle infrastrutture correlate, possa cambiare l’atteggiamento dell’uomo da «custode del creato» a «manutentore delle macchine», o peggio ancora, che l’uomo si riduca a una «appendice delle macchine»?

Io qui rilevo alcuni aspetti significativi, legati al fatto che ogni persona oggi ha la possibilità, attraverso la tecnologia, di avere accesso in tempi rapidissimi a una quantità enorme di informazioni, e questo era impensabile fino a pochi anni fa.
Il primo aspetto è che l’uomo, a mio avviso, non è pronto. A uno sviluppo così veloce della scienza, infatti, non sta corrispondendo un uguale sviluppo della coscienza.
È evidente, per esempio, che non sappiamo avere un rapporto equilibrato con i social media, per cui la curiosità, o il mostrare quello che uno fa, diventano spesso quasi morbosi.
Da un punto di vista più strettamente scientifico, c’è il rischio che allo stupore per ciò che si scopre, si sostituisca la presunzione di pensare di poter, in fondo, riprodurre l’uomo con le macchine.

 

Quali categorie di pensiero occorre privilegiare/sviluppare per evitare i rischi prima segnalati?

Un aspetto che trovo preoccupante è che si sta perdendo l’attitudine (e il gusto) a fare domande. Lo vedo anche nella mia esperienza di insegnamento in università.
L’accesso così immediato alle informazioni in rete rischia di spegnere l’atteggiamento critico, che è fondamentale. E infatti si pone sempre di più il problema dell’autorevolezza dei dati. Oggi ci si affida a Google più che al proprio medico per capire diagnosi e cure di fronte ai sintomi che uno presenta.
Per non citare il fenomeno delle fake news.
Con tutto questo non voglio suggerire uno sguardo cinico sull’I.A., anche perché è il mio lavoro. E poi perché credo sinceramente che la tecnologia sia innanzitutto un potenziale di grande creatività e costruzione.
Dico però che c’è un aspetto di responsabilità grande, sia da parte di chi crea l’I.A. (e lo dico in primis a me stesso), sia da parte di chi la utilizza. Al tempo stesso, chi è chiamato a educare (genitori, insegnanti, docenti universitari) non può non sentirsi richiamato a chiedersi come educare a un uso ordinato della tecnologia.
Ultimamente, in fondo, è un problema di responsabilità.

 

Vai al PDF di questo articolo
Vai alla Home-Page della Rivista Chi Siamo Vai al Sommario del n° 66 – Settembre 2017
Vai alla Sezione SCIENZAinATTO Vai agli SPECIALI della Rivista

 

 

A cura di Adalberto Porrino e Roberto Sanvito
(Membri della Redazione di Emmeciquadro)

 

 

 

© Pubblicato sul n° 66 di Emmeciquadro