Nel primo capitolo l’autore ci ricorda che parlare di intelligenza non deve per forza voler dire parlare di intelligenza umana. Infatti, ben prima che gli esseri umani apparissero, «i predatori cacciavano in branco, gli uccelli scappavano dai predatori, i topi ingannavano gli uccelli per rubarne le uova e così via. Persino le colonie di formiche prendevano decisioni complesse e ben informate sul posto ideale in cui costruire un nuovo nido. Non sono forse queste espressioni di intelligenza?
Questa domanda è importante, poiché se non sappiamo quello che stiamo cercando potremmo non riconoscerlo quando lo vediamo. Una delle principali sfide nel pensare ad altre forme di intelligenza è proprio quella di immaginare qualcosa di diverso da noi».
L’autore ci propone la seguente definizione di intelligenza: «comportamento di un agente […] in grado di agire nel suo ambiente, usando informazioni sensoriali per prendere decisioni». Ogni agente ha bisogno di un corpo, ovvero di un modo di influenzare l’ambiente e di esserne influenzato. Non abbiamo bisogno di presupporre che l’agente abbia un cervello, un linguaggio o una coscienza.
Dobbiamo tuttavia ipotizzare che l’agente abbia degli obiettivi in modo tale da potere definire efficaci o appropriate quelle azioni che aumentano le sue possibilità di raggiungerli. Solo in un ambiente regolare un agente può anticipare il futuro e l’esito delle proprie azioni e solo in tale ambiente ha senso conoscere la risposta corretta a ogni situazione.
Queste condizioni non possono esistere in un ambiente completamente arbitrario. È proprio osservando occorrenze regolari nelle enormi quantità di dati disponibili in rete che gli algoritmi di machine learning sono diventati capaci di isolare specifiche conoscenze in modo da poterle usare per produrre testi, immagini, musiche in risposta a domande specifiche. La «scorciatoia» è proprio qui: non è necessario conoscere il significato di quanto riconosciuto per combinarlo in modo appropriato.
L’idea è sempre la stessa: analizzare campioni di comportamento umano per potere fare previsioni statistiche in campi in cui non esiste alcuna teoria. Le previsioni saranno solo «probabilmente approssimativamente corrette». Il primo e più comune esempio di questo approccio sono i sistemi di raccomandazione. Invece di chiedere ai clienti quello che pensavano o volevano, tali sistemi fondavano il proprio comportamento su ciò che gli utenti – e milioni di altri come loro – facevano in realtà. Un chiaro problema che si incontra sostituendo le teorie con dei dati è quello di trovare i dati necessari. Naturalmente gli utenti non rispondono bene alle richieste di fornire informazioni così è parso sensato imparare le loro preferenze semplicemente osservandone il comportamento.
Nel 1843 Lady Ada Lovelace nella traduzione dal francese del testo di Luigi Menabrea che descriveva la macchina analitica creata da Charles Babbage, tra le altre note aggiungeva anche la seguente: «La macchina analitica non ha la pretesa di creare niente. Può fare tutto ciò che sappiamo ordinarle di fare.»
Nel 2016 Deep Mind, un’azienda controllata da Google, ha creato un nuovo e potente algoritmo in grado di imparare da solo a giocare a GO (due giocatori muovono a turno dei pezzi di due colori su una scacchiera di 19×19 caselle, allo scopo di catturare i pezzi dell’avversario). Il successo in GO dipende dal saper valutare la qualità di una posizione, quella che i matematici chiamano funzione di valutazione che approssimativamente è un modo di stimare la probabilità di successo a partire da una data configurazione.
Siccome non c‘è una teoria generale di come i campioni umani facciano tale valutazione, i programmatori si aspettano che la macchina la impari dall’esperienza ovvero dall’analisi di decine di milioni di partite registrate e poi giocando milioni di partite contro sé stessa, ogni volta adattando il proprio modello. Nel 2016 questo algoritmo aveva già battuto i suoi programmatori e il miglior giocatore d’Europa, in una serie di cinque incontri disputati a Seul, sconfisse il migliore giocatore del mondo.
La vera sorpresa non furono le vittorie ma il fatto che nella seconda partita alla mossa 37 prese una decisione che i programmatori e l’avversario considerarono un errore. Eppure come divenne chiaro molto dopo fu proprio quella mossa a porre le basi per l’attacco finale che portò la macchina alla vittoria finale. Il comportamento della macchina, generato dall’avere osservato 30 milioni di partite registrate e avere giocato contro sé stessa 50 milioni di partite (una quantità di esperienza che richiederebbe più di una vita a un giocatore umano), le faceva fare, per dirla con Lady Lovelace, cose che non sappiamo come ordinarle di fare.
Tutti gli agenti intelligenti in uso oggi si basano su qualche forma di apprendimento automatico e questo consente loro di affrontare non solo ambienti mutevoli e incerti ma anche compiti per cui non esite una descrizione teorica. L’autore ci dice che presto saremo superati in molti compiti importanti.
Prestazioni sovrumane in campi specifici possono derivare semplicemente da sensi e memorie superiori ma anche da quantità sovrumane di esperienza. A questo punto l’autore ci ripropone la preoccupazione di Norbert Wiener, fondatore della cibernetica, che nel suo libro del 1950 L’uso umano degli esseri umani illustra i possibili rischi per dispositivi «intelligenti» che perseguano alla lettera gli obiettivi che gli vengano dati, indifferenti a qualsiasi conseguenza negativa che potrebbe risultare dalle loro azioni.
La possibilità di predire il comportamento futuro di qualcuno rappresenta una forte tentazione per settori quali assicurazioni, prestiti e crediti, reclutamento, ammissione a scuole, posti di lavoro e perfino ambiti giudiziari e psichiatrici. In tutti questi settori viene fatta una valutazione di come un certo individuo potrebbe comportarsi in futuro prima di prendere una decisione. Ciò che tradizionalmente si fa con metodi attuariali e psicometrici o attraverso interviste di centri di valutazione, si affiderebbe ad algoritmi intelligenti. Risultano subito evidenti i problemi di privacy per i dati da usarsi per il machine learning di tali algoritmi. Come possiamo assicurarci che l’algoritmo non finisca per imparare una correlazione statistica tra un gruppo di individui e certi rischi?
La proposta dell’autore di fronte a tale realistica prospettiva è: «regolare non spegnere». In altre parole non possiamo pensare di tornare a un mondo senza intelligenza artificiale ma dobbiamo trovare un modo per convivere in sicurezza con questa tecnologia.
Nello Cristianini
La scorciatoia
Come le macchine sono diventate intelligenti senza pensare in modo umano
Il Mulino, Bologna 2023
Pagine 214 euro 16,00
Recensione di Renzo Gorla