Nel suo libro precedente La Scorciatoia l’autore aveva spiegato il cambio di paradigma nell’Intelligenza artificiale: dal ragionare su «basi di conoscenze» con regole logiche di inferenza, all’apprendimento automatico (machine learning) ottenuto distillando con regole statistiche quantità straordinarie di testi. In questo suo nuovo libro, di fronte alla continua evoluzione dei sistemi intelligenti costruiti, prova a rispondere alle domande che l’incontro con tali sistemi suscita: Possiamo fidarci? Cosa sanno veramente? Cosa vuol dire comprendere e pensare? Gli interpreti di questa avvincente storia sono tre: gli scienziati, le persone, le macchine. Il percorso degli scienziati parte dal lavoro di Alan Touring che negli anni Cinquanta del secolo scorso scrisse che la domanda «le macchine possono pensare?» dovrebbe essere sostituita da «esistono computer digitali che potrebbero comportarsi bene nel gioco dell’imitazione?». Per gioco dell’imitazione intendeva una sfida lanciata a ogni macchina che volesse fregiarsi dell’attributo pensante: tenere una conversazione in linguaggio naturale e su qualsiasi argomento, fingendo di essere una persona e senza farsi smascherare dall’intervistatore.
L’autore dice che ora ci sono riusciti. Attraverso passi successivi si sono costruiti modelli di linguaggio capaci di dialogare con un umano ricordando il filo del discorso, conoscere e collegare fatti diversi su come funziona il mondo e soprattutto di comprendere e formare frasi in linguaggio naturale. Ciò è stato reso possibile dal punto di vista dell’hardware, dalla disponibilità di GPU (Graphic Processing Unit) sempre più potenti, in grado di eseguire un numero enorme di computazioni in parallelo, e dal punto di vista del software dalla disponibilità dell’algoritmo Trasformer che faceva parte di una famiglia di metodi di apprendimento chiamati «reti neurali» che simulano milioni di elementi, semplici «neuroni» interconnessi a formare una rete, che sono inizialmente disorganizzati e lentamente vengono addestrati a svolgere un compito.
In un articolo del 2018, Improving Language Understanding by Generative Pre-Training, i ricercatori di OpenAI annunciavano di avere trovato il modo di sfruttare un tipo di dati abbondanti ed economici per facilitare compiti come indovinare le parole mancanti in un testo sulla base del contesto. Siccome questo modello di linguaggio era stato creato preaddestrando un Trasformer in modo generativo, lo chiamarono Generatively Pretrasformed Trasformer o GPT. Per le persone la disponibilità di Chat-GPT e di molti altri prodotti simili ha introdotto la reale possibilità di dialogare con una macchina senza poter distinguere se si tratti di un dialogo con una macchina o con un umano. L’uso di massa di tali strumenti ha fatto emergere nelle prime versioni degli strumenti quei comportamenti che sono stati definiti allucinazioni. Si è trattato di risposte in parte o totalmente inventate a domande che chiedevano dettagli basati sulla immaginata disponibilità illimitata di dati. Questa limitazione è in parte stata corretta con la produzione di versioni del modello di linguaggio basate su sempre maggiori quantità di dati sia in termini di libri sia in termini di dati internet usati per il training del Trasformer. Si è inoltre evidenziato che per utenti esperti fosse possibile superare le protezioni di sicurezza introdotte e ottenere testi e/o immagini pericolose per le relazioni tra umani. Anche per questo nelle versioni più recenti degli agenti intelligenti sono state rafforzate tutte le protezioni di sicurezza nei confronti di: odio, molestie, violenza, autolesionismo …
Resta comunque il problema che i trattamenti di protezione non rimuovono le informazioni pericolose ma le rendono più difficili da ripescare. Tuttavia lunghe e complesse domande hanno l’effetto di ipnotizzare l’agente intelligente facendogli pensare di essere autorizzato a rivelare tali informazioni. Un rischio da evitare è che si formi un legame emotivo tra persone vulnerabili e agenti in grado di manipolarli. In realtà, ci dice l’autore: «non sappiamo che informazioni siano contenute in questi modelli, ovvero cosa sappiano di noi e del mondo e non abbiamo ancora un metodo perfetto per controllare il loro comportamento». Il problema tecnico è che le risposte generate dagli agenti di IA, per quanto estremamente sofisticate, non sono altro che la combinazione di molte fonti diverse trovate online, e talvolta le macchine possono credere di avere visto una fonte che invece è il risultato della combinazione di fonti diverse. Il problema sociale è che alcuni utenti prendono le risposte molto seriamente e gli avvertimenti scritti dalle aziende non sembrano avere effetto. Per quanto riguarda le macchine l’autore ci propone di nuovo il riferimento a Touring che in una intervista radiofonica del 1951 sosteneva: «Sembra probabile che, una volta iniziato il metodo delle macchine pensanti, non sarebbe necessario molto tempo per superare le nostre deboli capacità». Aggiunge poi il riferimento a Irwin J. Good che nel 1965 pubblicò un saggio in cui scriveva: «Definiamo ultra-intelligente una macchina che può superare di gran lunga tutte le attività intellettuali di qualsiasi uomo, per quanto intelligente. Poiché la progettazione di macchine è una di tali attività intellettuali una macchina ultra-intelligente potrebbe progettare macchine ancora migliori». Nel campo dell’IA le preoccupazioni riguardano il fatto che un programma informatico possa scrivere una versione migliorata di sé stesso. Questa possibilità oggi non fa più sorridere perché GPT-4 è già in grado di scrivere programmi in Python di ottima qualità. Insomma non basta chiedersi se le macchine possono pensare come noi, o almeno in modo equivalente. Dobbiamo anche chiederci perché mai dovrebbero fermarsi una volta raggiunto quel traguardo e se dopo quel momento saremo in grado di capirle e controllarle.
Nello Cristianini
Machina sapiens
L’algoritmo che ci ha rubato il segreto della conoscenza
Il Mulino 2024
Pagine 160 euro 15
Recensione di Renzo Gorla