L’Accademia svedese ha lanciato un messaggio con il Premio Nobel per la fisica: l’Intelligenza artificiale (AI) è un grande progresso, ma dobbiamo saper controllarla. Il premio è andato a John Hopfield, professore emerito di Princeton, e a Geoffrey Hinton, professore anch’egli emerito, ma di Toronto. Negli anni ’80, Hopfield sviluppò le cosiddette “reti neurali artificiali” che memorizzavano immagini e informazioni utilizzando modelli, ovvero correlazioni tra dati (ad esempio: i dati che confermano le precipitazioni sono correlati ai dati che certificano il cambio di stagione). La sua invenzione consisteva nel far sì che i programmi per computer memorizzassero e ricordassero schemi nei dati, imitando in qualche modo ciò che fa un vero cervello.
Hinton, considerato il padrino dell’Intelligenza artificiale, sulla base del lavoro di Hopfield, gettò le basi per le “macchine che imparano” (machine learning). In realtà, “l’apprendimento” si basa sulla ricerca di modelli che si ripetono in una grande quantità di dati fornendo esempi alla macchina. Più velocemente la macchina elabora, più sarà facile che trovi modelli. Gli schemi non spiegano perché le cose accadono, le rendono semplicemente più facili da prevedere. Lo schema potrebbe essere pittoresco, indicando che quando i residenti della Cina meridionale soffrono di insonnia gli interventi di Trump si concentrano sulla minaccia dei migranti.
Hinton, che ha lavorato per alcuni anni a Google, ha lasciato l’azienda nel 2023 avvertendo che c’erano dei rischi nello sviluppo dell’Intelligenza artificiale: potrebbe arrivare a controllare le nostre vite.
L’avvertimento di Hinton non può essere ignorato. Ma c’è qualcosa di interessante nello sviluppo del machine learning e nei suoi errori: ci aiuta a correggere un certo modo riduttivo di intendere la conoscenza umana. Gli algoritmi che cercano risposte sono programmati da persone che fanno domande. Spesso pensiamo che tutta la conoscenza funzioni così: restringiamo la domanda, troviamo la risposta e il problema è risolto. Il programmatore vuole scoprire qualcosa e dà istruzioni alla macchina per classificare i dati con un certo modello. La risposta che si può trovare con questo tipo di domande è limitata. La domanda del programmatore è già circoscritta dalle sue conoscenze, dalle sue emozioni, dalla sua provenienza, dai suoi pregiudizi. Anche il modello per classificare i dati è distorto, in quanto è una creazione di chi formula la domanda: vengono classificati solo i dati rilevanti per il modello.
La conoscenza in questo caso non è apertura ma un moltiplicarsi di restrizioni che riducono la risposta e la condizionano. Facciamo un esempio assurdo: posso chiedere alla macchina di quale assistenza sociale hanno bisogno i neri che vanno in spiaggia. E la macchina può rispondere che non hanno bisogno di aiuto perché i neri non vanno in spiaggia. Se il modello di selezione dei dati non “sa” che le persone non vanno al mare perché sono povere, non c’è risposta.
Quando conosciamo umanamente, la domanda tende continuamente ad aprirsi e a espandersi perché le risposte che troviamo sono insufficienti. Sappiamo di aver trovato una risposta autentica quando amplia “il modello” che avevamo creato. Una risposta è vera perché non chiude la domanda, ma paradossalmente la approfondisce, ingrandisce chi se la pone, gli permette di scoprire dimensioni di sé che prima non conosceva o che aveva solo intuito, apre il campo di ricerca. Succede quando due persone si innamorano o quando qualcuno fa un’esperienza davvero religiosa. Entrambi i fenomeni sono razionali perché in entrambi i casi la ragione, il soggetto che ragiona, viene ampliata. Quando la risposta è una semplice affermazione, questa non vince la riduzione originaria del modello.
L’AI pone molte sfide, ma ci rivela anche cosa significa ridurre l’intelligenza umana (human learning) in dimensioni tanto decisive quanto quella religiosa e affettiva.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI