Ipotizzata nel 1920, quando lo scrittore Karel Čapek nella sua opera R.U.R. ha utilizzato per la prima volta il termine “robot” per indicare un essere sintetico con capacità di ragionamento autonomo affine a quello umano, l’Intelligenza Artificiale (IA) ha recentemente guadagnato gli onori della cronaca come moda del momento, tanto da far parlare di sé anche al Parlamento europeo, che si è appena esibito in un’articolata normazione dell’uso dell’IA.
Definire e comprendere cosa effettivamente sia – e non sia – l’IA non è cosa semplice per i non addetti ai lavori (e a volte, nemmeno per questi): l’unica cosa certa è che l’IA deve comunque essere qualcosa di intelligente.
Definire poi se quel “qualcosa” sia davvero “intelligente” è un altro paio di maniche.
In realtà, se si prova a dare uno sguardo più da vicino a questa ormai popolare tecnologia informatica, non è per niente difficile capire che, a seconda delle “capacità” possedute, una IA può essere – e convenzionalmente viene – classificata come:
Intelligenza artificiale debole (Weak AI)
Intelligenza artificiale forte (Strong AI)
Intelligenza artificiale generalizzata (General AI)
Al primo gruppo (IA debole) appartengono tutte quelle disponibili oggi, che sono in grado di individuare schemi e modelli in enormi quantità di dati e di conseguire un risultato, dichiarato o meno, in maniera autonoma, ossia senza suggerimenti o interventi umani.
Al secondo e terzo gruppo appartengono quelle IA in grado di raggiungere e superare le capacità intellettive umane, come ci hanno abituato i film di fantascienza, da 2001. Odissea nello Spazio in poi, dove il perfido Hal 9000, acquisita coscienza di sé, e avendo aggiunto una nuova forma di vita – artificiale – all’Universo, portava alla rovina un gruppo di fiduciosi astronauti, inconsapevoli della meraviglia con cui stavano avendo a che fare. Peccato che nel molto meno noto sequel di quel film – 2010. L’Anno del Contatto – si scopra che il malfunzionamento di Hal 9000, che lasciava presagire una coscienza autonoma, e una nuova forma di vita, fosse in realtà dovuto ad un bug di sistema, intenzionalmente introdotto dai programmatori del povero Hal. Che comunque è riuscito a passare alla storia (del cinema) come esempio dei rischi e dei pericoli della IA, e come simbolo di una nuova forma di vita oltreumana. Quando in realtà era solo un calcolatore a cui era stato dato dal Governo Usa il compito di mentire agli astronauti sul reale obiettivo della missione.
Il che, più che testimoniare dell’autocoscienza delle macchine “pensanti”, al massimo ci dimostra solo che anche Arthur C. Clarke in fondo aveva tendenze complottiste. E su queste aveva costruito dei bei romanzi.
In realtà, confinato Hal 9000 là dove merita di stare, e cioè nel recinto delle macchine guaste, bisogna ammettere che quella fra IA debole, forte e generalizzata è una bella distinzione, che lascia credere che esista già un soggetto artificiale, e intelligente, in grado di prendere decisioni autonome con un livello di razionalità e di affidabilità superiore a quello umano.
Il punto è che, al di là dell’immaginario popolare, di questi due ultimi tipi – Strong AI e General AI – ad oggi non esistono esempi, in nessuna forma. E non ci sono previsioni né certe, né attendibili di quando se ne vedrà una.
Insomma, alla faccia di chi ci lavora per realizzare investimenti miliardari, al momento Strong AI e General AI sono solo parole che, al massimo, possono spingere marketing e investimenti in quella che rischia di rivelarsi prima o poi una gigantesca bolla speculativa. La quale, come ogni bolla che si rispetti, è fondata sull’abilità di vendere prima quello che, forse, si inventerà poi.
E allora, se restiamo alla realtà, e ci allontaniamo dal marketing finanziario, dobbiamo dire che della IA debole – che è poi quella reale, in commercio – fanno parte diverse tecnologie, come Machine Learning (ML), Deep Learning (DL) e Generative Pre-trained Transformer (GPT).
Le quali, utilizzate da sole, o in combinazione con altre, possono:
– fornire previsioni su base statistica;
– trascrivere il testo di un audio di conversazione;
– riconoscere un soggetto da una foto;
– individuare determinati schemi matematici (patterns) analizzando un’immagine: ad es. una formazione tumorale da una radiografia;
– suggerire caratteristiche di un soggetto dall’analisi della sua attività in rete (es. preferenze alimentari, politiche, sessuali, comportamentali);
– tradurre in termini utilizzabili da un software un comando espresso nel linguaggio umano, come l’italiano, per chiedere ad esempio al nostro smartphone di chiamare un contatto in rubrica o aprire una pagina web;
– creare un testo o un’immagine secondo le istruzioni ricevute in un linguaggio naturale (ad esempio un linguaggio umano).
E bisogna ammettere che i prodotti creati con queste tecniche sono in grado di fornire risultati a volte strabilianti. Come è il caso di ChatGPT, che ha catalizzato l’attenzione sulla IA e fatto esplodere dibattiti spesso al limite del surreale.
Cos’è dunque una IA? È, in estrema sintesi, un sistema software in grado di giungere ad un risultato tramite una sequenza autocostruita di azioni e decisioni, utilizzando una serie di algoritmi (e cioè strutture e strumenti matematici) creati per questo scopo. E per questo è definita – in via del tutto convenzionale – “intelligente”.
Il punto è che di intelligenza nel senso tradizionale del termine, nella IA, non c’è traccia. Ad esempio, ad oggi nessuna IA è in grado di inventare davvero qualcosa: nemmeno ChatGPT, nonostante quel che se ne dice in giro.
E lo stesso vale per il processo di apprendimento di queste “intelligenze”. In realtà nessuna IA è in grado davvero di imparare. Semmai, se si vuole restare nella metafora antropomorfa che regge l’equivoco commerciale e tecnologico della AI, di cui Hal 9000 è stato uno splendido promoter, le macchine possono essere “addestrate” a compiere certe operazioni. Il che è ben diverso. Ad esempio, addestrando una IA su una enorme quantità di immagini prefornite e ridotte a modelli matematici, questa può poi identificare con ragionevole certezza i soggetti in una foto ed indicare se vi sia immortalato un gatto, un cane o una tigre.
E bisogna dire con ragionevole certezza che l’IA non ha la benché minima cognizione di cosa sia davvero un gatto. Può solo stimare quanto percentualmente una nuova immagine assomigli al modello che ha estratto da quelli su cui è stata allenata.
Nulla di più.
Quello che però sembra essere passato nella percezione comune è che le IA siano davvero intelligenti, nel senso umano del termine, al punto di meritare la dignità di essere vivente a tutti gli effetti, prerogativa casomai delle tuttora inesistenti IA forti e generalizzate. Che, come si è detto, al momento sono frutto di nuovo marketing e vecchie memorie di film di fantascienza. E questo è avvenuto grazie ad una straordinaria operazione di raffinatissimo marketing al cui bombardamento siamo stati (e siamo tutt’ora) esposti. Che, facendo leva su immagini sedimentate nella memoria collettiva, ha sostituito il termine già nobile di “addestrare” (si addestra un animale, non una ruota), con il più umanizzante “apprendere”.
Ad apprendere è una persona. Ad essere addestrato è un cavallo. Che è stato, in altre epoche, e per altri scopi, l’equivalente funzionale dell’IA come ci viene presentata oggi, con la promessa di far diventare prima o poi intelligente il cavallo.
Fermo restando che oggi abbiamo la ruota e basta.
(1 – continua)
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI