La rivoluzione tecnologica dell’AI oggi in evoluzione rapida era già visibile con i suoi primi segni nei primi anni del 2000, densi di profezie sia ottimistiche sia prudenziali, le seconde corroborate anche da film dove l’AI era vista nel suo lato più ansiogeno: la delega ai robot, cioè la “cibernetica di sostituzione”, era un rischio catastrofico per gli umani.
Chi scrive, nel libro Futurizzazione (Sperling, 2003), enfatizzò la “cibernetica tutoriale” come interazione tra cervello e macchina a connettività totale – che stava sviluppandosi in forma di rete – per rendere più potente il primo grazie a una mente ausiliaria con molti meno limiti osservativi e mnemonici. Per inciso, in questa attenzione giocava l’esperienza personale del gioco a scacchi a occhi bendati – scuola triestina, partite di 5 minuti – dove lo sforzo rappresentativo e mnemonico tendeva a eccedere la capacità naturali pur con allenamenti mentali intensivi: chi scrive smise tale gioco quando si accorse che in un sistema chiuso un computer avrebbe battuto facilmente un umano, parecchi anni prima che ciò accadesse realmente, e invocò un’intelligenza ausiliaria, iniziando a usarne i primi prototipi per il suo lavoro, per esempio, ai tempi, i sistemi esperti. Ma in tale invocazione c’era anche quella di un’epistemologia (ricerca della verità) dei sistemi ingegneristici, spinta dalla letteratura mitteleuropea dove un cervello umano vedeva crescere la mano più grande del cervello stesso e imponeva di riequilibrare la relazione tra decisore e strumento.
Karl Popper aveva escluso la rilevanza di uno status epistemologico degli strumenti. Ma lo hanno, in una forma brutalmente semplificata: una macchina funziona o non funziona in base allo scopo, questa la sua verità. Ma se si delega alla macchina una decisione, passando da un sistema chiuso a uno aperto? Serve una finestra sul suo funzionamento interno, ricerca guidata da una non ancora esistente, ma necessaria, epistemologia dei sistemi artificiali. Difficile crearla, anche perché per leggere una macchina ipercomplessa, in particolare se quantistica, ne serve un’altra che lo sia altrettanto e che in più semplifichi la comunicazione per la comprensione della mente umana.
Tale considerazione porta l’attenzione sull’ipotesi che la migliore relazione tra AI e umani sia una qualificazione dei secondi per usare la prima mantenendo il loro potere di decidere e non lasciandolo alla mano artificiale, questa chiaramente una protesi tecnologica.
In conclusione, bene la priorità umanistica nell’interazione con l’AI recentemente espressa dal Governo, ma questa implica una rivoluzione cognitiva di massa, cioè la riforma pressoché totale dei sistemi educativi per permettere una relazione uomo-macchina fluida e sicura: non solo a livello di formazione iniziale, ma estendendo la qualificazione come formazione continua. Più chiaramente: per ridurre i rischi dell’AI bisogna fare un enorme investimento sul potenziamento mentale degli individui.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
SOSTIENICI. DONA ORA CLICCANDO QUI