È quasi arrivata all’improvviso, anche se fin dagli anni ’50 del secolo scorso si erano poste le premesse per un’evoluzione dei sistemi digitali per arrivare a farli competere con le potenzialità umane. L’intelligenza artificiale, con la sua avanguardia ChatGpt, ha così nello stesso tempo sorpreso e impaurito, entusiasmato e sconcertato. In Italia il Garante della privacy ne ha imposto il blocco mentre a livello mondiale si sono moltiplicate le prese di posizione che hanno chiesto di porre dei limiti agli sviluppi delle nuove potenzialità. Elon Musk, insieme a oltre mille alti esponenti del mondo industriale e accademico americano, ha sollecitato una moratoria di sei mesi di fronte alle incognite senza precedenti dei nuovi sistemi.



I problemi non sono solo legati alla privacy: il nodo di fondo è la progressiva sostituzione del lavoro umano, anche quello di tipo intellettuale, con procedimenti automatici capaci di generare essi stessi nuove traiettorie di sviluppo.

È abbastanza condivisa una sottile preoccupazione, quella di lasciarsi andare a un’acritica fiducia nel progresso, nell’inconsapevole illusione sul fatto che i benefici potranno essere sempre e comunque superiori ai rischi da affrontare. È solo una benevola ipotesi, per esempio, la possibilità che i nuovi posti di lavoro creati grazie all’intelligenza artificiale saranno più di quelle che la stessa Ai sopprimerà. È solo un’infondata illusione credere che lo sviluppo della robotica avvenga nell’ambito delle regole della civile convivenza e non divenga invece un’arma in più per soffocare la libertà e distorcere le leggi del mercato: basti pensare agli attacchi hacker che proprio grazie all’intelligenza artificiale possono moltiplicare la loro efficacia.



Dove possiamo arrivare? Per una prima risposta basta leggere i libri di fantascienza dell’aedo della robotica, Isaac Asimov, che nei suoi romanzi, scritti tra il 1940 e il 1995, tratteggia un futuro in cui i robot sono integrati nella dimensione umana, ma devono in ogni caso rispettare le tre leggi fondamentali: «I robot non possono far del male agli esseri umani, né permettere che essi subiscano danno. I robot devono obbedire agli esseri umani, tranne se questo entra in conflitto con la prima legge. I robot devono proteggere la propria esistenza, se questo non entra in conflitto con le prime due leggi».



Proprio sull’onda di queste leggi, diventate una pietra miliare nell’evoluzione dell’informatica, Francesco Varanini propone con grande profondità di analisi e forte spessore culturale Le cinque leggi bronzee dell’era digitale (e perché conviene trasgredirle) (Guerini e associati, 2020). Un libro che partendo da Leopardi e da Goethe, passando da Kant a Leibniz, intercettando Pascal e Teilhard de Chardin, compie un’interpretazione rigorosa e affascinante dell’evoluzione del pensiero umano nei confronti delle diverse civiltà delle macchine.

Varanini, etnografo e ricercatore sociale, dirigente d’azienda, docente di informatica, ricercatore e critico letterario, ha soprattutto una preoccupazione: quella di dimostrare che ci dovrà essere sempre una netta separazione tra l’uomo e la macchina, di qualunque tipo sia. Con il controllo, il predominio della persona su qualunque altra dimensione tecnologica.

“Dovremo imparare a scegliere. Dovremo riscoprire in noi – afferma Varanini – il senso della misura, arrivare a saper dire di no, a saper mettere un limite all’invasione delle macchine nelle nostre vite, nei nostri stessi corpi. L’avvento delle macchine ci costringe a una nuova educazione”.

Dovremo imparare, con Leopardi, la forza della contemplazione, riscoprire i valori della partecipazione e della solidarietà, riprendere in mano un futuro fatto di creatività e di adattamento. L’intelligenza artificiale è in fondo una grande tentazione: ma uno studente che facesse scrivere la sua tesi a ChatGpt potrebbe forse ottenere la laurea senza fatica, ma perderebbe la propria umanità.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI