Realtà, verità, certezza: parole che nell’attuale contesto culturale sembrano diventate estranee alla ricerca scientifica. E a scuola, nell’insegnamento delle Scienze, confusione di linguaggi, forme di rigida formalizzazione matematica o al contrario, derive irrazionalistiche, frutto di evasioni fantasiose. In che cosa realmente consiste oggi la conoscenza scientifica?
La domanda è stata posta ad Alberto Strumia, già Ordinario di Meccanica Razionale all’Università degli Studi di Bari, da sempre impegnato in una riflessione sulle «vie» della razionalità attraverso il confronto con il pensiero scientifico, passato e contemporaneo.
Nell’attuale contesto culturale caratterizzato da un diffuso relativismo, è possibile parlare di ricerca della verità come molla della conoscenza scientifica? A che condizioni?
Ciò che ha reso affascinante la scienza, fin dall’antichità, ma soprattutto a partire dal diciassettesimo secolo, quella che siamo soliti chiamare la «scienza moderna», o galileiana, è il suo carattere duplice di universalità e di aderenza alla realtà.
Sono due caratteristiche che si presentano proprio come dirette in senso opposto al relativismo che pervade il mondo di oggi il quale, pur vivendo dei risultati tecnologici frutto delle ricerche scientifiche, queste due dimensioni le ha rifiutate entrambe nella sua «cultura» di vita sociale quotidiana: tutto è opinione individuale e la realtà ce la facciamo noi, o subiamo quella che viene imposta da altri.
Ma diamo uno sguardo a queste due caratteristiche. La prima, l’universalità, la si coglie subito, anche epidermicamente, partecipando a un convegno scientifico internazionale, dove si vedono scienziati di tutte le provenienze, le lingue e le culture che riescono a capirsi grazie alla condivisione di un patrimonio comune di conoscenze riconosciuto da tutti come valido. Oggi la scienza è rimasta l’ultimo esempio di una dimensione di universalità di questa portata. Il carattere di universalità nella scienza assume poi anche un altro aspetto ed è quello dell’unificazione della conoscenza, il tendere verso l’«uno», cercando di comprendere più cose mediante pochi principi che le collegano e le spiegano.
La seconda caratteristica è poi, come dicevo, quella dell’aderenza alla realtà: le teorie scientifiche sono accettate e apprezzate quanto più sono in grado di spiegare, fare previsioni sul comportamento del mondo fisico reale, scoprire delle cause di quanto avviene. C’è anche un risvolto psicologico di tutto questo: infatti, chi fa ricerca non è soddisfatto fino a che non ottiene dei risultati che rispondano a questa esigenza di aderenza alla realtà. Basti pensare agli sforzi immani e alle apparecchiature incredibili che si sono costruite per arrivare a rivelare il bosone scalare di Higgs che sta alla base del modello standard.
Questi caratteri sono propri della scienza e senza di essi non si dà una conoscenza riconosciuta come adeguatamente scientifica. Se è vero che vi sono anche delle discipline scientifiche di tipo puramente logico-formale come la matematica che si presentano come indipendenti da questa esigenza dell’aderenza alla realtà, è vero che queste trovano una sorta di loro piena realizzazione nell’essere applicate alla realtà mediante altre scienze come quelle fisiche e altre ancora.
Ed è storicamente significativo che un grande logico-matematico come Kurt Gödel ritenesse che dobbiamo ancora costruire una matematica in senso stretto (mathematics proper) capace di cogliere proposizioni fondamentali irrinunciabili e non appena convenzionali [cfr. Alcuni teoremi basilari sui fondamenti della matematica e loro implicazioni filosofiche, in K. Gödel, Opere, vol.3, Bollati Boringhieri, Milano 2006, pp. 268-286].
Ora l’aderenza della nostra conoscenza alla realtà e l’universalità sono due caratteristiche proprie della «verità» concepita in grande. La scienza, almeno quella odierna, pur non essendo in grado di dimostrare di essere compiutamente nella verità, per sua natura tende a cercarla e può raggiungere la conoscenza di aspetti veri della realtà. Senza questa tensione finisce per perdere il motore che la rende attiva e anche la sua relativa autonomia metodologica, divenendo un semplice strumento di manipolazione del reale.
Lo scienziato vuole conoscere il mondo, non gli basta manipolarlo.
Oggi nella scuola, ai diversi livelli, sono diffuse proposte didattiche che alternano una rigida formalizzazione staccata dal dato fenomenologico a una esaltazione della fantasia equivocata come immaginazione. Ciò, accanto a una grave confusione di linguaggi, introduce derive irrazionali. Qual è il ruolo dell’immaginazione nell’esperienza del ricercatore in campo scientifico, e a quali condizioni non si riduce a una forma di evasione e di rinuncia all’obiettivo di conoscere la realtà?
Vorrei fare, innanzitutto, un’osservazione che parte dalla mia personale non breve esperienza didattica nell’ambito delle discipline fisico-matematiche.
Ho toccato con mano il fatto che una scelta didattica che parta da un’impostazione troppo astratta e formalistica non aiuta gli studenti a capire.
È più rispondente alla capacità di apprendere della nostra intelligenza, il partire dalle cose, dalle situazioni fisiche concrete. Inquadrato il problema fisico, quello reale, si cerca successivamente di informarlo matematicamente, cioè di tradurlo in un linguaggio formale matematico nel quale ogni simbolo rappresenta una grandezza fisica, facendo ricorso alle leggi che lo governano. A questo punto si affronta il problema matematico corrispondente per risolverlo e alla fine si interpretano i risultati in relazione alla fisica dalla quale si è partiti.
Questo vale anche per far vedere come nasce la teoria: si astrae un po’ per volta fino ai massimi gradi. Questo modo di procedere, secondo gradi di astrazione successivi, può aiutare a non perdersi nel formalismo più spinto che via via potrà essere conquistato e mostrarsi solo successivamente, anche come molto utile e fecondo di idee. La nostra conoscenza, anche la più astratta, parte sempre dai sensi e l’intelligenza la universalizza, ma non senza una base fisica almeno all’origine e che, è comunque utile tenere presente anche dopo.
Questo tipo di approccio è sempre risultato più efficace didatticamente che non la partenza da un formalismo spinto, almeno con chi non è abituato già a servirsi di quest’ultimo. Mi sono dovuto convincere, alla prova dei fatti, che, dal punto di vista cognitivo si deve riconoscere che anche la matematica non è una pura creazione della mente, ma ha, almeno alla sua origine sempre una base empirica: all’origine sono l’esperienza del contare e quella del misurare.
L’astrazione non è altro che la capacità intrinseca alla nostra intelligenza di cogliere gli aspetti universali nelle cose fisiche, oggi potremmo dire le informazioni che le caratterizzano e l’immaginazione è la capacità di far emergere nessi e collegamenti, relazioni logiche che si possono stabilire tra esse e non arbitraria fantasia.
La «genialità» si manifesta nella capacità di cogliere quelle più fondamentali e più semplici. La fuga nell’irrazionale è sempre perdente perché non è altro che una rinuncia a essere se stessi, cioè degli esseri intelligenti. E poi è estremamente pericolosa perché è cieca e può portare a non vedere rischiose derive.
Sembra incredibile ma ci sono sempre delle conseguenze culturali pratiche, nella vita personale e sociale, nel modo di concepire la cittadinanza e la civiltà che si nascondono dietro i metodi di insegnamento, anche delle discipline scientifiche. Un modo distorto di intendere razionalità e irrazionalità può portare alla deriva una società intera, una popolazione, un mondo. Il relativismo odierno ne è un esempio drammatico, perché produce una civiltà sempre meno vivibile e insicura. In questo momento la scienza, con la sua esigenza di essere universale e aderente alla realtà, è carica di un forte messaggio culturale, purché sia fedele a se stessa fino in fondo e non si lasci condizionare da ideologie a essa esterne che mirano a strumentalizzarla per i loro fini deviati.
Analogia, somiglianza e metafora sono forme del linguaggio comune alle quali si fa ricorso, principalmente laddove si pensa di non poter raggiungere un elevato grado di certezza: possono invece diventare strumenti conoscitivi entro un percorso di piena razionalità?
Di questi tre termini analogia, somiglianza, metafora direi subito che il secondo (somiglianza) è quello di uso più frequente nel linguaggio di ogni giorno ed è quello con il quale intendiamo dire che due o più – diciamo vagamente – «cose» presentano qualche aspetto che almeno appare essere tra loro comune. Spesso si tratta di connotazioni accidentali, secondarie che riguardano il colore, o alcuni tratti della forma geometrica, o magari il modo di muoversi, il comportamento, o altro ancora. Non ci si preoccupa, in genere di distinguere se questa reale o presunta somiglianza ci sia effettivamente nella realtà delle cose o se sia una proiezione della nostra mente sulle cose.
Quando parliamo di analogia o di metafora, invece, entriamo in contatto con un linguaggio che vuole essere più tecnico e, quindi più preciso, proprio in merito a questa distinzione. La metafora, infatti, ha a che fare con quel genere di somiglianze che sono proiettate dalla nostra mente sulle cose, ma non ha un riscontro reale in queste ultime. Per questo la metafora è tipica del linguaggio letterario e poetico. Così noi possiamo vedere nella forma di una nuvola la sagoma di un animale e dire che è un cane, o possiamo dire che un prato è ridente quando in primavera esplode di fiori colorati che ci ispirano buon umore. Ma non c’è nessun cane nella nuvola né nessuna nuvola nel cane, o nessun sorriso nei fiori del prato o nessun fiore in un sorriso. Tutto ciò è sicuramente poetico perché pesca nelle nostre emozioni, ricordi e sentimenti, ma non basta per la scienza.
L’analogia, invece, se intendiamo questa parola in senso tecnico, è una somiglianza (non riducibile a un’uguaglianza) che nelle cose c’è, e di conseguenza, può essere oggetto di una scienza aderente alla realtà e a carattere universale. Ciò che è interessante è proprio il fatto che l’analogia (della quale si era accorto per primo Aristotele nel IV secolo a.C. e più tardi Tommaso d’Aquino nel XIII secolo cristiano) incomincia a essere riscoperta, anche se sotto altri nomi dall’interno delle nostre scienze.
In particolare, lei sottolinea spesso l’importanza e la funzione dell’analogia nel processo conoscitivo delle scienze della Natura. Può chiarire il senso di tale insistenza?
Già ben prima delle attuali indagini sulla complessità e sulle classi l’analogia è stata alla base dei modelli che si basano su una stessa legge matematica che è capace di governare, almeno in certe condizioni, un certo sistema fisico, oggetto del nostro studio, e insieme il modello candidato a spiegarne la struttura e la dinamica. Sono per esempio, agli analoghi meccanici di un circuito elettrico e viceversa.
I primi computer analogici si basavano su questo tipo di analogia tra un sistema fisico e uno elettronico, di per sé del tutto diversi, ma costruiti in modo tale da essere governati da una stessa legge matematica che li accomunava nel comportamento, rendendoli appunto analoghi; per cui l’osservazione dell’uno permetteva di fare previsioni sul comportamento dell’altro. L’analogia è capace di identificare una somiglianza fondata nella realtà tra sistemi che si presentano molto dissimili.
Oggi, però, la crisi del riduzionismo ha messo in evidenza il ruolo dell’analogia nella scienza in un modo più fondamentale. Esistono, nelle cose oggetto delle più diverse scienze, delle strutture che sono tra loro irriducibili (occorre andare oltre il riduzionismo) e che sono al contempo dotate di somiglianze e di legami causali, o di qualche aspetto che è tra loro comune e che può e deve essere oggetto di indagine scientifica.
Oggi parliamo di strutture o dinamiche dei sistemi complessi. Non sempre questi aspetti possono essere oggetto di calcolo, sia per difficoltà tecniche (si tratta di strutture descritte da sistemi altamente non lineari, il tentativo di linearizzazione dei quali porterebbe proprio alla perdita degli aspetti che li caratterizzano come complessi, distruggendoli), sia per una non computabilità di principio. In questi casi un’analisi qualitativa, per esempio della struttura topologica delle loro dinamiche, può essere una fonte di conoscenza scientifica ricca di informazioni, se non unica. I diversi livelli di un sistema di questo tipo non sono altro che modi diversificati e tra loro irriducibili di attuare una medesima caratteristica comune.
Da un punto di vista logico-filosofico Aristotele e Tommaso avevano scoperto che una nozione come quella di «ente» o di «cosa» può essere utilizzata per descrivere nella maniera più ampia ogni livello irriducibile delle realtà, proprio perché si può attuare in modi del tutto diversificati e irriducibili, non rispondendo a un’unica definizione.
Le nostre scienze logico-matematiche non hanno raggiunto ancora un livello filosofico così astratto, ma ci sono andate vicino, per esempio, già tra la fine del XIX e la prima metà del XX secolo quando si sono accorte che la nozione di «insieme», se viene pensata come qualcosa che si attua in un unico modo, porta a delle contraddizioni (come, per esempio, i paradossi dell’insieme universale o di quello di Bertrand Russell). Perciò occorre distinguere tra più modi (Russell li ha chiamati tipi; Gödel ne ha distinti due: le classi proprie e gli insiemi) di attuarsi delle classi di oggetti, i quali, pur essendo tra loro irriducibili hanno in comune la relazione di appartenenza in quanto sono classi.
Si sta aprendo un curioso e suggestivo incontro tra mondi di pensiero che non solo sembravano lontanissimi, ma addirittura incommensurabili.
Alla luce sia delle analisi critiche condotte dagli epistemologi sia dei nuovi campi di indagine o dei nuovi sviluppi di alcune discipline (complessità, caos, neuroscienze, nanoscienze …), si possono indicare criteri e fondamenti dove poggiare la certezza delle teorie scientifiche?
La questione dei «fondamenti delle scienze» come oggi le pratichiamo, essenzialmente basate sulla matematica e le sue applicazioni – in ambito fisico, chimico, biologico, informatico, cognitivo, eccetera – da un lato rimanda al «problema dei fondamenti della matematica», che fu aperto come un vero programma di ricerca da David Hilbert, e dall’altro pone allo stesso tempo la questione della indagine sui veri e propri principi irriducibili che governano la struttura e la dinamica della materia, oggetto della nostra osservazione sperimentale, diretta o indiretta.
Un problema, questo ultimo che sembra essersi scatenato proprio con la crisi del riduzionismo e l’apparire della complessità.
Sul primo versante i teoremi di indecidibilità di Gödel hanno infranto il sogno di Hilbert di dimostrare che un sistema di assiomi convenzionali chiuso sia in grado di dimostrare al suo interno tutte le proposizioni che è in grado di formulare con il proprio linguaggio simbolico o la loro negazione (completezza).
Esistono proposizioni indecidibili dall’interno del sistema che pur sappiamo essere vere sulla base di criteri a esso esterni. È come dire che un linguaggio può esprimere più enunciati veri di quelli che è in grado di dimostrare: quasi un invito a farsi dire dall’esterno che esse sono vere. Lo stesso Gödel [cfr., ivi, p. 273], come poi Gregory J. Chaitin [cfr., G.J. Chaitin, L’incompletezza è un problema serio? (p. 68), in G. Lolli, U. Pagallo (a cura di), La complessità di Gödel, Giappichielli Editore, Torino 2008] e altri hanno inteso questo come un suggerimento della matematica a riaprirsi all’esperienza, dopo aver assolutizzato illusoriamente il formalismo.
Contemporaneamente l’avere scoperto, nella teoria delle classi, quella che gli antichi chiamavano l’analogia dell’ente sembra essere un invito a incominciare a occuparsi non solo di classi ma addirittura proprio di «enti». Una buona teoria dei fondamenti delle scienze sembra dover essere una «teoria degli enti».
Oggi si parla anche di «ontologia formale» prendendo a prestito il termine dalla filosofia, ma cercando di applicarne i risultati all’ingegneria, alla robotica. Ma siamo solo agli inizi e, forse, senza una rivisitazione degli antichi, come Aristotele e Tommaso ci si potrebbe arenare.
L’altro problema, di natura fisica, sorto con la scoperta della complessità, riguarda la struttura e la dinamica della materia. La crisi del riduzionismo ha fatto capire che il problema non si risolve pensando il mondo solo come fatto di mattoni elementari che si sommano interagendo tra loro, siano questi le particelle elementari della fisica, o strutture biologiche di base. Per ora uno degli elementi nuovi che stanno entrando in scena, accanto alla materia (parola che ormai unifica in qualche modo le particelle, i campi di interazione, l’energia) sembra essere l’informazione che non è né materia né energia, come già aveva detto Norbert Wiener [cfr., N. Wiener, Cybernetics, or Control and Communication in the Animal and the Machine, Hermann et Cie, The Technology Press, Paris 1948], ma è qualcosa di irriducibile a esse. Si stanno facendo via via nuovi progressi per passare da un’idea di informazione puramente legata all’ingegneria delle telecomunicazioni (Claude Shannon), o a quella algoritmica intesa pragmaticamente solo come qualcosa che ottimizza la lunghezza delle stringhe che la codificano (Andrej N. Kolmogorov) a qualcosa che racchiude in sé la caratterizzazione di un oggetto che essa è in grado anche di organizzare e attuare e non appena di descrivere. Un qualcosa che assomiglia alla antica «forma» di Aristotele, scoperta attraverso le nostre scienze.
Con tutto questo sto per rispondere, infine, all’ultima domanda che mi è stata rivolta, sulla certezza nella scienza. Le scienze possono attingere a delle verità, ma da sole non possono essere in grado di dimostrare di essere nella verità. Giungono a teorie «verosimili», come già diceva Popper.
Per attingere alla consapevolezza certa di essere a conoscenza della verità esse hanno bisogno di una teoria dei loro fondamenti che giunga a basarsi su alcuni pochi principi che sono veri in quanto sono irrinunciabili sia dal punto di vista logico (sono in fondo quegli assiomi che Gödel pensava essere tipici di una matematica in senso proprio), che indispensabili da un punto di vista di una teoria degli enti di natura fisica. Forse solo di questi e da ciò che da essi può essere sviluppato, si può dire di avere una certezza assoluta dal punto di vista della scienza logica come sperimentale, ma sono quanto basta per dire che la verità oggettiva esiste e che la scienza è fatta per la verità e non per la sola convenzione.
Da questi potremo dedurre altre verità di carattere universale, ma non si potrà con la stessa certezza avere conoscenza dei dettagli più particolari, intorno ai quali possiamo comunque avere conoscenze altamente verosimili in quanto contengono molti elementi di verità.1
A cura di Mario Gargantini
(Direttore della rivista Emmeciquadro)
Alberto Strumia
(già Ordinario di Meccanica Razionale presso l’Università degli Studi di Bari, attualmente Professore incaricato di Teologia fondamentale presso l’I.S.S.R. della Pontificia Università della Santa Croce a Roma, Vicedirettore del Portale di Documentazione Interdisciplinare di Scienza e Fede)
Note
[n.d.r] Su questa rivista sono stati pubblicati i seguenti articoli di Alberto Strumia, utili per un approfondimento dei temi trattati nell’intervista:
La crisi del riduzionismo. Analogia e astrazione nelle scienze, in Emmeciquadro, n° 05 – aprile 1999;
Verso una teoria dell’analogia. Analogia e astrazione nelle scienze, in Emmeciquadro, n° 06 – agosto 1999;
Astrazione e scienze cognitive. Analogia e astrazione nelle scienze, in Emmeciquadro, n° 07 – Dicembre 1999
La scienza oltre il riduzionismo (1), in Emmeciquadro, n° 49 – giugno 2013;
La scienza oltre il riduzionismo (2), in Emmeciquadro, n° 50 – settembre 2013.
Inoltre si segnala il testo:
A. Strumia & altri, Scienza, analogia, astrazione. Tommaso D’Aquino e le scienze della complessità, Il poligrafo, Padova 1999, recensito da Paolo Musso in Emmeciquadro, n° 08 – aprile 2000.
© Pubblicato sul n° 56 di Emmeciquadro