Il 10 e 11 ottobre scorsi, ai Laboratori del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare, si è tenuto un Simposio dal titolo “Scienza e Metodo” con la partecipazione di circa 130 fra docenti di Scuole, principalmente Medie Superiori, ricercatori e studenti. Il Simposio, uno dei primi su questo argomento, ha avuto un taglio completamente interdisciplinare. Il suo scopo era un’analisi delle caratteristiche della Scienza, ed in particolare di alcune di quelle Scienze che prendono il nome di Scienze della Natura o cosiddette Scienze Esatte, in particolare Fisica, Astrofisica, Biologia, Medicina. Si è parlato anche di discipline che sono “borderline” rispetto alle Scienze della Natura, come la Statistica e l’Analisi del Linguaggio.
Attualmente il nome Scienza viene dato a quasi tutte le discipline strutturate: si parla così di Scienze Sociologiche, Giuridiche, Umanistiche, Politiche ecc., ma financo di Scienze del Turismo. In altre parole la dizione Scienze viene utilizzata con significato di studio organizzato, conoscenza approfondita. Ma la di là dell’uso della parola Scienza, il che alla fine è un problema semantico, è chiaro che l’affidabilità delle conclusioni e le facoltà predittive di queste discipline, rispetto alla Scienze della Natura, sono ben diverse. Si pone quindi il problema: cosa realmente contraddistingue le Scienze della Natura (o Scienze Esatte)? La risposta è “il Metodo Scientifico” o “Metodo Sperimentale”, che implica un approccio che deve avere caratteristiche ben determinate. 1- Ogni “rappresentazione di un fenomeno” per essere accettata deve passare al vaglio del confronto con i risultati degli esperimenti o delle osservazioni.
2- I risultati degli esperimenti o delle osservazioni devono essere ripetibili, cioè ottenuti e eseguiti in modo che, ovunque siano disponibili le necessarie attrezzature e competenze, si possano rifare le stesse osservazioni, ottenendo gli stessi risultati. Quando si dice gli stessi risultati significa che i risultati ottenuti da diverse persone devono essere fra loro compatibili, cioè con differenze minori delle incertezze intrinseche della misura. È questo un criterio di oggettività. 3- Questi criteri possono essere seguiti solo se le grandezze oggetto delle misure o osservazioni sono grandezze misurabili, cioè grandezze sulle quali possano essere eseguite misure di tipo oggettivo, nel senso dato a questa parola nelle righe precedenti. Ciò significa che “lunghezza, tempo, contenuto di una soluzione, numero di casi, ecc.” sono grandezze sulle quali la Scienza può operare, mentre altre, quali “bellezza, coraggio, altruismo ecc.” non sono grandezze sulle quali la Scienza può operare, non essendo misurabili univocamente in modo oggettivo quindi non essendo misurabili “tout court”. È molto importante capire che “misurabile” significa solo “misurabile in modo oggettivo” . Infatti quasi tutto è misurabile, ma non lo è in modo oggettivo.
Alla “rappresentazione” si può arrivare in molti modi: direttamente da uno o più risultati sperimentali, da una intuizione che generalizza un risultato sperimentale, da una predizione di una teoria generale, la quale seguendo lo sviluppo del linguaggio matematico da essa adottato, porta a delle conseguenze che possono essere controllate sperimentalmente. Un esempio antico di intuizione geniale dai dati sperimentali è ad esempio la legge di gravitazione universale elaborata da Newton che aveva a disposizione le osservazioni di Galileo sulla caduta dei gravi e quelle di Keplero sul modo dei pianeti del sistema solare. Un esempio attuale di predizioni di una teoria generale è la teoria dei quark, componenti elementari della materia, per la quale, una volta stabilita, benché in modo indiretto, l’esistenza di tre quarks, si è predetta l’esistenza di altri tre quarks e di alcune delle loro caratteristiche, confermata puntualmente dagli esperimenti.
La rappresentazione può avere vari stadi di generalità: si parte dalla probabilità statistica (ad esempio la percentuale di ammalati guariti se curati con un certo farmaco rispetto alla popolazione di controllo formata da pazienti aventi la stessa malattia), al modello che spiega il meccanismo che provoca un certo fenomeno, alla legge che spiega una classe di fenomeni, infine alla teoria che mette insieme tutti i fenomeni, anche di tipo diverso, che soggiacciono al funzionamento di una intera parte della natura (ad esempio la teoria che cerca di unificare tutte le forze della natura- attualmente si è riusciti a ricondurne il numero totale a tre).
Una rappresentazione non è mai definitiva, sia perché può venire conglobata in una rappresentazione più generale (costante tendenza della Scienza), sia perché possono essere sempre scoperti nuovi fenomeni che possono rimetterla in gioco, sia perché nuovi sviluppi tecnologici permettono misure o precisioni di misura non possibili precedentemente. Tuttavia molte rappresentazioni hanno raggiunto ormai una tale livello di controlli sperimentali da essere considerate praticamente definitive, anche se per ognuna di esse va sempre definito il campo di validità. Questa visione delle Scienze della natura è abbastanza generale e l’applicabilità del metodo è connessa all’affidabilità delle conclusioni e alla predittività della Scienza. Quindi, quanto più il metodo sperimentale delinea i tratti di una disciplina, tanto maggiori sono la affidabilità e la predittività della disciplina stessa.
Nel Simposio questo discorso sul Metodo, illustrato da chi scrive, è stato ovviamente declinato in modo diverso dagli oratori, a seconda della loro disciplina scientifica. Giovanni Prosperi ha insistito sull’importanza del modello nello sviluppo della Fisica, modello inteso come con una idealizzazione e una forte semplificazione di una situazione complessa, allo scopo di comprendere gli aspetti più importanti di un fenomeno , trascurandone altri meno rilevanti. Prosperi enfatizza il concetto di area di applicazione di una legge e il fatto che “nella nostra esperienza ogni teoria è destinata a essere presto o tardi superata da una nuova, e quindi è naturale concepire la conoscenza fisica in tutta generalità come una conoscenza per modelli”. Il concetto, già espresso da chi scrive, della continua revisione della rappresentazione e del campo di validità di essa, viene ripreso in questa conclusione di Prosperi. Va però sottolineato che questo processo della Scienza non deriva da uno scetticismo sulla possibilità di arrivare ad una rappresentazione del reale, ma invece dalla confidenza che una rappresentazione possa essere sempre affinata in modo di poter rappresentare sempre meglio il reale, attraverso un continuo discernimento fra il vero e il falso.
In Astrofisica, come sottolineato da Marco Bersanelli, l’applicazione del metodo sperimentale utilizza come esperimenti le osservazioni. L’oggetto dell’indagine è inaccessibile, non manipolabile: non possiamo far altro che raccogliere (“vedere” ) quello che ci arriva dal cielo, perché l’unico oggetto indagabile è l’Universo e quello che noi “vediamo” è in grandissima parte invisibile. Non solo, ma la maggior parte delle misure astrofisiche sono indirette, sono cioè osservazioni che inducono certe conclusioni, ma non le dimostrano direttamente. Infatti non è possibile inventare esperimenti ad hoc. In astrofisica, vedere significa registrare attraverso vari strumenti le radiazioni elettromagnetiche che appartengono allo spettro ottico, quelle ultraviolette, le X e le gamma, le infrarosse, le onde radio, le microonde e le onde di lunghezza inferiore al mm. I corpi che emettono tutte queste radiazioni sono in verità solo il 4% circa di tutta l’energia-massa presente nell’Universo. Osservazioni di effetti gravitazionali sulle Galassie a spirale e sull’attrazione reciproca fra Galassie inducono a pensare che esistano molti corpi massivi che non emettono nessun tipo di radiazioni, la cosiddette Materia Oscura, che è circa 8 volte superiore alla materia “visibile”. Le recenti osservazioni del lontano Universo, dal quale provengono segnali emessi quando l’Universo era “infante” e che, data la distanza, ci raggiungono solo ora, ci indicano che l’Universo a quell’età si espandeva meno velocemente che non ora. Quindi sembra che la sua velocità di espansione aumenti e ciò induce a pensare che ci sia qualche misteriosa energia che provoca questa accelerazione: la si è chiamata “Energia Oscura” e la sua entità domina tutte le altre componenti dell’Universo. Concludendo, siccome l’Universo risulta composto solo per il 4% di corpi che emettono radiazioni elettromagnetiche, mentre la Materia Oscura è circa 30% e l’Energia Oscura è circa il 66%, possiamo dire di conoscere qualcosa di una minima parte dell’Universo.
Tutto ciò che conosciamo in Astrofisica lo sappiamo per via “indiretta” e anche ciò che è visibile direttamente lo è perché è mediato da un processo fisico. Ma “vedere” in senso compiuto implica un qualche riconoscimento di ciò che si vede. Poiché in Astrofisica non possiamo, come nella Fisica, inventarci degli esperimenti chiarificatori ad hoc, ci affidiamo a continue osservazioni che ci rivelano indizi convergenti. Una scoperta emerge e si consolida nel tempo come spiegazione ”invisibile” di molti indizi visibili, fra loro indipendenti, indizi ottenuti attraverso misure quantitative, rigorose, verificabili, ripetibili.
La Biologia ha la possibilità di fare esperimenti e la sua storia è strettamente collegata con le attività sperimentali. Ma i biologi hanno a che fare con sistemi di grande complessità, non solo dovuta al grande numero di componenti di ogni sistema, ma anche alle infinite interazioni fra di loro. E tali sistemi non sono facilmente semplificabili. Giorgio Dieci ha fatto alcuni esempi veramente illuminanti, riguardanti ad esempio le proteine. Anche la biologia tende a trovare meccanismi fondamentali e unificanti; attualmente si tende ad assegnare al DNA tutta la fonte dei caratteri delle parti elementari di ogni tessuto vivente, cioè le cellule. Tuttavia le cose sembrano più complesse e non tutto può essere imputato al DNA.
Il problema della biologia è che essa manca di una teoria. L’immagine del vivente costruita dalla biologia sperimentale si basa su ciò che del vivente è isolabile e manipolabile. Ma non esiste ancora una vera teoria della Biologia. I biologi sperimentali non sono mai troppo entusiasti quando risulta che un processo era stato correttamente predetto. Questo è molto diverso da quanto accade nel campo della fisica, dove un’osservazione sperimentale non verrebbe in alcun modo sminuita se preceduta da una predizione teorica.
La complessità dei sistemi biologici è tale che in alcuni casi una parcellizzazione delle osservazioni sperimentali può essere fuorviante rispetto ad una osservazione globale. E’ questo certamente il caso del sistema “uomo”. Ed è il problema che attualmente si pone ad esempio al neurologo. Mauro Ceroni ha illustrato i problemi che attualmente sono presenti nell’attività diagnostica se ci si affida solo alle analisi di laboratorio. Ceroni si rammarica che sia a poco a poco abbandonato il cosiddetto “metodo clinico”, il metodo che prendeva in considerazione il paziente nella sua globalità, lasciando spazio naturalmente all’intuizione ed all’esperienza del medico, nonché all’anamnesi del paziente stesso. Ad esso si è sostituito un approccio che pretende di essere più scientifico e che si affida a molteplici analisi, ciascuna delle quali riguarda solo un ristretto aspetto del problema.
Questa svolta nella diagnostica è stata provocata non da medici che lavorano con i pazienti, ma da specialisti in epidemiologia, statistica, scienza del computer, neuropsicologi, i quali non hanno competenza nel trattamento del malato reale. Si segue un protocollo predefinito da esperti, senza avere una sintesi da parte del clinico, con la totale abolizione della personalizzazione: il paziente viene fatto ruotare attraverso vari specialisti, senza che qualcuno si prenda la responsabilità della diagnosi finale. Ceroni è piuttosto pessimista sulla possibilità della sopravvivenza della medicina, se si elimina il metodo clinico.
Per mostrare a studenti della scuola media superiore come procede il metodo scientifico, Nice Terzi ha proposto agli insegnanti un possibile percorso didattico centrato sul problema del numero delle dimensioni dello spazio, un argomento ritenuto di solito banale e noioso, anche se indispensabile. Noi viviamo in uno spazio a tre dimensioni (spazio 3D) e quindi per determinare la posizione di un punto nello spazio bastano tre numeri; i sistemi di riferimento possono essere: le coordinate cartesiane, le coordinate sferiche, latitudine, longitudine, quota. Inoltre lo spazio a 3D è omogeneo e isotropo. Ma ci si ferma qui? Non esistono ulteriori dimensioni?
Proviamo a riempire lo spazio 3D con delle figure geometriche. La cristallografia ha dimostrato che si riesce a riempire lo spazio in 3D , senza buchi, mediante sette sistemi cristallini e 11 reticoli (di Bravais). Fra questi non ci sono sistemi con asse di rotazione icosaedrico. Prendiamo ora il dodecaedro pentagonale: è impossibile riempire lo spazio con una figura di questo genere. Ma nel 1982 si è scoperta l’esistenza dei cosiddetti quasi-cristalli (il primo esempio è stata una lega di Manganese e Alluminio), materiali che si credevano disordinati, ma che hanno invece mostrato, all’analisi diffrattiva elettronica, un ordine basato sull’icosaedro. Questa scoperta, che ha necessitato di molte conferme per essere accettata dal mondo scientifico (attualmente i quasi cristalli sono una larga famiglia con centinaia di componenti), ha mostrato che le posizioni degli atomi tornano a essere periodiche in uno spazio a 6D e quindi dobbiamo pensare che i quasi-cristalli che noi osserviamo siano un taglio a 3D di un modo a 6D. E’ così “strana “ questa conclusione?
Consideriamo alcuni aspetti di ciò che noi osserviamo in uno spazio a 1D o a 2D. Prendiamo un piano riempito di barrette parallele (reticolo quadrato) e tagliamolo con una linea; avremo un taglio a 1D di uno spazio a 2D. Il taglio a 1D segue la serie di Fibonacci con un risultato ordinato e assolutamente deterministico. Si potrebbe fare un altro esempio con le piastrelle di Penrose. Ritornando quindi ai quasi-cristalli, mentre in uno spazio a 3D non si coglie una disposizione ordinata, questa si trova in uno spazio a 6D. Il quesito ora è questo: l’ordine in 6D è matematico o fisico?
Concludendo, la vicenda dei quasi-cristalli è emblematica del metodo scientifico: la rappresentazione è, nel caso trattato, la constatazione che lo spazio in cui viviamo è 3D; da qui si può dedurre che la copertura completa delle superfici in 2D si può eseguire utilizzando solo alcune figure piane (tra cui non c’è il pentagono) e la copertura completa dello spazio 3D è anch’essa limitata ad un numero finito di poliedri tra cui non c’è, ad esempio, il dodecaedro pentagonale. L’intervento è l’esame con diffrazione elettronica di una particolare lega di alluminio e manganese. Risultati sconcertanti: si vedono simmetrie proibite nel mondo 3D. Dopo numerosi test con altri esperimenti e la conferma del risultato sperimentale , si arriva per induzione ad una nuova rappresentazione, e cioè, nello specifico: “Esistono materiali, i Quasi Cristalli, che formano cristalli periodici in spazi con dimensioni superiori alle 3 del nostro spazio fisico. Nel nostro mondo 3D possiamo ricostruire la loro struttura dagli spettri di diffrazione riconoscendo che essi provengono da tagli 3D di uno spazio a maggiori dimensioni” Il Metodo Scientifico è fruibile anche in discipline che stanno molto recentemente tentando di evolversi verso strutture scientifiche, come è il caso dell’Analisi del Linguaggio. Andrea Moro ha illustrato come questa disciplina stia cercando di perseguire una ricerca biologica. Prima di tutto va fatta una distinzione fra uomo e animale. I sistemi di comunicazione di tutti gli animali si basano su un numero limitato e fisso di insieme di messaggi discreti, quasi esclusivamente circoscritti al qui ed ora, mentre il fatto che tutti i bambini normali acquisiscano delle grammatiche sostanzialmente comparabili di grande complessità e con notevole rapidità suggerisce che gli esseri umani siano in qualche modo progettati in modo speciale (riflessioni di Anderson e Chomsky). L’uso della sintassi da parte dell’uomo fa la differenza.
Un analisi biologica del linguaggio è basata su una valutazione dell’attività cerebrale tramite la misura del consumo di energia associato al flusso ematico in una precisa zona del cervello (area di Broca). Mediante questo tipo di valutazione si sono potute raggiungere delle conclusioni estremamente interessanti. Nelle lingue umane, in tutte le lingue, troviamo solo alcuni tipi di regole. Se ad una persona che conosce una lingua sottoponiamo delle frasi in una lingua a lui sconosciuta, se tali frasi sono formulate in modo sintatticamente corretto riscontriamo un’attività cerebrale, mentre se la frase è formulata secondo regole sintatticamente impossibili, si registra una diminuita attività cerebrale. Più precisamente, il flusso ematico nell’area di Broca aumenta all’aumentare della padronanza delle regole sintattiche possibili e diminuisce all’aumentare di quelle impossibili. Moro avanza l’ipotesi che la sintassi sfrondi gli input che arrivano al cervello, permettendogli una elaborazione. Si può fare un parallelo con l’occhio umano che è sensibile solo ad una ristretta gamma di frequenze e non è implausibile che una maggior potenza possa portare ad un sovraccarico.
Vale la pena ora soffermarsi brevemente sul ruolo della Matematica nelle Scienze della Natura. La Matematica può definirsi una logica, o se si vuole un linguaggio logico, del quale si avvalgono queste Scienze, soprattutto quelle in avanzata evoluzione. E’ questo ad esempio il caso della Fisica la quale esprime ogni “rappresentazione” in termini matematici, sia che si tratti di Modelli oppure di teorie più generali. La Statistica è un’applicazione matematica a dati reali ed conferisce una classificazione quantitativa al grado di affidabilità dei risultati scientifici. Donata Marasini ha spiegato come esistano due tipi di statistica: descrittiva, quando ci si affida ad un’analisi descrittiva e esplorativa dei dati, e inferenziale quando ci si affida ad un’analisi induttiva realizzata tramite la sperimentazione; una terzo tipo si identifica nella spiegazione di un fenomeno in funzione di altri predisponendo modelli in funzione di altri. La statistica inferenziale è largamente utilizzata nel trattamento di un gran numero di dati e sviluppa stimatori del livello di confidenza sul valore ottenuto del parametro di interesse.
In questo approccio si innesta la teoria asintotica basata sulla legge dei grandi numeri. La statistica fornisce anche dei test di significatività volto a sondare l’incidenza del caso nei risultati di un esperimento volto a verificare un’ipotesi di interesse. Questo test si utilizza con livelli di complessità diversi nelle varie Scienze ed è impiegato per stabilire la compatibilità di un’ipotesi, denominata ipotesi nulla, con il campione osservato, in modo che la probabilità di rifiutare tale ipotesi quando è vera non superi un prefissato livello di significatività. In fisica ad esempio qualunque conclusione ottenuta con approcci quali ad esempio la massima verosimiglianza non ha significato se non è accompagnata da una valutazione del grado di confidenza espresso in probabilità o in multipli di deviazione standard.
Chiudo questa rapida sintesi riferendo gli interventi dei tre filosofi (Evandro Agazzi, Fabio Minazzi, Valeria Ascheri). Agazzi ha affrontato il problema della oggettività nelle Scienze Esatte cercando di distinguere fra esperimenti ed osservazioni basate su misure scientifiche e costatazioni oggettive ottenute non necessariamente da misure. È il caso ad esempio dell’investigazione nelle discipline storiche: la certezza di un documento storico può fornire un costatazione oggettiva anche se non e’ basata su misure scientifiche. Minazzi ha presentato un excursus storico sull’idea di Metodo e di Scienza da Galileo ad Einstein soffermandosi sulla predittività della Scienza, sul rapporto fra Scienza e Cultura come visto da vari pensatori da Heidegger a Kant fino ad arrivare al Cattaneo. In particolare ha fatto notare che il Metodo Scientifico, così come è inteso dagli scienziati, non è sostanzialmente mutato da Galileo ad Einstein. Infine Ascheri ha enfatizzato la missione della Scienza di discriminare sempre fra il Vero e il Falso.
Non si possono estrarre conclusioni da un simposio di questo tipo, probabilmente il primo o uno dei primi così concepiti. Tuttavia si può costatare, pur attraverso le grandi differenze fra le Scienze della Natura, che il Metodo Scientifico è applicato dappertutto, nel senso che ogni Scienza per progredire si basa su dati sperimentali e conclusioni sintetico-teoriche ricavate da questi, che permettono delle previsioni, ovviamente con procedure fondamentalmente diverse nelle diverse disciplina: basta confrontare ad esempio come progredisce la fisica e come si attua il metodo clinico in Medicina.