L’idea di scienza come sapere che giustifica i suoi contenuti nasce con la civiltà greca classica. L’origine della Scienza della Natura, la Fisica, come scienza sperimentale nel senso moderno del termine, viene invece collocata nel Rinascimento, con la cosiddetta rivoluzione scientifica, e un ruolo particolare è riconosciuto in proposito alla figura di Galileo Galilei (1564-1642).
Nei suoi Analitici primi Aristotele (384/383 a.C.-322 a.C.) affrontava il problema del ragionamento corretto e negli Analitici secondi quello del fondamento e dell’organizzazione di una scienza. Per Aristotele una scienza deve fondarsi su un certo numero di concetti primitivi, presupposti noti senza definizione, e due distinti insiemi di proposizioni primitive, principi specifici di quella particolare scienza, spesso indicati nelle traduzioni moderne come postulati, e nozioni comuni a tutte le scienze. Dai concetti primitivi attraverso definizioni formali si ottengono tutti gli altri concetti di cui la scienza ha bisogno, dai postulati con l’ausilio delle nozioni comuni si deducono tutte le altre proposizioni proprie di quella stessa scienza (i teoremi).
Per Aristotele i concetti e le proposizioni primitive si originano da aspetti generali dell’esperienza, attraverso un processo di astrazione che è detto di intuizione intellettiva. I principi sono quindi fondati a priori, sostanzialmente accettati sulla base di un criterio di evidenza e come tali, se ben fondati, non sono riformabili. La validità delle proposizioni derivate e quindi dell’intera scienza dipende esclusivamente da quella dei suoi principi e dalla correttezza dei procedimenti di deduzione.
Dal punto di vista formale anche la Scienza della Natura come prospettiva tende a organizzarsi in modo assiomatico e quindi secondo i canoni aristotelici. La differenza fondamentale sta però nella fondazione dei principi. In Fisica questi sono inizialmente introdotti in forma ipotetica e sono giustificati solo a posteriori sulla base del loro potere esplicativo e predittivo, cioè della loro capacità di dare ragione dei fatti per i quali sono stati inizialmente introdotti e della conformità all’esperienza delle proposizioni da essi dedotte. Come tali essi sono sempre riformabili in conseguenza di nuovi risultati sperimentali e la scienza si trova in ogni momento in uno stato provvisorio e in continua trasformazione.
Secondo Galileo la «nuova scienza» deve innanzitutto essere caratterizzata da un nuovo atteggiamento verso i suoi oggetti. Deve rinunciare come prospettiva a tentar l’essenza vera ed intrinseca (cioè l’essenza ultima) delle sustanze naturali per accontentarsi di prendere in considerazione alcune affezioni delle stesse. Deve quindi rinunciare alla pretesa di poter spiegare i fenomeni naturali ricorrendo a principi metafisici di carattere generale, riconoscendo la possibilità di ottenere una conoscenza valida anche isolando solo alcuni aspetti degli oggetti studiati e restringendosi solo a un certo ambito di fenomeni. Gli aspetti sotto cui deve guardare agli oggetti sono poi quelli misurabili, quantificabili, quelli che saranno detti successivamente le qualità primarie, che sono considerate come proprietà intrinseche degli oggetti, al contrario delle qualità secondarie, legate alla percezione soggettiva e quindi non all’oggetto stesso ma al rapporto tra oggetto e soggetto. Il linguaggio adottato deve essere il linguaggio matematico, linguaggio in cui è scritto il grande libro della natura, linguaggio che permette una formulazione precisa dei principi e una deduzione non ambigua delle conseguenze (le necessarie dimostrazioni).
Ciò premesso, nel tentativo di spiegare un determinato insieme di fenomeni il ricercatore deve formulare un certo numero di ipotesi, che svolgono appunto nella teoria che intende costruire il ruolo di principi e si riferiscono spesso a una situazione idealizzata da cui sono defalcati aspetti particolari che oscurano quelli principali. Così con riferimento alla caduta dei gravi Galileo postula che in assenza di impedimenti al moto: tutti i corpi cadono con la stessa legge; nella caduta verticale la velocità di un corpo cresce in modo proporzionale al tempo; su un piano orizzontale un corpo continua a muoversi sempre nella stessa direzione e con velocità costante; un corpo lanciato si muove secondo una composizione dei due moti verticale e orizzontale e quindi descrive una parabola.
Le conseguenze elaborate matematicamente dei principi ipotetici, per esempio la relazione di proporzionalità tra l’altezza di caduta e il quadrato del tempo impiegato, devono poi essere sottoposte a controllo, realizzando appropriati esperimenti o sensate esperienze.
È importante che i principi possono essere suggeriti ma mai inferiti in modo univoco dall’esperienza, come avrebbe voluto Francesco Bacone (1561-1626). Essi devono essere appunto introdotti inizialmente appunto ex supposizione, tentativamente, sulla base di criteri di semplicità e di estetica, della considerazione di esperimenti ideali, di pregiudizi di carattere filosofico (Einstein parlerà di atto creativo). L’esperimento di controllo o discriminazione delle ipotesi è poi una cosa distinta dall’esperienza passiva, vuol essere un’interrogazione ragionata della Natura, in cui si cerca di riprodurre artificialmente un fenomeno, facendone variare appropriatamente le condizioni. Esso parte sempre da un’idea, è una sintesi di teoria ed esperienza e si fonda spesso su ipotesi teoriche addizionali dalla cui correttezza è condizionato. Così, negli esperimenti sul rotolamento di una sfera su piani inclinati, Galileo ammetteva che la velocità di caduta raggiunta dipendesse solo dal dislivello percorso e non dall’inclinazione del piano, nei moderni esperimenti sulle particelle un presupposto irrinunciabile è la cinematica relativistica.
Io credo si possa affermare che il metodo fondato o perlomeno reso esplicito da Galileo sia quello che, pur con precisazioni e approfondimenti, è ancora oggi alla base della nostra ricerca e che caratterizzi la Fisica quanto i suoi contenuti. Dal punto di vista concettuale i semplici esperimenti sulla caduta dei gravi attuati da Galileo non sono sostanzialmente diversi dai complessissimi esperimenti sulle particelle elementari.



Il punto di vista dell’esistenza di un metodo univoco è stato, per la verità, criticato da vari autori, tra cui in particolare Paul Karl Feyerabend (1924-1994). Secondo Feyerabend tutte le regole di ogni possibile metodo sarebbero state storicamente in un caso o nell’altro violate e l’accoglimento di una teoria verrebbe in ultima analisi solo all’assenso sociale degli addetti ai lavori. Io credo al contrario che quelli che sono mutati nel tempo siano piuttosto i criteri di accettabilità logica delle teorie e non il metodo base.
Mi spiego. Galileo non accettava le orbite ellittiche e l’azione a distanza, ma è proprio su questa base che Isaac Newton (1642–1727) ha risolto il problema del moto dei pianeti, ha compreso la natura delle comete, ha spiegato in modo soddisfacente le maree. Nell’ottocento non si concepiva un campo senza supporto materiale, ma è proprio accettando quest’idea che Albert Einstein (1879-1955) ha risolto le incongruenze legate all’ipotesi dell’etere e formulato la Teoria della Relatività. Einstein a sua volta non accettava l’idea di un Dio che «giocasse a dadi con il mondo», ma ogni tentativo di ritornare ad una teoria deterministica che soddisfacesse criteri ragionevolmente inderogabili si sono sin qui rivelati infruttuosi.
Una volta accettati certi presupposti di carattere filosofico di una teoria sono però sempre stati solo la coerenza interna e l’esperimento che ne hanno determinato la validità. Ripeto perciò che mi pare si possa senza riserve affermare che è proprio attraverso una sostanziale applicazione del metodo delineato da Galileo che la nostra conoscenza del mondo fisico ha avuto in quattro secoli gli sviluppi straordinari che conosciamo.



 

 

Alcune tappe significative nello sviluppo della Fisica

 

È chiaro che proprio perché sono giustificate solo sulla base del loro valore esplicativo e predittivo, le teorie devono evolvere. Vecchie teorie sono progressivamente sostituite da altre più soddisfacenti, si sceglie tra teorie concorrenti.
L’evoluzione avviene fondamentalmente per due motivi, perché con l’allargarsi del campo di esperienza emergono nuovi fatti che le vecchie teorie non riescono a spiegare e per logica interna, nello sforzo di raggiungere maggiore semplicità e coerenza, di ottenere sintesi sempre più ampie.
Esempi di motivazione del primo tipo sono il definitivo prevalere della teoria ondulatoria della luce su quella corpuscolare in conseguenza degli esperimenti di interferenza di ThomasYoung e di Augustin Fresnel o l’abbandono dell’idea di calore come sostanza per l’accettazione di un’interpretazione energetica, a fronte dell’esperimento di James P. Joule .
Esempi del secondo tipo sono la Meccanica e la Teoria della Gravitazione di Newton, che unificano le leggi di caduta dei gravi di Galileo; le leggi di conservazione nell’urto [Christiaan Huygens, John Wallis , Christopher Wren]; le leggi di Keplero sul moto dei pianeti; la teoria di James C. Maxwell del campo elettromagnetico, con la previsione delle onde elettromagnetiche; la teoria della Relatività o, più vicino a noi, la teoria delle interazioni elettro-deboli di Sheldon L. Glashow, Abdus Salam e Steven Weinberg.
In questa evoluzione è spesso accaduto che la nuova teoria, pur correggendo la vecchia, abbia potuto essere formulata nell’ambito dello stesso quadro concettuale della precedente. Così la Meccanica e l’Elettromagnetismo relativistici, pur partendo da un’analisi molto più approfondita dei concetti di spazio e di tempo, usano per rappresentare le particelle materiali e i campi lo stesso tipo d’idealizzazioni della teoria non relativistica. Solo la forma delle equazioni fondamentali della dinamica ha dovuto essere modificata e lo è stata in modo da riprodurre le vecchie equazioni nel limite di velocità piccole rispetto a quelle della luce. Altre volte, invece, lo stesso quadro concettuale ha dovuto essere radicalmente modificato. Si pensi a questo proposito al caso della Meccanica o dell’Elettromagnetismo quantistici in contrapposizione a quelli classici (relativistici o no).
Vediamo da questo punto di vista alcune tappe importanti che mi sembra si possano individuare nello sviluppo della Fisica, cercando di metterne in evidenza le idee fondamentali.



La Meccanica Classica
È il primo capitolo della Fisica ad aver raggiunto una formulazione organica. Si fonda sull’idea detta della localizzazione semplice.
Il concetto base è quello di corpo puntiforme o punto materiale, caratterizzato solo da una massa che ne rappresenta una caratteristica permanente e da tre coordinate che ne specificano istante per istante la posizione nello spazio. Questo concetto è usato per idealizzare un corpo di dimensioni molto piccole sulla scala considerata, o una piccola porzione di un corpo esteso. Il corpo esteso stesso è allora a sua volta specificato dalla sua forma, dalla distribuzione al suo interno delle masse e dalla sua disposizione globale nello spazio, caratteristiche tutte che a seconda delle schematizzazioni possono mutare nel tempo.
Si formula in tal modo prima una meccanica del punto e poi da questa a seconda delle ipotesi si deduce una Meccanica del corpo rigido o dei sistemi articolati, una Fluidodinamica, una Teoria dell’Elasticità.
L’influsso iniziale di Cartesio (con le sue idee chiare e distinte e la distinzione tra res cogitans e res estensa) e la perfezione formale raggiunta dalla teoria alla fine del settecento hanno portato presto a una concezione meccanicistica del mondo fisico, cioè alla convinzione che questo fosse completamente interpretabile in termini meccanici e tutto l’Ottocento è attraversato dallo sforzo di ricondurre in quest’ambito tutti i nuovi fenomeni che progressivamente si andavano scoprendo.
Si noti che il Meccanicismo risponde in realtà a un realismo ingenuo, a una visone illuministica della Fisica, in cui si pretende che il mondo sia descritto per così dire come è, in termini di concetti semplici e immediatamente intuibili. Già Giuseppe Lagrange però distingueva nella Meccanica un elemento materiale, il corpo puntiforme, e un «elemento metafisico» la forza.

L’Elettromagnetismo e il concetto di campo
Il concetto di campo nasce proprio dal concetto di forza, che viene per così dire come ipostatizzato. Dal 1839 al 1855 circa Michael Faraday sviluppa i concetti di campo elettrico e di campo magnetico nello sforzo di superare le difficoltà del punto di vista newtoniano nell’interpretare le interazioni tra correnti e magneti e tra correnti e correnti.

Questi campi sono concepiti come entità definite in ogni punto dello spazio che agiscono lungo certe linee di forza, sono generati da cariche e magneti e sono i mediatori dell’azione di questi su altre cariche e magneti. Permettono di ristabilire in qualche modo l’idea della forza come azione per contatto.
Faraday era convinto che la concezione newtoniana dovesse essere superata e che tutta la Fisica, inclusa la gravità, dovesse essere ricostruita attorno all’idea di campo. La sua proposta restava però a un livello puramente empirico qualitativo. In una serie di lavori tra il 1856 e il 1873, invece, James Clark Maxwell riusciva a dare al concetto di campo una forma matematica precisa e attraverso essa a costruire una teoria coerente e organica di tutti i fenomeni elettromagnetici; teoria che è compendiata nelle sue famose equazioni.
Una conseguenza di queste equazioni è stata tra l’altro la previsione dell’esistenza delle onde elettromagnetiche, verificata poi sperimentalmente da Heinrich R. Hertz (1857-1894) e l’interpretazione della luce come radiazione elettromagnetica.
Maxwell per la verità riteneva che anche il campo dovesse avere un’interpretazione meccanica, che potesse essere interpretato come effetto di una deformazione elastica di quello stesso etere che era stato ipotizzato come supporto per la trasmissione della luce. Tutti i tentativi di formulare un ragionevole modello di etere però fallirono e ogni riferimento a tale mezzo è eliminato da Einstein nel suo lavoro del 1905.
Il campo elettromagnetico diviene così definitivamente una realtà indipendente, priva di supporto materiale, che pure è sotto certi aspetti molto concreta; esercita un’azione sulla materia, può essere misurata, è capace di trasportare energia e momento, può essere percepita direttamente in certe condizioni come luce o come calore.
Il programma del meccanicismo era fallito e il mondo fisico richiedeva necessariamente per la sua comprensione una dualità di concetti.

La Meccanica Quantistica
Gli stessi concetti della Meccanica e dell’Elettromagnetismo classici si rivelano però ben presto inadeguati per lo studio del comportamento dei costituenti elementari della materia e dei processi elementari di emissione e assorbimento di radiazione e devono essere sostituiti con un nuova teoria.
Entra in particolare in crisi l’idea di particella come corpo puntiforme che descrive una traiettoria continua e la stessa concezione deterministica secondo cui lo stato del mondo fisico in un dato momento è completamente determinato da quello in un istante precedente. A ogni costituente elementare è associata una funzione d’onda che però non ha un significato fisico diretto e si presenta come un puro strumento matematico che permette solo di fare previsioni di tipo statistico sul comportamento successivo della stessa. La natura ondulatoria attribuita alla particella è confermata da esperienze di diffrazione e interferenza realizzate con fasci di particelle. Possono essere in particolare realizzati esperimenti di interferenza da due fenditure del tipo di Young, nei quali il semplice supporre che la singola particella passi dall’una o dall’altra fenditura porterebbe all’impossibilità dell’interferenza.
Ciò che resta dell’idea di corpo puntiforme è solo il fatto che nell’attraversare una rete di rivelatori la particella, come entità indivisibile, agisce su uno solo di questi, comunque piccoli essi siano. La particella mantiene una sua identità ma si deve rinunciare a un modello intuitivo valido in tutte le circostanze, essa è propriamente descritta solo dalla sua azione su effettivi strumenti di misura.

La Teoria Quantistica dei Campi
In questa teoria l’oggetto fondamentale è il campo quantizzato. Si rida in certo senso realtà fisica diretta all’onda associata alle particelle, ma le particelle perdono la loro individualità e divengono solo espressione dello stato dei campi. Divengono per così dire granuli di energia e momento del campo. Questo permette di comprendere processi in cui vi sono particelle che spariscono e altre che vengono create. Tali processi corrispondono semplicemente a scambi di energia e momento tra campi.

 

 

Interpretazioni di tipo riduttivo e proposta di una appropriata prospettiva

 

Di fronte alla crisi del Meccanicismo e poi ai successivi sviluppi di cui abbiamo parlato, emergono, già a partire dall’ultima parte dell’Ottocento, interpretazioni puramente strumentali e sostanzialmente riduttive del significato della Fisica; interpretazioni ispirate a un empirismo radicale che si riallaccia più o meno esplicitamente al pensiero di David Hume (1711-1772).
Hume parte da una critica al concetto di relazione causale, ritenendo che esso nasca semplicemente dall’associazione abituale di certi fatti o certe sensazioni a certi altri fatti o sensazioni, senza che si possa in realtà mai cogliere nel fatto designato come causa la ragione di quello designato come effetto: «[…] in una parola, ogni effetto costituisce un evento distinto e separato dalla sua causa. Di conseguenza non potrebbe essere scoperto nella causa; e la prima invenzione o concessione di esso deve essere, a priori, assolutamente arbitraria.»
Su questa linea, in particolare, Ernest Mach (1838-1916), esponente dell’Empiriocriticismo, molto noto tra i fisici per un fondamentale commento critico alla Meccanica, così si esprime «Compito della Scienza è ricercare ciò che è costante nei fenomeni naturali. Tutta la scienza ha per scopo di sostituire, ossia di economizzare esperienze, mediante la riproduzione e l’anticipazione di fatti nel pensiero. Queste riproduzioni sono più maneggevoli dell’esperienza diretta[…] Non occorrono riflessioni molto profonde per capire che la funzione economica della Scienza coincide con la sua stessa essenza […]». Un atteggiamento di questo tipo lo portava tra l’altro a non voler accettare la realtà degli atomi e la Teoria della Relatività.
Particolare importanza ha, tuttavia, avuto a riguardo soprattutto il movimento neopositivista, fiorito dalla fine degli anni Trenta agli anni Quaranta del Novecento nelle due scuole di Vienna e di Berlino. Questo movimento ha preteso a un certo momento di essere la filosofia ufficiale della Scienza e il suo atteggiamento fondamentale è a tutt’oggi largamente presente nel pensiero di molti studiosi.

Il fondatore del movimento, Moritz Schlik (1882-1936), riteneva che la Logica e la Matematica fossero nient’altro che complessi di tautologie, che trasformano un insieme di proposizioni in un insieme equivalente, senza aggiungere nulla dal punto di vista conoscitivo. Egli considerava priva di senso ogni affermazione non suscettibile di una verifica empirica o fattuale e introduceva come principio di significanza un principio di verificazione, secondo cui «il significato di una proposizione è il metodo della sua verifica». In tal modo negava ogni significato a qualsiasi proposizione di carattere filosofico, ma svalutava anche tutto l’aspetto teorico della scienza riducendone il significato al massimo a quello attribuito ad esso da Mach.
Karl Popper (1902-1994) faceva notare in proposito che il principio di verificazione, anche nelle sue varie formulazioni, era in realtà incongruo, in quanto esso stesso di natura metafisica e non suscettibile di verifica empirica e lo sostituiva con un suo principio di falsificazione (come principio però di scientificità e non di significanza) che però a sua volta porterebbe come diremo a un irrigidimento del metodo non accettabile.
A parte la critica di Popper è comunque chiaro che un atteggiamento del tipo di quello di Mach o dei neopositivisti è contrario alla stessa motivazione e all’esperienza di ricerca di ogni scienziato. L’elemento teorico, strettamente legato a parole come capire e spiegare è poi essenziale per la Fisica e non è vero che in ciò che è indicato in esso come causa non si ritrovi la ragione dell’effetto. Newton deduce le leggi di Keplero dalla sua legge della gravitazione universale; un fisico dei solidi vuole capire perché certi materiali siano conduttori, altri semiconduttori, altri isolanti; un astrofisico cerca di risalire dai tipi di radiazione emessi da una stella alla sua costituzione interna e al meccanismo di emissione.
La fiducia inoltre di cui parla Hume sul ripetersi sempre in futuro di una regolarità, di una certa correlazione che è stata osservata più volte in passato, quella che l’associazione non sia puramente casuale, può derivare solo dalla convinzione, almeno implicita, che essa sia nella natura delle cose.
Il famoso studioso dei fondamenti della matematica Alfred North Whitehead (1861-1947), coautore con Betrand Russell (1872-1970) della monumentale opera Principia Matematica, scriveva nel suo La Scienza e il mondo moderno (1926) che la scienza nasce da una convinzione istintiva e generalizzata che esiste un ordine delle cose e più precisamente un ordine nella natura e che tale ordine almeno in una certa misura può venire compreso. Egli riteneva la filosofia di Hume del tutto incompatibile con lo sviluppo scientifico e considerava una fortuna che essa fosse stata a suo tempo del tutto ignorata dagli scienziati.
Se però a ogni teoria possiamo solo attribuire un carattere provvisorio e mai esaustivo, se, come avvenuto già molte volte in passato, nello sforzo di dar ragione di nuovi fenomeni siamo costretti a formulare nuove teorie che spesso si svolgono in un quadro concettuale completamente differente, in che senso possiamo ritenere la vecchia ancora valida, sia pure in un contesto meglio definito e più ristretto? In che senso possiamo ritenere, che come ammesso nella comune pratica essa possa dire qualcosa di definitivo sull’oggetto? In che senso si può parlare di un progresso nella comprensione del mondo della natura?
Se prendessimo seriamente il falsificazionismo di Popper, l’insieme di quei fenomeni non inquadrabili nella Meccanica e nell’Elettromagnetismo classici che hanno dato luogo alla Teoria Quantistica ci dovrebbe far dichiarare semplicemente falsa tutta la Fisica Classica; l’osservazione che nell’urto tra particelle ad alta energia sono prodotte nuove particelle e eventualmente alcune di quelle originali scompaiono ci dovrebbe far dichiarare falsa la Meccanica Quantistica.
Eppure in ogni corso per gli studi in Fisica si parte dalla Meccanica Classica, che appare essenziale per gli sviluppi successivi, seguono di regola la Termodinamica e l’Elettromagnetismo Classico, solo successivamente si passa alla Meccanica Quantistica e solo alla fine è introdotta la Teoria Quantistica dei Campi, che pure è considerata al momento la teoria fondamentale.
Credo che la risposta a questo problema possa essere trovata nel concetto di modello, che ogni teoria debba essere riguardata (in linea in realtà con l’originario atteggiamento di Galileo), come un modello, che essa debba necessariamente esprimersi attraverso strumenti di tipo analogico, che sono una nostra creazione ma che ci parlano di un mondo reale.

 

 

La conoscenza scientifica come conoscenza per modelli

 

Nella prospettiva di cui sopra, veniamo dapprima al concetto di modello in Matematica. Se si concepiscono gli enti matematici come privi di significato intrinseco, nel senso di Hilbert, si intende per modello di una certa teoria un insieme di oggetti che soddisfa i postulati della stessa secondo una precisa legge di corrispondenza o codice di traduzione.
Gli oggetti base del modello sono generalmente costruiti con gli elementi di un’altra teoria matematica, considerata però nel contesto come più concreta. Sono noti esempi di modello matematico: la rappresentazione cartesiana della Geometria Euclidea (dove il termine punto è identificato con le coppie ordinate di numeri reali, le sue coordinate, e il termine retta con le equazioni lineari nelle coordinate dei punti che ad essa appartengono) o la stella di rette (l’insieme delle rette nello spazio che passano per un determinato punto O) come modello di una Geometria Ellittica (si identificano i punti della geometria con le rette della stella e le rette con i piani passanti per O). Nella Geometria Proiettiva inoltre si ha un modello del piano su sé stesso, scambiando i ruoli di punti e rette e ottenendo, come è noto, per ogni teorema un teorema duale.
L’uso del termine modello in Fisica è per alcuni aspetti abbastanza diverso ma per altri anche simile all’uso che se ne fa in Matematica. In Fisica il termine viene usato con riferimento all’idealizzazione di un oggetto o di una situazione complessa, allo scopo di comprendere gli aspetti più importanti di un fenomeno, trascurandone altri meno rilevanti. Anche in questo caso resta quindi fondamentale l’idea di rappresentare qualcosa con qualcosa d’altro e quindi l’idea di corrispondenza.

Ma che cosa è importante, che cosa meno o per nulla rilevante dipende dal contesto e dalla scala di osservazione. Si può perciò parlare di un modello valido a una certa scala, adeguato per una certa situazione, per certi scopi, non adeguato per altri.
In Fisica modelli, che pure si suppongono riferirsi al medesimo oggetto, possono situarsi a un livello differente ed essere in qualche modo disposti secondo una gerarchia. In relazione a un determinato scopo una volta che si è raggiunto il giusto livello della gerarchia non guadagniamo nulla a usare un modello di livello superiore. Così per capire il moto di rivoluzione dei pianeti nel sistema solare, le loro disposizioni relative, il loro moto sullo sfondo delle stelle fisse, la rappresentazione degli stessi come corpi puntiformi è perfettamente adeguata. Se vogliamo spiegare l’alternarsi del giorno e della notte, l’esistenza delle stagioni sulla Terra o il succedersi delle fasi della Luna e di Venere, dobbiamo ricorrere al modello del pianeta come corpo rigido. Se vogliamo studiare i complessi fenomeni che si verificano nella sua atmosfera, l’evoluzione della sua crosta o lo stato del suo interno, diviene essenziale la considerazione della composizione chimica, dello stato termodinamico e anche delle proprietà degli elementi radioattivi disposti nel suo nucleo.
Lo stesso discorso mi pare si possa fare per il rapporto tra una vecchia teoria e una nuova più comprensiva che l’abbia superata.
Accade in molti casi che la nuova teoria non sia in realtà in contraddizione con la vecchia ma anzi la implichi quando ci si ponga nel suo proprio contesto e si usi un appropriato codice di traduzione dei concetti. Si può parlare allora della vecchia teoria come di una teoria a un livello gerarchico inferiore e quindi un modello della nuova, che nel contesto originario resta valido, insegna le stesse cose e per la sua maggiore semplicità è spesso più conveniente.
In questo senso si può capire come una teoria, pur essendo non esaustiva del suo oggetto e in ogni momento a priori in uno stato provvisorio, possa pretendere di insegnare sullo stesso qualcosa di potenzialmente definitivo.
Pensiamo per esempio all’idealizzazione dell’elettrone come corpo puntiforme, dotato di massa e carica elettrica, che obbedisce alle equazioni di moto della meccanica relativistica classica. Una tale idealizzazione è estremamente utile per lo studio del comportamento di questa particella in un campo elettromagnetico generato da un dispositivo macroscopico. Essa è normalmente usata per la progettazione di macchine acceleratrici o di apparecchiature per la manipolazione dei fasci. Nel contesto della Meccanica Quantistica, d’altra parte, quella della particella come punto può essere vista semplicemente come un’immagine per descrivere il moto del pacchetto d’onda ad essa associato quando questo sia di dimensioni trascurabili sulla scala di interesse e il gradiente del campo al suo interno sia piccolo. Sarebbe proibitivo e quindi insensato tentare di usare l’equazione di Dirac per lo studio di questo tipo di strumenti.
Pensiamo similmente al modello planetario dell’atomo, al modello di un cristallo come insieme di nuclei disposti su un reticolo regolare nelle cui intercapedini si muova un gas di elettroni o anche a quello di una molecola realizzato con bastoncini e palline colorate.
Si tratta di modelli che permettono di capire immediatamente alcuni fenomeni più semplici: la diffusione di particelle cariche da parte di lamine metalliche sottili (lo scattering di Rutherford), le caratteristiche della diffrazione di raggi X su cristalli, le proprietà di combinazione di molecole complesse. Essi contengono però anche importanti informazioni in codice per la teoria quantistica; contengono prescrizioni per scrivere le appropriate equazioni di Schrödinger scegliere le soluzioni necessarie per la comprensione di una più vasta classe di proprietà degli oggetti a cui si riferiscono.
Allo stesso modo l’apparato completo della Teoria Quantistica dei campi, in cui le particelle figurano semplicemente come una specificazione dello stato di certi campi è indispensabile se vogliamo comprendere gli effetti di un processo di collisione tra particelle a energie molto alte. Per descrivere la situazione iniziale e il risultato finale del medesimo esperimento, invece, il modello della particella come punto materiale che descrive una traiettoria continua è molto più immediato. L’uso dello stesso apparato è pure indispensabile se vogliamo studiare aspetti sottili dello spettro dell’atomo di idrogeno, che possono essere osservati solo servendosi di strumentazioni molto complesse. Se ci accontentiamo di quanto rilevabile con un comune spettroscopio, il linguaggio dell’equazione di Schrödinger applicato al sistema elettrone-protone è però molto più semplice.
In conclusione, ho tentato di spiegare in che senso mi sembra che una vecchia teoria, superata ma non contraddetta in un contesto più ristretto da una nuova teoria, possa considerarsi come un modello di quest’ultima, valido appunto nella situazione più particolare; come in questa situazione le affermazioni nella terminologia della vecchia teoria siano reinterpretabili come affermazioni in quella della nuova. Poiché, d’altra parte, nella nostra esperienza ogni teoria è destinata a essere presto o tardi superata da una nuova, mi sembra naturale concepire la conoscenza fisica in tutta generalità come una conoscenza per modelli, una conoscenza, come ho detto, di tipo analogico.
Come diceva Galileo noi non possiamo pretendere «di penetrar l’essenza vera ed intrinseca delle sostanze naturali». Le idee, i modelli, le teorie che noi usiamo sono una costruzione della nostra mente, non sono però concetti arbitrari o vuoti di significato, sono creati nello sforzo di comprendere la Natura, e parlano di qualcosa a ogni stadio della nostra ricerca.
Essi sono sempre in qualche modo inadeguati e non ci danno mai una comprensione esaustiva, una comprensione ultima dei loro oggetti, ma ci parlano pur sempre di un mondo reale.

Vai a questo articolo in formato PDF

 

Vai al sito del Workshop per scaricare le slide della Presentazione

 

 

 

Giovanni Maria Prosperi
(Dipartimento di Fisica dell’Università degli Studi di Milano)

 

 

 

© Rivista Emmeciquadro

Leggi anche

Emmeciquadro - Speciale n°12: SCIENZAeMETODO/ Il significato dell’oggettività nelle Scienze EsatteEmmeciquadro - Speciale n°12: SCIENZAeMETODO/ Un approccio generale al Metodo ScientificoEmmeciquadro - Speciale n°12: SCIENZAeMETODO/ La natura della verità scientifica