Lo scorso 14 Maggio l’ESA ha lanciato due importanti satelliti scientifici, Planck e Herschel. Mentre Herschel è un osservatorio destinato a osservare i corpi celesti in una regione praticamente inesplorata dello spettro elettromagnetico, il lontano infrarosso, Planck si inserisce in una prestigiosa tradizione di satelliti destinati allo studio della radiazione cosmica di fondo e rappresenta un grande passo in avanti in quella che viene chiamata “cosmologia di precisione”. Vale la pena di riflettere su queste parole perché fino a pochi anni fa si sarebbe trattato di fantascienza. Per metterci nella prospettiva giusta lasciamoci guidare dalla storia.



Dopo essere rimasta per secoli una disciplina filosofica, solo da un centinaio di anni la cosmologia ha iniziato ad affermarsi come scienza fisica grazie a personalità del calibro di Einstein ed Edwin Hubble. Sviluppando la Relatività Generale, Einstein costruì le basi teoriche della cosmologia fisica. Tuttavia, quando venne ora di applicare le sue equazioni alla struttura dell’universo, Einstein si basò sulle (scarse) osservazioni e i (molti) pre-concetti del suo tempo che prescrivevano un universo statico. Dato che le equazioni prevedevano un universo in movimento, Einstein truccò le equazioni per aggiungere un termine stabilizzante, la cosiddetta costante cosmologica. Alcuni anni dopo Hubble scoprì che l’universo invece si espande con una caratteristica legge lineare (due galassie si allontanano con una velocità proporzionale alla loro distanza) immediatamente deducibile dalle equazioni di Einstein aggiungendo le più semplici assunzioni sulla struttura dell’universo: identico in ogni punto ci si trovi e in qualsiasi direzione si guardi. Un modello di estrema semplicità (o, come dicono i fisici, “eleganza”) e quindi facile da raffinare sulla base di dati più accurati o aggiungendo ulteriori elementi: in fondo l’Universo non contiene solo galassie, ma anche luce, particelle elementari, materia oscura ecc.



Mentre i teorici si divertivano a costruire scenari sempre più complessi, l’aspetto dei dati è rimasto per decenni critico. Anche un parametro relativamente semplice come la proporzione tra velocità di allontamento e la distanza (la “costante di Hubble”) è rimasto per lungo tempo elusivo. Innanzitutto, E. Hubble sbagliò la sua stima iniziale di un fattore 10, stimando 500 km/s per ogni milione di parsec di distanza (un parsec è la tipica distanza tra due stelle nell’intorno del Sole). La misura venne poi rivista al ribasso ma questo non evitò lo scatenarsi di una decennale diatriba tra due mostri sacri, de Vaucouleurs e Sandage, che trovavano valori vicino a 100 km/s/Mpc e 50 km/s/Mpc, rispettivamente. La situazione divenne così incerta che praticamente si è finito per adottare la pratica di non usare nessun valore: nella letteratura scientifica le stime cosmologiche di distanza, volume, tempo, e quindi tutta la scienza cosmologica che si fonda su questi parametri fondamentali, hanno sempre la costante di Hubble indicata simbolicamente nelle equazioni, come per dire «tu, lettore, inserisci alla fine il valore che preferisci per questa costante e troverai un risultato».



Con la scoperta che la costante di Hubble sta aumentando col tempo (quindi non è una costante), il problema della stima accurata del suo valore attuale si è fatto urgente. Questo perché per comprendere la natura della misteriosa “energia oscura” responsabile della accelerazione bisogna sapere esattamente quanta resistenza le viene offerta dalla gravità dovuta alla materia nell’universo, cioè quanta materia c’è nell’universo (assumendo che la gravità resti sempre quella descritta da Einstein). La densità media di materia nell’universo è uno dei tipici parametri che viene misurato con crescente precisione da satelliti come Planck. Purtroppo, il valore fornito è avvelenato dalla incertezza sul valore esatto della costante di Hubble.

In due lavori pubblicati alcuni giorni fa, un gruppo di astrofisici guidati da Adam Riess, uno degli scopritori della accelerazione dell’universo, è ritornato sulla misura diretta della costante di Hubble rivisitando il metodo originalmente usato da Hubble con l’aggiunta di alcuni ingredienti innovativi. Nella relazione di Hubble il problema è sempre quello di misurare la distanza: problema non banale quando si tratta di distanze mostruose. Riess e collaboratori hanno sviluppato una strategia che, apparentemente complicata, ha il vantaggio di fare il minimo affidamento su precedenti assunzioni o modelli e si lascia interamente guidare dai dati, raccolti e ridotti con mirabile accuratezza. Anche per capire come funziona l’astrofisica, è utile provare a ripercorrere il loro metodo.

Innanzitutto, hanno trovato una galassia vicina, NGC4258, in cui sono presenti dei maser (un maser è l’equivalente del laser alle lunghezze d’onda radio, un fenomeno abbastanza frequente in astrofisica). I radiotelescopi permettono di ricostruire il moto dei maser in tre dimensioni e dato che quelli in NGC4258 seguono evidentemente orbite di tipo planetario attorno al nucleo della galassia, è possibile calcolare direttamente la loro distanza da noi, che risulta essere di circa 7 Mpc. Utilizzando quindi il telescopio spaziale Hubble, hanno osservato un particolare tipo di stelle variabili all’interno della stessa galassia, le Cefeidi. Le Cefeidi, sono stelle intrinsecamente molto luminose, quindi relativamente facili da osservare, che pulsano tanto più lentamente quanto più sono brillanti. Dato che per quelle in NGC4258 la distanza è nota dai maser, hanno potuto calibrare la relazione tra periodo di pulsazione e luminosità assoluta delle Cefeidi. A questo punto hanno preso altre 6 galassie, anche queste non troppo distanti, e ne hanno osservato le relative Cefeidi. Dai loro periodi di pulsazione, utilizzando la relazione appena trovata, ne hanno derivato la luminosità assoluta che confrontata con la luminosità apparente ha permesso di calcolarne la distanza. Naturalmente, le 6 galassie erano state scelte con un criterio: ciascuna ha recentemente ospitato un evento catastrofico, l’esplosione di una supernova di tipo Ia. Queste esplosioni sono praticamente tutte uguali e straordinariamente brillanti: vengono quindi osservate anche a distanze di interesse cosmologico. Dunque, conoscendo la distanza delle 6 galassie ospiti (dalle Cefeidi calibrate con i maser), Riess e collaboratori hanno potuto calibrare la luminosità assoluta delle supernove di tipo Ia. Confrontando queste luminosità assolute con quelle osservate in galassie estremamente remote ne hanno derivato la distanza. Nota la velocità di recessione da semplici misure di spettroscopia, ne è venuta fuori la costante di Hubble. Risultato: 74.2 km/s/Mpc con un errore del 4,8%.

Da alcuni anni, a onor del vero, gli astronomi si erano convinti che il valore corretto doveva essere sui 70 km/s/Mpc. Il punto, però, non è il valore stesso ma il suo intervallo di errore, che scende dal 10-15% al 5%. Diminuire di un fattore 3 l’errore con cui conosciamo il tasso attuale di espansione, un parametro fondamentale che si propaga su tutte le nostre stime relative alla struttura e alla storia dell’universo, rappresenta un passo avanti importante nello sviluppo di una «cosmologia di precisione».

Spesso si dimentica che l’arte della scienza, soprattutto delle scienze “esatte”, non sta nella misura ma nella stima dell’errore associato alla misura. Si richiede il massimo di realismo e di attenzione “paranoide” ai dettagli, nulla a che vedere con dubbi e scetticismi. Sono misure di qualità come queste e come quelle prodotte da Planck che permettono di eliminare ipotesi e modelli che non si accordano con le osservazioni. Una potatura suscitata dai dati che è sempre segno di buona scienza.