Una realtà del mondo scientifico e del mondo tecnologico in rapida evoluzione: i ricercatori non ne hanno ancora sviscerato tutti i segreti e tutte le possibilità applicative. In questa sede l’autore sviluppa un percorso storico in cui le tappe propriamente conoscitive sono via via accostate alle tappe che segnano le acquisizioni tecnologiche. Il contributo suggerisce un possibile percorso di approfondimento, essenziale e rigoroso, per l’insegnante di discipline scientifiche e al tempo stesso si rivela utile agli studenti per un orientamento a nuovi campi di studi universitari, spesso ignorati per mancanza di una conoscenza efficace.



L’articolo, per motivi di spazio, è diviso in due parti. Clicca qui per accedere alla seconda parte.

Alla fine del secolo scorso a un gruppo selezionato di giornalisti, ricercatori, intellettuali e politici fu posta una domanda che in realtà sembra avere molte risposte: «qual è a vostro avviso l’invenzione o la scoperta più importante degli ultimi mille anni?»
Se si pensa un attimo a questa domanda possono venire in mente davvero moltissime cose che hanno profondamente rivoluzionato la nostra vita: basti citare i progressi nella chirurgia e nella medicina, le automobili e gli aeroplani, l’elettricità o la televisione, oppure teorie scientifiche fondamentali come quella sulla evoluzione, la relatività, la genetica, e via dicendo. La lista è lunga, e ognuno può sbizzarrirsi a trovare altre risposte. In realtà, la maggior parte degli intervistati concordò sul fatto che l’invenzione di maggiore impatto degli ultimi mille anni è quella dovuta a Johannes Gutenberg, il celebre libraio tedesco attivo a Mainz nel XV secolo a cui si deve l’introduzione della stampa a caratteri mobili.
Nel 1455 Gutenberg utilizzò per la prima volta questo procedimento e iniziò quella che fu una vera e propria rivoluzione: la libera circolazione di idee e conoscenze.
[A sinistra: Johannes Gutenberg (1390-1468)]
Sino a quel momento, i libri erano scritti a mano (i famosi incunaboli) ed erano ovviamente estremamente costosi, nonché difficilmente accessibili, preservati com’erano nelle biblioteche dei monasteri.
Si è stimato che al tempo di Gutenberg esistessero non più di 20-30.000 libri in tutto il mondo; di questi la maggior parte erano Bibbie. Solo 50 anni dopo l’introduzione del processo di stampa, erano stati pubblicati oltre 30.000 titoli diversi per un totale di 12 milioni di copie.
Il costo dei libri crollò, e conoscenza e cultura iniziarono a diffondersi su porzioni sempre più ampie di popolazione, contribuendo in modo decisivo al rapido sviluppo del pensiero filosofico, del progresso scientifico e della conoscenza.
[A destra: La prima Bibbia stampata]
Se tutti conoscono Gutenberg e la sua fantastica invenzione, solo pochi sono consapevoli del fatto che il processo di diffusione della cultura basato sulla stampa a caratteri mobili si fonda su due tecnologie fondamentali: da un lato la capacità di Gutenberg (esperto metallurgista) di preparare leghe metalliche di piombo, antimonio e stagno per fabbricare i caratteri mobili in grado di non deformarsi sotto la pressione di una pressa a vite; dall’altro la disponibilità di un supporto efficace su cui imprimere i caratteri inchiostrati come la carta.
La carta è fatta di fibre vegetali ed è stata inventata in Cina intorno al 150 d. C. Ci volle molto tempo prima che questo materiale e la tecnologia per produrlo arrivassero in Europa, prima in Italia (a Fabriano) e quindi nel resto del continente. Questo avvenne infatti intorno al 1100, quasi mille anni dopo la sua introduzione. Tutto ciò mostra come rivoluzioni importanti come quella di Gutenberg non partano dal nulla ma spesso si basino sulla introduzione di nuovi materiali e tecnologie.
Che cosa ha a che fare la storia di Gutenberg e della sua invenzione con le nanotecnologie?
Proviamo a parafrasare la domanda che ci siamo posti all’inizio domandandoci qual è la più importante invenzione o scoperta degli ultimi cento anni. Anche in questo caso la risposta non è affatto scontata. Il progresso scientifico e tecnologico dell’ultimo secolo è stato impressionante e ha cambiato in modo radicale non solo il modo di vivere, ma anche di pensare.



Tra i successi maggiori della ricerca dell’ultimo secolo si potrebbero citare gli antibiotici, il mondo del DNA, le esplorazioni spaziali, le telecomunicazioni, il computer o il trapianto di organi, e chi più ne ha più ne metta. In realtà, la maggiore rivoluzione tecnologica dell’ultimo secolo è un’altra: internet.

 

 

Internet: la rivoluzione moderna

 

Internet rappresenta una rivoluzione epocale, la cui portata cominciamo ad apprezzare solo ora, e che pertanto può a buona ragione essere affiancata alla rivoluzione rappresentata dalla stampa a caratteri mobili.
Nello stesso modo in cui quest’ultima tecnologia ha consentito un salto di qualità nell’accesso all’informazione e alla conoscenza, internet ha aperto scenari inimmaginabili anche solo quindici – vent’anni fa, rendendo disponibili con un click del mouse quantità impressionanti di informazioni e contribuendo in modo radicale alla creazione di quel villaggio globale che è oggi il mondo in cui viviamo.
Il primo web-server fu messo in funzione da Tim Berners-Lee al CERN di Ginevra nel 1992, e il nome internet, dal latino intra e dall’inglese net, fu introdotto poco dopo.
[A sinistra: Il primo web server (1992)]
È però solo attorno al 1995 che internet cominciò a diffondersi tra la gente comune, per poi crescere a velocità davvero impressionanti.
Oggi si stima che ci siano circa 1.5 miliardi di computer in rete collegati via internet, con qualcosa come 15-20 miliardi di pagine web accessibili, di fatto una quantità pressoché illimitata di informazione, ma anche un cambiamento profondo e radicale di come si comunica e ci si mette in relazione con altre persone (basti pensare alla posta elettronica, a fenomeni come Skype, Twitter o Facebook).
Bene, nello stesso modo in cui l’invenzione di Gutenberg si basava su alcuni materiali di recente introdotti, anche internet si basa su materiali e tecnologie di nuova e nuovissima generazione. Non solo tecnologie: anche e soprattutto nanotecnologie! Ecco quindi che per capire quale è la portata della rivoluzione nanotecnologica non c’è bisogno di illustrare progressi e sviluppi prossimi futuri, basta citare risultati che già fanno parte della nostra vita di tutti i giorni.
Ovviamente, il tutto non è cominciato all’improvviso, ma ha avuto uno sviluppo lento e progressivo, tanto che le nanotecnologie sono entrate nelle nostre case, nei nostri uffici, ma anche nelle nostre borse o nelle nostre tasche in silenzio, senza fragore. Così come carta e leghe metalliche sono state alla base della stampa, così internet parte da quattro tecnologie fondamentali che hanno stravolto gli ultimi cinquant’ anni: il transistor, i supporti magnetici, il laser, e le fibre ottiche.



 

 

Il transistor e la nascita della microelettronica

 

Il primo transistor fu messo a punto alla fine del 1947 da William Shockley, John Brattain e Walter Bardeen che per questa scoperta ricevettero il premio Nobel per la fisica nel 1956.
Era fatto di germanio, un elemento semiconduttore, ed era di dimensioni macroscopiche, misurando alcuni centimetri per lato.
[A destra: Il primo transitor (1947)]
In realtà si era solo all’inizio della rivoluzione microelettronica. Pochi anni dopo la scoperta, erano già in produzione industriale transistor di pochi millimetri di lato. Venivano usati nelle radio al posto delle pesanti, voluminose e fragili valvole.
Nel 1954 la miniaturizzazione partoriva il primo importante risultato: la radiolina portatile Regency TR1, un grande successo commerciale (la gente cominciò a poter ascoltare musica e trasmissioni radiofoniche per strada o allo stadio).
[A sinistra: La prima radio portatile (1954)]
A quell’epoca però i transistor erano ancora troppo grandi e complicati per poter essere usati efficacemente per altri scopi, come per esempio il calcolo o l’elaborazione dei dati, richiedendo infatti questa applicazione grandi numeri di transistor e complesse connessioni elettriche tra di loro.
Una seconda rivoluzione nell’era microelettronica avvenne alla fine degli anni Cinquanta del secolo scorso, con l’introduzione di un nuovo dispositivo, il circuito integrato, e di una nuova tipologia di transistor, detto MOSFET (da Metal-Oxide Semiconductor Field Effect Transistor).
Questa invenzione è dovuta a due persone che giunsero più o meno allo stesso tempo, e in modo indipendente, alla stessa idea, Jack Kilby e Robert Noyce. Anziché costruire transistor e connetterli con fili elettrici, ebbero l’idea di fabbricare i transistor direttamente su una fetta di silicio cristallino puro (il silicio nel frattempo aveva sostituito il germanio), depositando uno strato sottile di un isolante, l’ossido di silicio, e un elettrodo metallico.
Tutto sulla stessa piattaforma, il wafer o fetta di silicio. Questo richiedeva però di disegnare e ricavare i transistor sul wafer mediante delle tecniche di fotolitografia, usate ancora oggi per la produzione di circuiti integrati. Kilby ha visto riconosciuto i suoi importanti contributi in questo settore con il premio Nobel assegnatogli nel 2000, riconoscimento che non è potuto andare a Noyce, scomparso nel 1990.

Ma il circuito integrato era nato, e con lui si era aperta la possibilità di spingere la miniaturizzazione sempre più in giù, riducendo le dimensioni dei transistor sino ai pochi nanometri di oggi e al tempo stesso abbattendo drasticamente il costo di fabbricazione per transistor. Questo approccio, che parte da un oggetto di grandi dimensioni per ricavarne via via di più piccoli, è uno dei paradigmi delle nanotecnologie e va sotto il nome di approccio top down.
Con il circuito integrato nasce anche l’era dell’informazione digitale, con conseguenze inimmaginabili sui nostri stili di vita. Un transistor infatti può esistere in due stati, carico o scarico, on o off, e questo segnale elettrico può essere utilizzato per elaborare e immagazzinare informazioni mediante il codice binario.
La possibilità di progettare computer potenti divenne così realtà, e già nel 1965 Gordon Moore, uno dei fondatori della Intel, formulò la sua famosa legge empirica rimasta nota come legge di Moore.
[A destra: Lo sviluppo esponenziale del numero di transistor per processore e il crollo del costo per transistor dal 1970 al 2006]
In un articolo pubblicato sulla rivista Popular Electronics in quell’anno Moore affermò che il numero di transistor ricavabili per unità di area da allora in poi sarebbe raddoppiato ogni 18 mesi permettendo una crescita esponenziale dalla capacità di elaborazione negli anni seguenti.
Con qualche correzione (il numero di transistor per unità di superficie è raddoppiato circa ogni 24 mesi) questa legge è rimasta valida sino a pochi anni orsono, quando sono stati praticamente raggiunti i limiti fisici di questo tipo di miniaturizzazione.
La dimensione di un singolo transitor è diminuita al punto che le moderne tecnologie sono basate su dispositivi della dimensione di circa 20 nanometri (1 nm = 10-9 m).
[A sinistra: Il primo PC IBM (1981)]
Il potere di calcolo è letteralmente esploso; i primi PC (Personal Computer) che apparsero sul mercato alla fine degli anni ’70 del secolo scorso (come il Commodore, l’Apple II, il primo PC IBM, e l’Olivetti M24) erano tutti molto più potenti del più grande calcolatore a valvole mai costruito, l’ENIAC del 1946 con più di 17000 valvole e un peso di 30 tonnellate.
Oggi però la loro potenza di elaborazione appare ridicola, essendo di molti ordini di grandezza inferiore a quella di un qualsiasi telefono cellulare.
[A destra: Il computer a valvole ENIAC (1946)]
La rivoluzione microelettronica è cominciata così, in sordina, facendoci entrare con i transistor nell’era delle nanotecnologie senza che potessimo accorgercene.
La scoperta del transistor e l’era della microelettronica hanno radicalmente cambiato i nostri stili di vita. Ma mentre il ruolo della tecnologia dei semiconduttori in questi processi è ampiamente noto e riconosciuto, ci sono altre tecnologie fondamentali che hanno contribuito in modo decisivo all’affermarsi del settore e alla rivoluzione nelle telecomunicazioni, portandoci infine a internet e al mondo globale che oggi conosciamo. Molte di queste tecnologie sono, in un modo o in un altro, legate a sviluppi nanotecnologici.

 

 

I materiali magnetici

 

Quando sono apparsi i primi computer basati sui transistor, ci si è trovati di fronte allo stesso problema pratico che ebbe Gutenberg con la stampa a caratteri mobili: dove immagazzinare l’informazione?
Sorprendentemente, inizialmente le tecniche per conservare dati nell’era informatica usarono lo stesso supporto fisico usato da Gutenberg per la stampa: la carta. Infatti, la registrazione di dati su supporti fissi avveniva mediante schede o nastri perforati dove la posizione dei fori corrispondeva a un ben preciso carattere e la lettura veniva fatta in modo ottico.
È evidente che un sistema simile non avrebbe potuto reggere a lungo data la mole crescente di dati da «scrivere» e conservare: una scheda perforata contiene una sequenza di solo 80 caratteri!
[A sinistra: Una scheda perforata]
Già agli inizi degli anni Cinquanta del secolo scorso si cominciò a esplorare un modo, poi dimostratosi molto potente, di ricordare dati facendo uso di supporti magnetici. I primi dispositivi magnetici nei computer elettronici erano di ferrite, un materiale fatto di ossidi di ferro con proprietà magnetiche intrinseche. Comparvero così i primi dischi e nastri magnetici.
L’IBM fu la prima società a introdurre questa tecnologia per scrivere e leggere dati, divenendo rapidamente leader mondiale nella produzione di supporti magnetici (incluse le prime schede magnetiche che oggi usiamo per mille usi, dal bancomat alla tessera sanitaria). La possibilità di immagazzinare informazione in una data area cominciò a crescere in modo simile a quella di fabbricare sempre più transistor su un wafer di silicio.
Qui il problema era simile ma la tecnologia diversa. Anche un dispositivo magnetico può esistere in due stati, magnetizzato o non magnetizzato, oppure magnetizzato in una direzione o in quella opposta. Queste diverse situazioni fisiche possono essere tradotte in due stati logici, lo 0 e l’1 della informazione in codice binario. Tanto più piccola è la regione magnetizzata, tanti più dati si possono immagazzinare in un dato supporto.

Per magnetizzare o demagnetizzare una specifica zona (detto dominio magnetico) occorre però una testina magnetica in grado di «scrivere», «cancellare» o «leggere» l’informazione. Più l’area interessata è piccola, più i sensori magnetici usati nella testina devono essere sofisticati e sensibili.
Verso la fine degli anni Ottanta la tecnologia dei dischi magnetici sembrava aver praticamente raggiunto i limiti fisici di miniaturizzazione dei domini magnetici.
[A destra: Il disco magnetico 6603 della Control Data Corporation (1967). Il diametro era di 66 cm e la capacità di 512 Kb. Qui è stato trasformato in un tavolino]
Allo stesso tempo, nei primi anni Ottanta, era apparsa una tecnologia radicalmente nuova che era considerata in grado di soppiantare completamente i supporti magnetici per la registrazione di dati. Stiamo parlando dei dischi a lettura ottica, compact disk o CD.
Grazie al laser, un sistema che ha avuto una importanza cruciale nello sviluppo della information technology e di cui parleremo tra poco, divenne possibile scrivere o leggere informazione usando un raggio luminoso focalizzato. La lettura e scrittura ottica con un laser consentono di ridurre notevolmente le dimensioni delle regioni interessate, aumentando di molto la quantità di dati immagazzinati sul supporto. Non sorprende quindi che questa tecnologia fosse ritenuta in grado di soppiantare e sostituire completamente i «vecchi» dischi magnetici. Avendo lavorato al centro di ricerche IBM di Almaden in California in quegli anni, ricordo molto bene come la potenziale perdita del settore di mercato dei dischi magnetici, in cui IBM era dominante, preoccupasse molto l’azienda. In realtà, spesso accade che vere e proprie rivoluzioni tecnologiche avvengono in modo imprevedibile grazie a scoperte importanti che fanno fare un salto di qualità in una certa direzione.
Questo è quello che si verificò verso la fine degli anni Ottanta e che ci riporta direttamente al tema delle nanotecnologie (che allora ancora non si chiamavano così). Proprio quando i dischi magnetici sembravano dover diventare obsoleti, due scienziati europei, il francese Albert Fert e il tedesco Peter Grünberg fecero indipendentemente una importante osservazione. Un dispositivo composto di strati molto sottili di materiali magnetici e metalli non magnetici esibiva una resistenza particolarmente elevata al passaggio di corrente quando esposta anche a deboli campi magnetici. Era il 1988. Il sorprendente effetto osservato veniva chiamato Giant Magneto-Resistance (GMR, magneto-resistenza gigante) e rappresentava una delle prime importanti conseguenze della possibilità di crescere strati sovrapposti di strati di materiale di pochi nanometri di spessore. In altre parole, la scoperta era la conseguenza della capacità di produrre oggetti su scala nanometrica, un mondo largamente inesplorato in cui si manifestano nuovi fenomeni. La scoperta di Fert e Grünberg ebbe un effetto concreto e immediato.
L’effetto GMR costituisce un fenomeno fisico utilissimo per la progettazione e fabbricazione di testine magnetiche sensibilissime in grado di rilevare domini magnetici di dimensioni estremamente piccole. Questo ha consentito di passare da dischi magnetici in grado di immagazzinare mega-byte di informazioni (1 Mb = 106 bytes) a supporti magnetici a densità elevatissima come quelli che utilizziamo oggi. È stato un ricercatore dell’IBM, Stuart Parkin, a tradurre la scoperta di Fert e Grünberg in una applicazione pratica di grande importanza, mettendo a punto una nuova classe di testine magnetiche basate sull’effetto GMR. Già alla fine del secolo scorso tutti i dischi magnetici in commercio erano basati su questa nuova tecnologia.
Oggi possiamo comprare un disco da un tera-byte di informazioni (1 Tb = 1012 bytes) per 100 Euro. Non sorprende quindi che la scoperta di Fert e Grünberg sia stata premiata con il premio Nobel in fisica nel 2007. Tra l’altro, lo sviluppo dei supporti magnetici a scapito dei promettenti dischi ottici, CD o DVD, è dovuto anche a un altro problema di questi ultimi dispositivi: la relativa lentezza con cui l’informazione viene letta o scritta, un aspetto fondamentale quando quantità massicce di dati vengono registrati su un supporto permanente.
Così, la storia della registrazione dati su supporti magnetici e della competizione con i supporti ottici, che hanno trovato comunque ampie applicazioni come strumenti di conservazione permanente di dati, rappresenta un tipico esempio di come sia difficile prevedere lo sviluppo della scienza e della tecnologia ma anche di come le nanotecnologie siano ormai alla base di molte delle cose che usiamo quotidianamente.

 

 

Laser e fibre ottiche

 

Sino ad ora abbiamo visto come le moderne tecnologie di comunicazione siano basate su due sviluppi nano-tecnologici importanti come i transistor e i sensori per testine magnetiche. I primi ci consentono di elaborare dati e informazioni nei computer, i secondi di scrivere e leggere tali dati nelle varie fasi in cui vengono utilizzati.

Ma la trasmissione di grandi quantità di dati, cosa che facciamo quotidianamente spedendo documenti o foto a amici e colleghi, richiede due ulteriori tecnologie fondamentali, entrambe basate su materiali messi a punto con specifiche funzioni: il laser e le fibre ottiche. Il laser fu introdotto negli anni Cinquanta del secolo scorso, e il primo brevetto di un laser a rubino, un ossido di alluminio drogato con atomi di cromo, fu depositato nel 1960 da T. Teodore H. Maiman.
Nessuno all’epoca era consapevole di quante applicazioni importanti sarebbero state basate su questo dispositivo negli anni a venire.
[A sinistra: Il laser a rubino (1960)]
Nessuno poteva prevedere che grazie alle sue specifiche caratteristiche il laser sarebbe diventato il sistema per trasmettere, sotto forma di rapidissimi impulsi luminosi, enormi quantità di dati tra computer diversi collegati tra loro in una rete. Quindi, mentre nel computer l’informazione viene elaborata grazie al cambiamento di stato di carica elettrica di un transistor (elettroni), quando i dati vengono «inviati» sono tradotti in impulsi di luce (fotoni) che possono viaggiare a velocità elevatissime.
Grazie al laser dunque che con un click del mouse possiamo spedire in pochi secondi quantità enormi di dati, interi libri, film, brani di musica, tutto digitalizzato in forma di 0 e 1. I laser di nuova generazione non sono più basati su cristalli di rubino bensì su strati ultrasottili di materiali semiconduttori, ciascuno dello spessore di pochi nanometri. Quindi anche qui le nanotecnologie hanno avuto un ruolo importante.
Ma come possono gli impulsi luminosi generati dal laser viaggiare senza essere assorbiti o deviati? E soprattutto come possono giungere a destinazione correttamente? Tutto questo avviene grazie alle fibre ottiche, fili sottilissimi ma lunghissimi di vetro purissimo (l’unico componente è la silice, SiO2), totalmente flessibili, che rappresentano delle vere e proprie autostrade su cui corrono i fotoni generati dal laser. La trasparenza assoluta è la proprietà chiave delle fibre ottiche. Un materiale trasparente infatti è attraversato dai fotoni di luce senza assorbirli.
Questo consente di trasportare i fotoni generati per decine e persino centinaia di chilometri prima che il segnale ottico sia raccolto, amplificato e ritrasmesso.
Quando arriva a destinazione, un dispositivo chiamato router ritrasforma il segnale ottico in segnale elettrico e il dato è a disposizione di chi l’ha ricevuto.
[A destra: Fibre ottiche]
Le fibre ottiche sono quindi veri e propri canali in cui quantità enormi di informazione viaggiano ogni istante a velocità della luce.
Quindi, per riassumere, abbiamo visto che in un modo del tutto simile alla straordinaria invenzione di Gutenberg basata su carta e leghe metalliche, anche la recente rivoluzione nella tecnologia della comunicazione si basa su una varietà di materiali quali i semiconduttori di cui sono fatti i transistor e i laser, i materiali isolanti trasparenti di cui sono fatte le fibre ottiche, e i materiali magnetici usati per registrare i dati. Spesso, questi materiali sono prodotti con nanotecnologie che hanno aumentato enormemente la potenzialità di questi dispositivi. Molti di questi sistemi sono stati ridotti di dimensione con processi top down, sino a raggiungere i limiti fisici consentiti con queste tecniche.
Oggi oggetti sofisticatissimi e potentissimi come un telefono cellulare di nuova generazione, un i-phone o un i-pad occupano volumi e hanno pesi ridottissimi proprio grazie a questa capacità di ridurre le dimensioni dei componenti e aumentare di conseguenza prestazioni e funzioni. Questa fu anche la previsione, o meglio sarebbe dire la visione, di Gordon Moore nel suo famoso articolo del 1965 in cui descriveva un futuro, che allora appariva davvero molto lontano, in cui computer e altri oggetti elettronici sarebbero stati venduti nei supermercati accanto a cosmetici e detersivi. Quando l’articolo apparve tale previsione sembrò del tutto irrealistica a molti osservatori; ma questo è proprio quello che è accaduto e che vediamo tutti i giorni.
[A sinistra: L’immagine riportata nel famoso articolo di Gordon Moore pubblicato su Popular electronics nel 1965. I computer stanno in una mano e vengono venduti in un supermercato]
La storia di internet, della microelettronica e del personal computer ci hanno portato quindi direttamente nel mondo «nano», dandoci al tempo stesso una prova concreta delle sue potenzialità rivoluzionarie.
Va detto subito però che il termine «nanotecnologie» è usato in vari contesti, e che può avere significati diversi per persone diverse. A molti di noi appare come una rivoluzione annunciata, anche se molto di quello che produrrà resta assai misterioso. In realtà, anche in base a quanto detto sopra, la nanotecnologia è già arrivata e ne facciamo largo uso sia pure senza esserne coscienti.
Quindi le nanotecnologie hanno già prodotto profonde rivoluzioni, e altre ne produrranno. 

Vai alla seconda parte dell’articolo

Vai al PDF di questa prima parte dell’articolo

Gianfranco Pacchioni
(Ordinario di Chimica Generale e Inorganica presso il Dipartimento di Scienza dei Materiali, dell’Università degli Studi Milano – Bicocca)

 

 

 

 

© Pubblicato sul n° 47 di Emmeciquadro


Leggi anche

SCIENZA&STORIA/ Deum Creatorem Venite Adoremus. L’attività della Specola VaticanaSCIENZA&STORIA/ Prima della macchina a vaporeSCIENZA&STORIA/ La sonda Huygens – Cassini: un lungo viaggio tra i pianeti