L’avvento del laser ha reso possibile utilizzare la luce come sensibilissimo «strumento» di misura in svariate situazioni. Con l’interferometria e le tecniche speckle si possono studiare le deformazioni di un solido, o la densità di un fluido; con le tecniche di diffusione della luce (light scattering) si possono determinare le dimensioni delle particelle di un materiale particolato; con i sensori in fibra ottica si ottengono misure di svariate grandezze fisiche, dalla temperatura alle deformazioni di una superficie; infine per studiare la struttura dei materiali si usano tecniche spettroscopiche.
L’autore descrive queste metodologie e ne evidenzia i principi fisici che le regolano.
L’articolo fa riferimento alla lectio magistralis tenuta dall’autore al XII Convegno ScienzAfirenze 2015 in occasione dell’Anno Internazionale della Luce.
La luce, nella sua duplice natura, ondulatoria e corpuscolare, è sostanzialmente un fenomeno «disordinato» e quindi, in linea di principio, poco adatto a essere utilizzato per eseguire misure. Per rendersene conto è sufficiente osservare le caratteristiche della luce emessa da sorgenti termiche (come per esempio: le lampade a incandescenza, le stelle, le fiamme, eccetera) o quella generata da scariche elettriche (come nel caso delle lampade fluorescenti, dei fulmini, degli archi elettrici, eccetera).
In tutti questi esempi, infatti, la radiazione luminosa è emessa in tutte le direzioni (senza privilegiarne alcuna), in un’ampia regione spettrale (e quindi con diverse frequenze) ma, soprattutto, senza possedere né coerenza temporale né coerenza spaziale (che rappresentano i requisiti fondamentali per poter osservare fenomeni di interferenza).
Ricordiamo che l’assenza di coerenza temporale si riferisce al fatto che anche isolando una singola componente monocromatica emessa dalla sorgente luminosa, la sua fase non rimane costante nel tempo; mentre l’assenza di coerenza spaziale comporta la variabilità nel tempo della fase relativa fra coppie di onde provenienti da punti diversi di una sorgente estesa.
Tutte queste limitazioni hanno fatto sì che prima dell’avvento delle sorgenti di luce coerente (i laser) la luce non potesse avere un ruolo da protagonista nell’ambito delle tecniche di misura, ma rappresentasse esclusivamente l’elemento passivo indispensabile per illuminare l’ambiente in cui utilizzare la strumentazione ottica tradizionale (teodoliti, telemetri, polarimetri, eccetera).
L’avvento del laser
Con la realizzazione della prima sorgente laser (per opera di Theodore Maiman nel 1960), le cose cambiarono drasticamente, e quella che inizialmente era stata considerata «un’invenzione in cerca di applicazioni» divenne rapidamente lo «strumento» per eccellenza nell’ambito della metrologia ottica. Numerosi gruppi di ricercatori, sparsi in laboratori e università di tutto il mondo, scoprirono le enormi potenzialità offerte da sorgenti luminose caratterizzate da un’elevata direzionalità, una eccezionale monocromaticità e un’altissima coerenza. Si svilupparono così nuove e sempre più potenti tecniche ottiche in grado di eseguire i più svariati tipi di misure nei diversi ambiti della scienza e della tecnologia.
Nella figura che segue sono riportate, raggruppate per tematiche, alcune delle principali tecniche ottiche sviluppate negli ultimi cinquanta anni e le grandezze fisiche che con queste tecniche è diventato possibile misurare. Come mostrato, i settori che hanno avuto un forte impulso dall’avvento del laser sono: l’interferometria e le tecniche speckle, le tecniche basate sulla diffusione della luce (light scattering), i sensori a fibra ottica e le tecniche spettroscopiche. Daremo ora una sintetica descrizione di queste metodologie, cercando di mettere in evidenza i principi fisici che ne regolano il funzionamento.
Alcune fra le principali tecniche di misura ottiche sviluppate negli ultimi cinquanta anni e indicazione delle grandezze fisiche misurabili
Le tecniche interferometriche e speckle
L’interferometria ottica è una tecnica di indagine molto potente che consente di misurare spostamenti molto piccoli (addirittura inferiori alla lunghezza d’onda della luce utilizzata). L’idea di base è piuttosto semplice e sfrutta il fatto che è sufficiente introdurre una variazione di cammino ottico pari a mezza lunghezza d’onda, perchè due onde che inizialmente interferivano costruttivamente in un punto (generando così un massimo di intensità), modifichino la fase relativa in modo tale da dar luogo a un’interferenza distruttiva (a cui corrisponde un minimo d’intensità) e viceversa.
In particolare, si osserva che l’intensità risultante dalla sovrapposizione di due fasci luminosi (fra loro coerenti) varia sinusoidalmente con la differenza di fase relativa fra i due fasci.
Un esempio tipico di interferometro a «divisione di fasci» è rappresentato dal noto interferometro di Mach-Zehnder, mostrato nella figura che segue.
Come si può notare, il fascio di luce proveniente da una sorgente laser viene inizialmente diviso in due fasci di uguale intensità mediante una lamina semiriflettente (Beam Splitter) BS1. Si ottengono in questo modo due fasci di luce fra loro coerenti che propagano in due diverse direzioni.
Dopo essere stati riflessi dagli specchi M1 e M2, i due fasci vengono fatti ricombinare mediante una seconda lamina semiriflettente BS2 e inviati sui fotorivelatori D1 e D2. Come risultato, sui fotorivelatori si avrà la sovrapposizione di parte dei campi elettromagnetici associati ai due fasci luminosi.
Si può facilmente dimostrare che l’intensità misurata dai due rivelatori sarà:
Dove I è l’intensità in uscita dal laser e Δθ è la differenza di fase fra le onde elettromagnetiche provenienti dai due diversi percorsi. Questa differenza di fase è legata alla differenza di cammino ottico Δz dalla relazione:
Dove λ è la lunghezza d’onda della radiazione laser. Dalle equazioni (1) e (2) si ricava immediatamente che una variazione di cammino ottico Δz = λ/2 comporta il passaggio da interferenza costruttiva (ID = 1) a interferenza distruttiva (ID = 0).
Come si può notare, lo schema ottico mostrato nella figura precedente non consente di fare interagire l’interferometro con un oggetto esterno (target) su cui eseguire misure. Esistono, tuttavia, numerose altre configurazioni interferometriche, analoghe a quella descritta, che permettono di realizzare misure sia su strutture solide sia in fluidi trasparenti. Su strutture solide è possibile eseguire misure di spostamenti, di deformazioni e di risonanze meccaniche, mentre nei fluidi le misure riguardano le variazioni di densità e di concentrazione del fluido stesso.
Queste ultime, infatti, provocano modificazioni dell’indice di rifrazione e quindi, in ultima analisi, variazioni di cammino ottico se la cella contenente il fluido è intercettata da uno dei bracci dell’interferometro.
Risultati analoghi, soprattutto in ambito meccanico, sono ottenibili con le tecniche speckle. Com’è noto, col termine speckle pattern si identifica quella particolare configurazione luminosa dall’aspetto granulare che si forma ogni qualvolta una superficie rugosa viene illuminata dalla luce coerente di un laser (si veda la figura che segue).
Questa distribuzione apparentemente casuale di intensità non è altro che il risultato dell’interferenza tra le onde luminose diffuse in tutte le direzioni dalla superficie illuminata.
Occorre, tuttavia, distinguere fra «speckle oggettive» e «speckle soggettive». Le prime sono quelle che si formano su uno schermo posto a una certa distanza (L) dalla regione diffondente (che supponiamo circolare di diametro D) e hanno una dimensione media dell’ordine di:
Dove λ è la lunghezza d’onda della radiazione laser. Si parla invece di speckle soggettive quando ci si riferisce all’immagine (formata dall’occhio umano o da qualunque altro sistema ottico) dell’oggetto illuminato dal laser. In questo caso, la dimensione media delle speckle presenti sull’immagine non dipende dalla geometria della regione illuminata, ma esclusivamente dalle caratteristiche del sistema ottico usato per formare l’immagine e vale:
Dove M è il fattore d’ingrandimento del sistema ottico e F# è il suo f/numero (rapporto fra la focale del sistema ottico e la sua apertura).
Poiché le speckle soggettive costituiscono una sorta di «impronta» permanente sulla superficie illuminata (è come se le speckle fossero dipinte sulla superficie), diventa possibile utilizzarle come marker per misurare spostamenti e deformazioni della superficie stessa (tecnica denominata «fotografia speckle»). In pratica, si registra sullo stesso supporto (lastra fotografica o array bidimensionale di CCD) due immagini dell’oggetto in esame: una prima che avvenga la deformazione e una dopo. Analizzando lo spostamento delle speckle omologhe sulle due immagini si può facilmente risalire agli spostamenti subiti dai singoli punti della superficie indagata.
Nel caso in cui sia stata utilizzata una lastra fotografica come supporto per la registrazione della doppia esposizione, la spaziatura fra le due speckle di ciascuna coppia (proporzionale allo spostamento subito dall’oggetto in quel punto) viene ricavata dall’analisi del sistema di frange d’interferenza che si genera quando la lastra fotografica viene illuminata punto per punto da un sottile pennello di luce laser.
Le coppie di speckle omologhe si comportano, infatti, come la coppia di fenditure nel famoso esperimento di Young. Pertanto la spaziatura e l’orientazione delle frange d’interferenza che si formano illuminando la lastra fotografica in un punto, sono legate da semplici relazioni matematiche alla spaziatura e orientazione delle coppie di speckle omologhe presenti in quel punto. Nel caso in cui la registrazione della doppia esposizione sia stata effettuata con una camera digitale (che utilizza come rivelatore un CCD bidimensionale) gli spostamenti delle speckle omologhe viene ricavato con l’ausilio di opportuni software per l’analisi di immagine.
Com’è facilmente intuibile, lo spostamento minimo misurabile con questo metodo è definito dalla dimensione delle speckle e quindi, in ultima analisi, dalle caratteristiche del sistema ottico usato per la registrazione delle immagini (si veda l’equazione (4)).
È tuttavia possibile migliorare la sensibilità della misura utilizzando tecniche speckle di tipo inteferometrico. Il metodo più semplice consiste nel far sovrapporre due campi speckle: uno preso come riferimento (precedentemente registrato con l’oggetto indeformato) e uno generato dall’oggetto sottoposto a sollecitazione, e andando a vedere quanto rimangono ancora fra loro correlati. Nelle regioni in cui i due pattern si sovrappongono perfettamente (cioè dove l’oggetto non si è deformato) il contrasto dell’immagine risultante è massimo, nelle altre regioni si riduce proporzionalmente al grado di decorrelazione dei due campi speckle (questa tecnica è molto utilizzata per indagare vibrazioni della superficie in esame o spostamenti fuori piano).
Un metodo più complesso consiste invece nel far sovrapporre un campo speckle (fascio oggetto) e un’onda piana o sferica (fascio di riferimento). La tecnica più diffusa, denominata ESPI (Electronic Speckle Pattern Interferometry), si basa sull’uso di una telecamera come strumento per la registrazione delle immagini. Sul CCD della telecamera, oltre all’immagine dell’oggetto illuminato con luce laser, viene inviato anche un secondo fascio (di riferimento) ottenuto per divisione di ampiezza assieme allo stesso fascio usato per illuminare l’oggetto (e quindi i due fasci sono fra loro coerenti). Se l’oggetto si deforma o vibra, le immagini registrate sul CCD si modificheranno. Memorizzando un’immagine digitale come riferimento e confrontandola con quelle successive si ottiene un’interferenza elettronica fra le immagini.
Sul monitor si osserverà allora un’immagine dell’oggetto solcata da frange chiare e scure che individuano il luogo dei punti in cui le variazioni di cammino ottico sono tali da determinare sfasamenti multipli di 2π nelle fasi dello speckle pattern risultante.
Come esempio, nelle figura che segue è mostrata l’immagine ESPI di una superficie vibrante a una delle sue frequenze di risonanza. Le frange chiare individuano i nodi della superficie vibrante (che rimangono fermi), mentre le frange scure corrispondono ai ventri.
Immagine ESPI di una lamina piana vincolata ai bordi e vibrante a una frequenza di risonanza
Ricordiamo infine, per completezza, l’esistenza di un’ulteriore tecnica interferometrica: l’interferometria olografica. Anche in questo caso (come per la fotografia speckle) si registrano due ologrammi sulla stessa lastra fotografica, uno prima e uno dopo la deformazione dell’oggetto in esame. In fase di ricostruzione, l’interferenza fra i due fronti d’onda generati dall’ologramma illuminato dal fascio di riferimento daranno luogo all’immagine dell’oggetto in esame con sovrapposto un pattern di frange la cui forma e spaziatura sono riconducibili alla deformazione subita.
Le tecniche basate sulla diffusione della luce
Le tecniche di light scattering, basate sui fenomeni di diffusione della luce, sono estremamente importanti per la caratterizzazione dimensionale di materiale particolato, liquido o solido, (si parla in questo caso di «tecniche granulometriche») e per la misura della rugosità superficiale di corpi solidi («rugosimetria»). Per brevità ci concentreremo solo sul primo di questi due aspetti.
Per capire come funzionano gli strumenti preposti a questo tipo di misure (i cosiddetti particle sizer o «granulometri») è innanzi tutto importante familiarizzare con i meccanismi fisici che sono alla base dell’interazione della luce con la materia in forma di particelle (che per semplicità considereremo sferiche).
Ricordiamo, per prima cosa, che le proprietà ottiche della materia sono descritte da un numero complesso N definito «indice di rifrazione» del materiale:
N = n + ik (5)
Dove la parte reale n è quella che caratterizza i processi di rifrazione (in accordo con la legge di Snell) mentre la parte immaginaria k è legata al coefficiente di assorbimento A dalla relazione:
Quest’ultimo viene utilizzato nella nota relazione di Lambert-Beer:
I = I0 exp(-Az) (7)
Che descrive il decadimento esponenziale dell’intensità luminosa I0 di un’onda luminosa che attraversa un mezzo assorbente di spessore z.
Generalmente l’estinzione della luce che propaga in un mezzo avviene per la combinazione di due differenti fenomeni: l’assorbimento e la diffusione.
La radiazione assorbita si trasforma in calore o viene ri-irraggiata sotto forma di fluorescenza o fosforescenza.
La luce diffusa viene invece dispersa in tutte le direzioni con modalità che dipendono principalmente dalla dimensione del particolato.
A questo riguardo descriviamo ora brevemente i tre casi principali trattati in letteratura, vale a dire: quando le particelle sono molto più piccole della lunghezza d’onda (scattering di Rayleigh), il caso generale che vale per particelle di qualunque dimensione (scattering di Mie) e quando le particelle sono molto più grandi della lunghezza d’onda (approssimazione per diffrazione).
Quando il diametro D delle particelle è molto più piccolo della lunghezza d’onda (D<<λ), le particelle investite dalla luce, si comportano come dipoli elettrici oscillanti che irraggiano onde elettromagnetiche in tutte le direzioni indipendentemente dalla loro forma (scattering di Rayleigh).
L’espressione dell’intensità diffusa in funzione dell’angolo di scattering (θ) risulta essere:
Dove m = N1/N2 è il rapporto fra l’indice di rifrazione della particella e quello del mezzo in cui la particella è immersa.
Come si può notare, la dipendenza di I da λ-4 fa sì che l’efficienza di scattering cresca rapidamente al diminuire della lunghezza d’onda della luce (questa è anche la spiegazione del perché il cielo è blu).
Per particelle di qualunque dimensione, la corretta espressione della luce diffusa in funzione dell’angolo di scattering è fornita dalla teoria di Mie, che rappresenta la soluzione esatta delle equazioni di Maxwell nel caso di diffusione di onde elettromagnetiche da parte di particelle sferiche omogenee. Occorre tuttavia notare che, sebbene sia rigorosa, la teoria di Mie è difficilmente utilizzabile nei casi reali perché richiede la conoscenza esatta dell’indice di rifrazione complesso delle particelle e del mezzo in cui sono immerse (che in generale non sono noti).
Quando le particelle hanno un diametro molto maggiore della lunghezza d’onda (D>>λ), la luce incidente viene diffusa prevalentemente in avanti e la distribuzione angolare dell’intensità può essere facilmente determinabile utilizzando l’approssimazione di Fraunhofer.
In pratica, vengono ignorati il volume e la struttura interna della particella ma si considera solo la diffrazione dal suo bordo. Nel caso di particelle sferiche, l’espressione della distribuzione angolare della luce diffusa coincide con quella della diffrazione di un disco opaco dello stesso diametro (figura di Fraunhofer):
Dove a è un parametro adimensionale proporzionale al diametro D della particella:
Mentre J1(…) è la funzione sferica di Bessel di primo tipo (che è possibile trovare già tabulata nei manuali di matematica).
Poiché più dell’ottanta per cento dell’intensità diffusa cade all’interno del primo lobo di diffrazione, si può associare a una particella di diametro D un angolo di scattering θ che coincide col primo minimo della figura di Fraunhofer:
In prima approssimazione quindi, in presenza di un campione monodisperso (cioè composto da particelle di uguale dimensione), da una stima dell’angolo di scattering θ è possibile risalire al diametro D delle particelle.
In realtà, un granulometro ottico è uno strumento più complesso poiché deve essere in grado di analizzare anche (e soprattutto) campioni polidispersi. Nella figura che segue è mostrato lo schema di principio di tale strumento.
Come si può notare, esso è composto da una sorgente laser, da un’ottica per l’espansione e collimazione del fascio luminoso, da una cella che contiene il campione da analizzare in sospensione in un liquido e da una lente che raccoglie la luce diffusa dal campione e la invia sul fotorivelatore. Quest’ultimo, in realtà, è un array di fotorivelatori di forma anulare, che raccolgono la luce diffusa dalle particelle ai diversi angoli di scattering e generano un segnale elettrico la cui ampiezza è proporzionale all’intensità luminosa incidente.
Questi segnali elettrici vengono poi inviati al computer e analizzati mediante un opportuno algoritmo di calcolo (il cosiddetto «programma d’inversione») in grado di ricostruire la distribuzione granulometrica che ha generato la distribuzione di intensità luminosa incidente sull’array di fotorivelatori.
Vale la pena ricordare che l’array di fotorivelatori è posizionato esattamente nel piano focale della lente, che, in questa particolare configurazione, viene definita «lente di Fourier», in quanto opera una vera e propria trasformata di Fourier nel dominio dello spazio (anziché del tempo).
In pratica, la lente svolge il compito di associare a ciascun punto P del piano focale (piano delle trasformate) una particolare direzione di propagazione; infatti, tutte le onde piane che investono la lente con la direzione di propagazione individuata dalla congiungente il centro della lente con il punto P vengono focalizzate proprio in quel punto. Poiché qualunque fronte d’onda incidente sulla lente – la luce diffusa dalle particelle, nel nostro caso – può essere ricostruito (e quindi anche scomposto) come sovrapposizione coerente di infinite onde piane di diversa ampiezza e con diverso vettore di propagazione, appare evidente che la luce diffusa dalle particelle ad angoli di scattering diversi, verrà inviata dalla lente di Fourier in posizioni angolari diverse sull’array di fotorivelatori posto nel suo piano focale.
In particolare, particelle di piccolo diametro, a cui è associato un grande angolo di scattering (si veda l’equazione (11)), invieranno luce prevalentemente sui fotorivelatori più esterni, mentre quelle di diametro maggiore (a cui è associato un minore angolo di scattering) invieranno luce sui fotorivelatori più interni. In questo modo è possibile associare a ciascun fotorivelatore dell’array una determinata classe di particelle con diametro compreso in un range dimensionale abbastanza ristretto. Sfruttando questa corrispondenza fra classi di particelle e posizione angolare sottesa dai fotorivelatori, analizzando i segnali provenienti da questi ultimi, il programma di inversione è in grado di ricostruire la distribuzione granulometrica del campione analizzato.
Come precedentemente anticipato, questa tecnica (basata sull’approssimazione di Fraunhofer) funziona correttamente per l’analisi di particelle con dimensioni superiori alla lunghezza d’onda della luce utilizzata.
Per particelle più piccole della lunghezza d’onda si utilizzano altri metodi di indagine. Vale la pena ricordare la tecnica DLS (Dynamic Light Scattering) usata per particelle molto piccole (quali per esempio: macromolecole, aggregati molecolari, micelle, eccetera). Essa sfrutta le leggi del moto Browniano e consente di risalire alla dimensione delle particelle (sospese in un liquido) dalla misura del loro coefficiente di diffusione.
I sensori in fibra ottica
Com’è noto, le fibre ottiche sono dei sottili conduttori di luce costituiti da due strutture cilindriche concentriche, realizzate con materiali trasparenti (vetro o sostanze polimeriche) aventi un differente indice di rifrazione (si veda lo schema riportato nella figura che segue).
La parte centrale della fibra, che costituisce il cosiddetto «nucleo» (o core), possiede un indice di rifrazione più elevato di quello del mezzo più esterno, denominato mantello (o cladding).
In questo modo, la luce può propagare nella fibra per riflessioni successive all’interno del nucleo, senza essere dispersa verso l’esterno a causa del fenomeno della «riflessione totale» (che si verifica ogniqualvolta la luce che sta propagando in un mezzo trasparente, incontra la superficie di separazione con un altro mezzo trasparente con indice di rifrazione più basso).
A causa della loro particolare struttura, le fibre ottiche possono essere facilmente configurate per realizzare rilevatori di grandezze fisiche quali: la temperatura, la pressione, le deformazioni meccaniche, eccetera.
La struttura base di un sensore a fibra ottica è costituita da una sorgente luminosa (in genere un laser), un elemento sensibile (la fibra) e un rivelatore di radiazione luminosa (il fotorivelatore). A seconda del principio di funzionamento, i sensori a fibra ottica possono essere classificati in due grosse categorie: quelli basati sulla misura d’intensità e quelli basati sulla misura di fase.
Nei primi la grandezza da misurare provoca una modulazione dell’intensità della luce trasmessa dalla fibra, nei secondi viene invece modificata la fase, e questa variazione viene a sua volta rivelata facendo interferire il fascio di misura, convogliato nella fibra, con un fascio di riferimento esterno (ottenuto per divisione dal fascio di misura).
Una seconda classificazione dei sensori in fibra ottica può essere effettuata sulla base della utilizzazione della fibra. Sono chiamati «intrinseci» quei sensori nei quali è la fibra ottica stessa a captare la grandezza da rivelare. Vengono, invece, detti «estrinseci» i sensori nei quali la fibra ottica funge da veicolo per trasmettere l’informazione da rivelare. Un semplice esempio di sensore di intensità di tipo estrinseco è rappresentato dal sensore di spostamento mostrato nella figura che segue.
In questo caso, la luce trasmessa dalla fibra 1 viene diffusa dalla superficie in esame e raccolta (in parte) dalla fibra 2. La frazione luminosa trasmessa dalla fibra 2 viene a sua volta convogliata sul fotorivelatore F, che ne misura l’intensità. Il principio di funzionamento è piuttosto semplice. Se l’estremità della fibra 1 è posta inizialmente a contatto con la superficie, non si avrà luce diffusa e quindi il rivelatore F misurerà un’intensità nulla.
Man mano che la superficie si allontana dalla fibra 1, l’intensità raccolta dalla fibra 2 (e trasmessa al rivelatore F) aumenterà linearmente con la distanza fino a raggiungere un massimo, dopo di che inizierà a diminuire. Spostando gradualmente la superficie di quantità note è pertanto possibile costruire una curva di calibrazione: intensità raccolta in funzione della distanza, che consentirà di monitorare nel tempo gli spostamenti incogniti della superficie.
Se si rende una fibra ottica solidale con una struttura è invece possibile realizzare un sensore di deformazione di tipo intrinseco. Le deformazioni della struttura provocano, infatti, un allungamento (o accorciamento) della fibra ottica e quindi una variazione del suo indice di rifrazione. Tutto ciò darà luogo a una variazione del cammino ottico della luce all’interno della fibra, che verrà poi rivelata con tecniche interferometriche.
Sulla base dello stesso principio possono essere realizzati sensori di pressione e di forza. Anche i sensori di temperature hanno una configurazione simile. Le variazioni di temperatura provocano, infatti, un allungamento (o accorciamento) della fibra e quindi una variazione del suo indice di rifrazione che può essere rivelata con tecniche interferometriche.
Molto utilizzati, in questi ultimi anni, sono i cosiddetti sensori in fibra ottica a reticolo di Bragg. Si tratta di sensori realizzati con una fibra ottica sulla quale è stato inciso un reticolo avente un certo passo p (reticolo di Bragg). Poiché il reticolo riflette solo le radiazioni di lunghezza d’onda 2p, utilizzando una sorgente a banda larga e analizzando lo spettro della luce retroriflessa dalla fibra è possibile risalire alle modificazioni subite dal reticolo a causa delle sollecitazioni esterne (temperatura, deformazioni meccaniche, eccetera).
I sensori in fibra ottica, anche se meno diffusi di quelli elettrici, sono oggi ampiamente commercializzati e trovano applicazioni sia in ambito scientifico sia in ambito industriale. Il loro principale vantaggio, rispetto a quelli di tipo elettrico, è rappresentato dall’immunità ai disturbi elettromagnetici. Di contro, il loro costo è decisamente superiore.
Le tecniche spettroscopiche
Le tecniche spettroscopiche riguardano lo studio dell’interazione del campo elettromagnetico con la materia. Non si tratta di tecniche recenti – alcune di esse sono state utilizzate addirittura per verificare la correttezza dei primi modelli atomici – ma hanno avuto un notevole sviluppo con l’avvento del laser. Le metodiche spettroscopiche hanno trovato impiego in tutte le scienze naturali: dall’astronomia alla chimica, dalla fisica alla biologia. Tuttavia, esse hanno avuto un ruolo preminente soprattutto nelle indagini sulla struttura della materia.
Il denominatore comune di tutte le forme di spettroscopia è il concetto di «transizione», cioè il passaggio di un atomo o di una molecola da uno stato energetico a un altro. L’interazione fra l’energia radiante e la materia può avvenire con diversi meccanismi che dipendono dalla composizione spettrale della radiazione utilizzata e dall’energia interna delle molecole che si vogliono eccitare. L’energia interna E di una molecola, infatti, può essere descritta come la somma di diversi contributi:
E = Etras + Erot + Evib + Ee + En (12)
Dove Etras è l’energia traslazionale, Erot è l’energia rotazionale, Evib è l’energia vibrazionale, Ee è l’energia elettronica mentre En è l’energia nucleare.
Ognuno di questi termini ha valori quantizzati e compresi in un certo intervallo di energie che corrispondono a quelle di una determinata regione dello spettro elettromagnetico (ricordiamo che l’energia di una radiazione elettromagnetica è proporzionale alla sua frequenza ν secondo la nota legge E = hν, dove h è la costante di Planck).
Pertanto, se si vuole provocare una transizione in una particolare banda di energie della molecola sfruttando una sorgente luminosa, è necessario utilizzare una radiazione elettromagnetica di energia pari a quella della banda. Notiamo, in particolare, che le energie caratteristiche delle transizioni fra stati vibrazionali e fra stati rotazionali corrispondono a quelle delle radiazioni nella regione infrarossa (IR), mentre per eccitare stati traslazionali sono sufficienti energie inferiori (quelle delle microonde). Per avere transizioni elettroniche si utilizzano invece radiazioni più energetiche con frequenze nel visibile (VIS) o nell’ultravioletto (UV).
Vediamo ora più in dettaglio cosa accade durante l’interazione radiazione-materia e com’è possibile estrarre informazioni sulla struttura interna di atomi e molecole con le varie tecniche spettroscopiche.
Com’è noto, in assenza di stimoli esterni, le molecole, gli atomi e gli elettroni di un dato sistema, tendono a disporsi negli stati fondamentali (quelli di minor energia). Tuttavia, sappiamo che è sufficiente fornire loro una quantità di energia pari alla differenza fra l’energia dello stato fondamentale e quella di uno stato eccitato, che essi si portano immediatamente su quest’ultimo. Poiché questa nuova situazione non viene mantenuta a lungo, molecole, atomi ed elettroni ritornano nello stato fondamentale in breve tempo, liberando l’energia precedentemente assorbita sotto forma di energia radiante o calore.
Quando la frequenza della radiazione emessa ν corrisponde alla differenza di energia (ΔE = hν) fra lo stato fondamentale e uno stato eccitato, si parla di «spettroscopia di emissione», che è caratteristica di atomi o ioni monoatomici allo stato gassoso.
Quando invece il sistema viene eccitato con energia elettromagnetica di una particolare frequenza e si diseccita rilasciando l’energia assorbita sotto forma di calore si ha la cosiddetta «spettroscopia di assorbimento». Nei casi intermedi, in cui durante il decadimento il sistema rilassa termicamente, riemettendo anche una radiazione di frequenza inferiore a quella della radiazione usata per l’eccitazione, si parla di fluorescenza (per tempi di decadimento brevi) e fosforescenza (per tempi di decadimento lunghi).
In alcuni casi, infine, l’energia elettromagnetica assorbita dal sistema viene riemessa interamente sotto forma di radiazione elettromagnetica con frequenza diversa da quella di eccitazione. In questi casi, si parla di diffusione per effetto Raman («spettroscopia Raman»).
Ricordiamo, inoltre, che le tecniche spettroscopiche possono essere classificate anche in base all’energia della radiazione usata per l’eccitazione. Si definisce allora «spettroscopia IR» quella usata per eccitare gli stati vibrazionali e rotazionali delle molecole, «spettroscopia visibile o UV» quella usata per l’eccitazione degli elettroni di valenza, mentre per l’eccitazione degli elettroni dei gusci più interni (che richiedono una maggiore energia di eccitazione) si ha la «spettroscopia ai raggi X».
Infine, per lo studio dei livelli energetici dei nuclei atomici si utilizzano per l’eccitazione nucleare esclusivamente forti campi magnetici (come nel caso della Risonanza Magnetica Nucleare usata per le indagini cliniche).
Conclusioni
Questo articolo descrive molto sinteticamente alcune fra le principali tecniche ottiche usate per eseguire misure nei diversi ambiti della scienza e della tecnologia. Naturalmente, il numero dei dispositivi di misura basati sull’utilizzo della luce è molto più ampio di quello qui presentato e richiederebbe una trattazione molto più estesa per essere descritto. Tuttavia, anche dai pochi esempi riportati in queste pagine, è possibile intuire l’utilità delle tecniche ottiche e i vantaggi da loro offerti.
In estrema sintesi, si può affermare che le tecniche di misura ottiche, oltre a essere immuni da disturbi elettromagnetici, sono estremamente accurate (soprattutto per le misure di spostamenti e deformazioni di ampiezza confrontabile con la lunghezza d’onda), sono poco intrusive (la luce non danneggia l’oggetto della misura), possono essere utilizzate sia in laboratorio che in-linea negli impianti industriali e inoltre, possono eseguire misure da remoto (cioè a una certa distanza dall’oggetto da misurare, come nel caso di alcune tecniche interferometriche).
Va infine ricordato che con lo sviluppo di nuove sorgenti laser con prestazioni sempre più spinte (nel campo dei laser a impulsi ultracorti, per esempio, si è arrivati a realizzare sorgenti in grado di generare impulsi al femtosecondo (10-15s)) si stanno realizzando esperimenti scientifici (nell’ambito della fusione nucleare, nello studio della struttura della materia, in ambito medico-sanitario, eccetera) le cui difficoltà realizzative sarebbero state insuperabili solo pochi anni fa.
Vai all’articolo in formato PDF
Sergio Musazzi
(Ricercatore e divulgatore scientifico)
Nota di redazione
Per approfondire le tematiche affrontate in questo articolo si vedano dello stesso autore i seguenti contributi pubblicati sulla Rivista Emmeciquadro:
-
S. Musazzi, I 50 anni del laser. Storia di un connubio tra scienza e tecnologia, n° 40 – Dicembre 2010
-
S. Musazzi, Il campo speckle. Rumore o informazione?, n° 32 – Aprile 2008.
© Pubblicato sul n° 57 di Emmeciquadro