Capitolo 2: Storia ed evoluzione della microscopia moderna
Accennato alle antiche origini della disciplina nel capitolo precedente, ne affrontiamo qui la storia moderna. Prima del 1981 le tecniche di microscopia e gli strumenti relativi potevano essere classificati in 3 categorie, oggetto rispettivamente della microscopia ottica, della microscopia elettronica, e di "altre tecniche" di microscopia.
2.1 La microscopia ottica convenzionale COM
Si è già fornita nel capitolo introduttivo la definizione di un microscopio ottico elementare, a proposito dell'origine storica dello strumento. Nella figura seguente è possibile vedere un'interpretazione schematica più moderna dello stesso principio.
Fig. 2.1: schema semplificato di una possibile configurazione di un generico COM.
Le diverse modalità d'utilizzo fondamentali di un microscopio ottico (riflessione e trasmissione) saranno poi evidenziate nel dettaglio nell'ambito del parallelo con le equivalenti tecniche di microscopia elettronica (vedi sezione 2.2). In questo paragrafo, che vogliamo essere piuttosto di passaggio tra l'aspetto storico e quello più propriamente tecnologico, non rimane quindi che affrontare le motivazioni che spinsero al grande salto dalle tecniche ottiche tradizionali della microscopia a quelle più moderne e non necessariamente ottiche. Questo non prima però di aver affrontato brevemente a parte una tecnica ottica particolare, quella della fluorescenza.
2.1.1 Un caso a sé: la fluorescenza
Qualche parola a parte merita la microscopia a fluorescenza, che, benché utilizzi la scansione (vedere sezione 2.4), fa sempre parte della microscopia ottica "tradizionale", e non costituisce tanto, in realtà, una diversa tecnica di "osservare" i campioni, quanto, per così dire, un "trucco" per evidenziare le caratteristiche d'interesse dei campioni. Si parla di "fluorescent labeling", cioè "etichettatura fluorescente": sulla base di una precisa conoscenza chimica del campione da analizzare, si fa in modo di "attaccare" ad esso della molecole fluorescenti a base di Fluoro e Cromo (fluorochromes), in pratica delle tinture (dye) fluorescenti, in base a vari criteri. Esistono molecole fluorocromiche (disponibili in commercio) che sono sensibili al pH nei campioni (la concentrazione idrogenionica cioè di ioni H+, ovvero l'acidità) o ad altre concentrazioni di ioni (ad esempio Mg2+ o Ca2+), e cioè si vanno a legare alle zone del campione dove tale grandezza assume valori particolarmente rilevanti, altre che si localizzano in base ad interazioni idrofobiche e idrofiliche (vedi sottoparagrafo 3.3.2.8), altre ancora che possono essere legate in maniera specifica a determinati proteine, acidi nucleici, lipidi o polisaccaridi. Quando una popolazione di molecole fluorocromo viene eccitata da luce di una determinata lunghezza d'onda appropriata, emette luce, e questo è propriamente il fenomeno denominato fluorescenza. L'emissione continua finché sussiste lo stimolo, e presenta una durata o "vita" inferiore ai 10-8 secondi come ordine di grandezza. Utilizzando uno strumento a scansione si può misurare pixel per pixel l'intensità luminosa emessa, in modo da creare un'immagine digitale del campione. L'immagine viene poi trattata con appositi software d'analisi. I fluorocromi hanno degli spettri di emissione e assorbimento della luce caratteristici. L'assorbimento innalza l'energia di un elettrone ad un livello atomico più esterno, e quando l'elettrone in questo stato instabile ricade nel suo livello precedente viene emessa la luce di fluorescenza. Lo spettro di emissione presenta sempre il suo picco spostato rispetto a quello di assorbimento verso lunghezze d'onda maggiori (cioè frequenze e quindi energie del quanto luminoso, hn, minori). È questo spostamento tra i due spettri (detto shift di Stokes) che consente di distinguere, con appositi filtri ottici, la luce di eccitazione (quella che arriva sul campione) da quella di emissione (che identifica le caratteristiche d'interesse sul campione).
a)
b)
Fig. 2.2: immagini di campioni marcati con tinture fluorescenti. a) cellule nervose di coniglio, b) DNA.
Una delle caratteristiche vantaggiose della microscopia di fluorescenza è la possibilità di fornire, in base all'intensità luminosa corrispondente ad una data emissione, delle informazioni quantitative. Inoltre è possibile effettuare "etichettature" multiple con due o più fluorocromi, i cui effetti possono poi essere rilevati e registrati separatamente.
Un inconveniente è invece il cosiddetto "photobleaching", cioè la foto-distruzione causata in determinati campioni dall'elevata intensità della luce stimolante. Il fenomeno si verifica quando lo stato eccitato di una molecola è generalmente molto più reattivo chimicamente dello stato fondamentale (di partenza, ad energia inferiore), e può essere significativo in strumenti che usano luce laser ad elevata intensità.
2.1.2 I limiti della tradizione
Già negli anni '50 nell'ambito della microscopia ottica era noto come tecniche di scansione del campione (o della sorgente che lo illuminava) fossero di aiuto per spingere le capacità risolutive al limite, ritenuto allora invalicabile, della barriera di Abbe. Costui, celebre fisico e costruttore di lenti tedesco, fin dal 1873 aveva compreso e descritto la limitazione fondamentale di ogni microscopio che si basi sul meccanismo di focalizzazione di luce o altre radiazioni elettromagnetiche da parte di lenti: a causa della diffrazione (vedi paragrafo 2.3.1) nasce un pattern (cioè un disegno caratteristico con disposizione ordinata di tratti di linee) detto appunto di diffrazione, che disturba l'immagine coprendo i dettagli di dimensioni lineari inferiori alla metà della lunghezza d'onda l della radiazione utilizzata (circa 0,2 micron se si impiega luce visibile, che si estende nello spettro elettromagnetico da circa 4000 a circa 8000 Å, con le regioni ultravioletta UV ed infrarossa IR che lo delimitano, per l minori e maggiori, rispettivamente). In realtà poi il limite effettivo risultava essere, nei microscopi ottici convenzionali (Conventional Optical Microscopes, COM) ancora più ristretto, per problemi legati alle condizioni di illuminazione dell'oggetto da esaminare e all'apertura dell'obbiettivo.
2.2 La microscopia elettronica
Negli anni '20 si scoprì che gli elettroni accelerati da campi elettrici si comportano nel vuoto proprio come la luce (composta altresì di altre particelle elementari, i fotoni): viaggiano infatti in linea retta, e anche ad essi, come a qualsiasi particella, è possibile associare una lunghezza d'onda caratteristica detta di de Broglie, per il noto fenomeno del dualismo onda-particella, per cui ogni radiazione è composta di corpuscoli e viceversa ad ogni corpo è associata un'onda di lunghezza l=h/p, dove h è la costante di Planck (6,63x10-34 Js cioè Joulexsecondo) e p è la quantità di moto (o meglio il suo modulo o valore assoluto, in quanto si tratta di una grandezza vettoriale) p=mv, dove m è la massa e v la velocità del corpo.
Fig. 2.3: confronto di un microscopio ottico a) con un microscopio elettronico a trasmissione b) (TEM, paragrafo 2.2.1) e un microscopio elettronico a scansione c) (SEM, paragrafo 2.2.2) operante in riflessione degli elettroni. Nel microscopio ottico è possibile, analogamente, illuminare il campione sia con una sorgente (lampadina) che lo "vede" dallo stesso lato dell'osservatore, per cui quest'ultimo riceve la luce riflessa dal campione, sia ponendo la sorgente dalla parte opposta, e in questo caso l'osservatore vede la luce trasmessa attraverso il vetrino, (posto che questo si presti a tale applicazione, ovvero sia almeno in parte trasparente).
Ad esempio per una pallina da tennis di 100 g che viaggia a 100 km/h ha l~2 x 10-24 Å, veramente infinitesima e quindi è come se l'onda non oscillasse ma fosse continua, a causa della massa relativamente grande, mentre un elettrone, di massa di poco inferiore a 10-30 kg, pur avendo velocità molto più grandi, dell'ordine di 1/3 della velocità della luce c (cioè pari a circa 100000 km/s), ha l~0,02 Å, circa 1022 volte quella della pallina, e quindi "osservabile" (cioè associata a precise fenomenologie fisiche).
La l degli elettroni è circa 100000 volte più piccola di quella della luce (cioè dei fotoni) visibile. Inoltre si scoprì che i campi elettrici e magnetici hanno lo stesso effetto su un fascio di elettroni che le lenti e gli specchi hanno su un fascio luminoso (di fotoni); è cioè possibile controllare la direzione e la focalizzazione del fascio per mezzo di dispositivi che generano questi campi, detti lenti elettromagnetiche. Una tipica lente magnetica altro non è che un bobina racchiusa in un involucro con opportuna geometria e poli di ferro dolce disposti intorno all'asse della colonna, sotto vuoto, nella quale avviene il percorso degli elettroni, elemento fondamentale dei microscopi elettronici insieme alle lenti elettromagnetiche (vedi Fig. 2.5).
2.2.1 TEM
Ernst Rubka all'Università di Berlino combinò le caratteristiche dei fasci elettronici sopra descritte, e realizzò così nel 1931 il primo strumento di tipo TEM, dove la sigla sta per Transmission Electron Microscope, microscopio elettronico a trasmissione. Per questo risultato e il successivo lavoro ad esso correlato Rubka ottenne il premio Nobel per la fisica nel 1986.
Fig. 2.4: aspetto di una moderna postazione di lavoro TEM.
Il primo microscopio elettronico utilizzava due lenti magnetiche e tre anni dopo ne fu aggiunta una terza che consentì di raggiungere la risoluzione dei 100 nm, pari a due volte quella del migliore microscopio ottico. Oggi, impiegando fino a 5 lenti magnetiche, si raggiunge la risoluzione del nm.
Il TEM può essere confrontato con un ordinario microscopio ottico in trasmissione, come proposto in Fig. 2.5, ma più ancora forse si può riscontrare un'analogia con un proiettore di diapositive (Fig. 2.6): la sorgente di luce è sostituita da una sorgente di elettroni costituita dal filamento di tungsteno, le lenti di vetro da lenti magnetiche, e lo schermo di proiezione da uno schermo fluorescente che emette luce quando colpito dagli elettroni. Essendo l'elettrone una particella molto leggera (pesa circa 1/2000 del più piccolo atomo, quello di Idrogeno H), per evitare deflessioni lungo il percorso del fascio l'intera traiettoria dev'essere sotto vuoto, e il campione dev'essere molto sottile (tipicamente non più di poche centinaia di nm), in modo da consentire agli elettroni di attraversarlo ed essere rivelati in trasmissione.
Fig. 2.5: confronto di un TEM con un COM (di cui la sigla LM è sinonimo: Light Microscope). La sorgente nel TEM è il cannone elettronico, sostanzialmente un filamento di tungsteno riscaldato nel vuoto a circa 2700 °C che emette elettroni in quantità per un intenso effetto termoionico (cioè per l'elevata agitazione termica di questi dovuta all'altissima temperatura); gli elettroni sono poi focalizzati e accelerati in un dispositivo (triodo) rispettivamente da altri due elettrodi: cilindro di Wehnelt e anodo.
È curioso osservare comunque che tutte queste analogie su cui ci siamo soffermati vanno oltre la diretta corrispondenza di varie parti degli strumenti, in quanto riguardano anche gli effetti sulle immagini, fatto ben più sostanziale; ad esempio le lenti elettromagnetiche presentano effetti collaterali indesiderati sulle immagini analoghi a quelli associati alle lenti ottiche (di vetro): aberrazione sferica (l'ingrandimento al centro è diverso da quello ai bordi), aberrazione cromatica (l'ingrandimento dipende dalla l cioè dall'energia degli elettroni) e astigmatismo (una circonferenza nel campione diventa un'ellisse nell'immagine). E anche il comportamento in fase di ottimizzazione della visione è lo stesso: l'effetto che nelle lenti ottiche, fissate una volta per tutte, si ottiene spostandole tra di loro, in quelle elettromagnetiche si ottiene variando la corrente che passa nelle bobine (e quindi il campo magnetico indotto tra i poli interni).
Fig. 2.6: un TEM presenta forti analogie con un proiettore di diapositive.
Il TEM in realtà può fornire diversi tipi di visualizzazione: per campioni non cristallini l'immagine cosiddetta da contrasto d'ampiezza, derivante dagli elettroni assorbiti dal campione (quelli che non riescono ad attraversarlo), e quella da contrasto di fase, derivante dagli elettroni scatterati ovvero diffusi lungo direzioni che presentano piccoli angoli con la superficie, diffusione che dipende dalla composizione del campione. Per campioni cristallini invece l'elemento più importante per la formazione di immagini è il contrasto da diffrazione. Ricordiamo brevemente che cosa si intende per diffrazione in fisica: è un fenomeno che si ha quando un'onda attraversa una struttura periodica la cui periodicità (passo o lunghezza d'onda) è dello stesso ordine di grandezza della lunghezza d'onda incidente; in tal caso l'onda emergente è soggetta ad interferenza che produce un pattern (vedi paragrafo 2.3.1).
Molto importante sia nel TEM che nel SEM è il sistema di vuoto, garantito da nella camera a vuoto (che è la colonna stessa) mediante varie pompe, a partire da una rotativa che fa un primo livello di vuoto, poco spinto, ad una successiva (o più di una) pompa ad alto vuoto, ad esempio turbo molecolare o ionica. Come già accennato il vuoto serve ad evitare che gli elettroni collidano con le molecole d'aria e vengano deviati prima di arrivare al campione. Rispetto alla pressione atmosferica (pari a 100000 Pa cioè Pascal) la pressione residua ottenuta tipicamente nella camera dopo che è stato fatto il vuoto, pari a circa 2.5 x 10-5 Pa, è tale che in un litro vi sono circa 7 x 10-12 molecole d'aria, e la probabilità di collisione per un elettrone è bassissima, (in termini più scientifici si dice che il cammino libero medio di un elettrone, cioè la strada che, in media statisticamente, esso percorre prima di collidere, è di diversi metri, molto superiore alla lunghezza della colonna).
2.2.2 SEM
Non tutti i campioni possono essere preparati in "fette" così sottili da poter essere analizzati col TEM (cioè penetrati dagli elettroni). Inoltre la microscopia si interessa tipicamente delle superfici, mentre le immagini TEM dipendono da come è fatto il campione lungo tutto lo spessore, per quanto piccolo, e certi dettagli di localizzazione si perdono. I primi tentativi per ottenere immagini di superfici da TEM prevedevano il montaggio del campione quasi in parallelo al fascio di elettroni, ma in questo modo veniva "focalizzata" solo una piccola porzione della superficie, e anche su questa c'era una notevole distorsione. La tecnica che ha consentito di superare questi problemi specifici è la microscopia SEM.
Non si può dire con certezza chi sia stato l'inventore del principio del SEM (Scanning Electron Microscopy), cioè della scansione della superficie del campione con una "sonda" finemente focalizzata (in questo caso un fascio di elettroni) per produrre un'immagine della superficie. La prima pubblicazione al riguardo comparve nel 1935 in un articolo del fisico tedesco Max Knoll. I primi esperimenti furono condotti un paio d'anni più tardi da un altro fisico tedesco, Manfred von Ardenne, ma solo nel 1942 tre americani, Zworykin, Hillier e Snijder descrissero con precisione un vero SEM con potere risolutivo di 50 nm. Oggi i migliori SEM hanno risoluzione di 1 nm.
Fig. 2.7: un moderno SEM; lo strumento nel complesso è generalmente più compatto di un tipico TEM (Fig. 2.4).
Il meccanismo della scansione può essere descritto con un'analogia: è come se ci trovassimo in una stanza buia con solo una piccola torcia (la sonda, che dev'essere "fine", cioè con campo d'azione molto ristretto sul piano trasversale, cosa che può sembrare limitante ma in realtà costituisce la forza delle tecniche a sonda, essendo una misura della risoluzione ottenibile). L'unico modo per vedere tutta la stanza è allora esplorarla punto a punto con la torcia, muovendo quest'ultima in modo da ricoprire la superficie d'interesse in istanti successivi, procedendo ad esempio lungo righe orizzontali, e passando quindi dall'una all'altra in verticale. La rapidità di questa operazione è importante perché consente di "ricordare" meglio com'era l'aspetto del campione nei punti già "visualizzati" (nella microscopia a scansione la memoria è quella di un computer), ottenendo quanto più velocemente possibile una visione d'insieme, anche perché, per vari problemi (ad esempio derive termiche o elettroniche), il campione può "cambiare" in un punto mentre si stanno analizzando i successivi. Nel SEM la torcia è "elettronica", l'occhio è un rivelatore di elettroni, e la memoria è uno schermo fluorescente ed una fotocamera; nei microscopi a scansione a sonda (sezione 2.6) la torcia è invece di volta in volta una nano-corrente (STM), una puntina legata ad un braccio flessibile come in un giradischi (AFM), un galvanometro o un altro sistema di rivelazione complesso; infine in entrambi i casi la memoria è un buffer nella RAM di una scheda di dedicata di acquisizione o di una scheda madre di un personal computer.
Lo schema seguente mostra inoltre un'altra analogia: se il TEM (analogo ad un COM in trasmissione) è simile nel funzionamento ad un proiettore di diapositive, per il SEM (analogo ad un COM in riflessione) il parallelo va fatto, visto il meccanismo di scansione, con un televisore, nel quale pure si ha un pennello elettronico che percorre l'area dello schermo.
Fig. 2.8: analogia tra un SEM ed il monitor di un televisore.
Un'altra differenza fondamentale rispetto al TEM dovuta al meccanismo della scansione è che per la prima volta si ha uno strumento in cui l'immagine del campione non è diretta: non si tratta più di un'unica "fotografia" (ottica o elettronica) del campione nell'insieme, presa istantaneamente, ma di un'immagine ricostruita punto a punto, per cui nel sistema ci devono essere due componenti in più: un ulteriore modulo di elettronica (per il controllo della scansione), e un software di elaborazione che ricomponga le misure puntuali in un'immagine globale. Tra i fenomeni generati dall'urto elettrone-atomo del campione, quelli maggiormente utilizzati per creare immagini nel SEM sono: gli elettroni incidenti che vengono riflessi (backscattered electrons, immagine BE), quelli secondari (secondary electrons, SE) e quelli assorbiti (adsorbed electrons, AE).
Nel SEM tutti questi effetti (e le immagini da essi derivate) dipendono principalmente dal rilievo topografico della superficie del campione. In ogni caso gli elettroni che devono comporre l'immagine vanno raccolti e "misurati" da opportuni rivelatori, che sono o a scintillazione o a stato solido: nei primi gli elettroni colpiscono uno schermo fluorescente che emette luce in ragione proporzionale ad essi, poi convertita in un segnale elettrico e amplificata; nei secondi vi è un dispositivo a semiconduttore che amplifica direttamente il piccolissimo segnale prodotto dagli elettroni in arrivo.
Già da diversi anni i microscopi elettronici hanno in linea di principio risolto il problema della risoluzione atomica. Infatti questi strumenti, in tutte le loro versioni, si basano sullo scattering di elettroni, i quali, nel loro aspetto ondulatorio, in opportune condizioni di energia presentano una lunghezza d'onda assai minore del limite richiesto per la risoluzione atomica. Infatti per gli elettroni vale la seguente espressione caratteristica:
(dove tra parentesi tonde sono riportate le unità in cui vanno espressi i valori delle grandezze). Questa relazione deriva dalla formula E=2 k2 / 2 m, (espressione dell'energia cinetica E = p2 / 2m ricavata dalla Fisica dello Stato Solido, dove p = k), con =h / 2p per definizione, h costante di Planck, m massa dell'elettrone, k vettore d'onda dell'elettrone pari a w / c = 2p / l, dove w è la pulsazione che vale 2pn con n frequenza cioè reciproco del periodo T, e c velocità della luce nel vuoto cioè l/T). Da tale relazione si ricava che, per esempio, per elettroni dell'energia di 20 keV l è circa 0,08 Å.
(Ricordiamo la diversa relazione equivalente per i fotoni, che fornisce l'energia dei quanti di luce delle radiazioni nel visibile, utilizzabili nella microscopia ottica:
l = 12400 / E (eV),
derivata da E= w= h n = h c / l, con h e c come sopra).
2.2.3 STEM
Riassumendo, il SEM (Scanning Electron Microscope) utilizza per la visualizzazione gli elettroni scatterati dal campione, provenienti da un fascio focalizzato; nel TEM (Transmission Electron Microscope) sono impiegati elettroni ad alta velocità (cioè piccola lunghezza d'onda, vedi l'equazione relativa) che bombardano il campione e vengono quindi rivelati in trasmissione. Abbiamo voluto ricapitolare queste caratteristiche perché esiste anche un terzo tipo di microscopio elettronico classico che le riunisce insieme: lo STEM (Scanning TEM), che combina appunto le tecniche di scansione e rilevamento in trasmissione. Questo strumento venne proposto idealmente sempre da von Ardenne nel 1938, e realizzato commercialmente nel 1969.
In realtà generalmente i microscopi elettronici, oltre ad essere molto costosi (fino a dieci volte il costo di uno strumento SPM, vedi sezioni 2.6, 4.5) presentano diversi inconvenienti, che riguardano l'ottica di raccolta degli elettroni e le alterazioni indotte nei campioni (oltre che nelle immagini prodotte) dalla natura fortemente energetica dell'interazione. Questi problemi riducono la risoluzione ottenibile ben al di sotto del limite teorico di diffrazione: in pratica le risoluzioni raggiungibili sono di circa 10 Å per il TEM e 100 Å per il SEM (per elettroni di energia intorno ai 2 keV cioè l»0,4 Å), mentre solo per lo STEM si è raggiunta nel 1991 la risoluzione "atomica" di 1,4 Å.
Le possibilità di applicazione di queste tecniche restano inoltre piuttosto limitate, vista la necessità di operare, sia in fase di preparazione del campione che in fase di visualizzazione, sotto vuoto spinto (UHV).
2.2.4 ESEM
Tuttavia ultimamente è stata sviluppata una tecnica, detta ESEM (Environmental SEM) che consente di analizzare campioni non in vuoto ma addirittura immersi in vapore acqueo, a determinate condizioni. Infatti a temperatura di 0 °C e pressione tra 650 e 1300 Pa (Pascal) il vapore acqueo è in equilibrio col campione e non ostacola la visualizzazione, anzi la favorisce. In questa situazione si possono visualizzare campioni molli e anche contenenti acqua e "sporco" (ovvero contaminanti), cioè ad esempio campioni biologici, che nel vuoto di un SEM sarebbero distrutti esplodendo e quindi venendo risucchiati dalla pompa; inoltre i campioni possono essere isolanti, cosa che nel SEM crea problemi perché sugli isolanti bombardati da elettroni si accumulano cariche elettriche che poi non vengono rilasciate (perché negli isolanti queste non sono libere di muoversi e defluire via), mentre gli ioni dell'acqua in sospensione nell'ESEM aiutano a "pulire il segnale" da questo problema, in quanto fungono da "spazzini", poiché si muovono evitando l'accumulo di cariche di disturbo che vengono da essi trasportate via.
Fig. 2.9: una formica che addenta un microchip (di dimensioni pari a circa 2 x 2 mm2). L'immagine è molto suggestiva, ma è evidente che alla base della sua realizzazione c'è più il tentativo di stupire, a puri fini pubblicitari, che non un interesse scientifico.
È stato perciò possibile con questo strumento visualizzare anche piccoli animali in vita (l'immagine, riportata in Fig. 2.9 ha fatto il giro del mondo, come anche altre di acari), ma per breve tempo (le condizioni di bombardamento elettronico sono comunque mortali nel giro di pochi secondi). Tolte pertanto queste immagini sensazionalistiche (ed altre che mostrano, ad esempio, fratture di spaghetti crudi o cotti!), l'utilità dell'ESEM è ancora tutta da dimostrare, anche se è indubbio che il suo produttore, la Philips nella sua divisione PEO (Philips Electron Optics) è di fatto uno dei maggiori produttori odierni di microscopi SEM e TEM, dagli anni '30 all'avanguardia in questo settore di ricerca (furono loro a realizzare tra l'altro il primo microscopio elettronico commerciale, nel lontano 1949).
2.3 Altre tecniche tradizionali
Oltre alla microscopia ottica e elettronica convenzionali, altre tecniche di diversa natura per l'analisi di superficie erano già state sviluppate prima della diffusione su larga scala delle moderne microscopie a scansione, e sono ancora oggi praticate con successo, relativamente ad un campo limitato di applicazioni. Due di queste, utilizzate per visualizzare la struttura di un campione cristallino ben piano, sono basate entrambe sulla teoria del fenomeno della diffrazione, descritto nel paragrafo 2.3.1 a proposito del TEM.
2.3.1 Diffrazione di raggi X
La prima e più antica è la tecnica della diffrazione dei raggi X, della quale provvediamo a descrivere brevemente il principio di funzionamento. Un elettrone incidente nel fascio di partenza (detto primario) in un TEM o SEM, nell'urto col campione può dare luogo a diversi fenomeni ulteriori, rispetto a quelli normalmente usati in questi strumenti e precedentemente citati. Uno è l'emissione indotta, da parte di atomi del campione, di nuovi elettroni (detti secondari).
Fig. 2.10: un reticolo di Si-Si2Ge: si vede sia l'immagine nello spazio reale di un piano del campione (che tuttavia non è l'immagine del reticolo atomico, ricordiamo che la risoluzione TEM è "solo" 1 nm, ma della convoluzione di questo col fascio elettronico), sia l'immagine del pattern di diffrazione (in pratica la trasformata di Fourier della precedente). Questa evidenzia le periodicità del campione, in quanto i punti chiari corrispondono a dei picchi di massimo valore dell'intensità dei fasci diffratti dal campione, e cioè si hanno dove i vari fasci diffratti, provenienti dai vari atomi, interferiscono in maniera costruttiva, sommandosi; (si notano anche le diverse intensità in corrispondenza dei vari punti).
Ma anche quando l'energia ceduta all'atomo è tale che l'elettrone "colpito" non viene espulso ma semplicemente passa ad una orbita più esterna, l'atomo così eccitato dopo qualche tempo ritorna allo stato fondamentale (di minore energia) iniziale, rilasciando l'eccesso d'energia come o fotoni (cioè emettendo luce) o raggi X.
Ciò avviene nell'ambito di un certo intervallo di lunghezze d'onda (o frequenze) caratteristiche di queste particelle, che quindi le accomuna e le definisce; tuttavia diverse particelle in questo range (intervallo) hanno diversa lunghezza d'onda, cioè una certa dispersione del valore di lunghezza d'onda. Pertanto anche con i raggi X, come coi fotoni della luce visibile, si parla di diversi "colori" (intendendo riferirsi ai relativi valori di lunghezze d'onda o frequenze, anche se di un fenomeno non "visibile" a occhio nudo), e questi colori dipendono dal materiale "urtato" (cioè dalle caratteristiche chimiche dell'elemento di quel campione in quel punto). Perciò è possibile risalire alla composizione chimica del campione. Si ha in pratica la stessa situazione del televisore a colori, dove i 3 colori fondamentali RGB (Red, Green, Blue, cioè Rosso Verde e Blu) vengono emessi in un'unica posizione macroscopica apparente dello schermo (in realtà sono 3 finemente affiancate) a seconda che venga illuminato uno dei 3 rispettivi fosfori, particelle di materiale sensibile che emette luce di quello specifico colore quando eccitato dal fascio elettronico (pennello) del tubo catodico del televisore.
2.3.2 LEED
La base teorica di questa tecnica (LEED: Low Energy Electron Diffraction), dove i raggi diffratti sono di natura elettronica, è la stessa della diffrazione dei raggi X da cui deriva. L'unica differenza nell'utilizzo di elettroni invece che di "fotoni" X è motivata dal fatto che qui interessa poter studiare la superficie, e si fa uso perciò di elettroni in quanto più adatti dei raggi X (l: 0,001 - 500 Å) allo scattering elastico; cioè, gli elettroni (alle energie impiegate nella tecnica LEED) penetrano poco nel solido, così che il pattern di diffrazione è determinato quasi interamente dagli atomi di superficie. La componente scatterata elasticamente (cioè che nell'urto "rimbalza" mantenendo invariata la propria energia cinetica) è la minima parte del flusso riflesso, ma è sufficiente a ricostruire un'immagine. Il problema è che questa immagine è una ricostruzione della trasformata di Fourier della densità di carica superficiale, cioè fornisce la forma del campione nello spazio K del reticolo reciproco. Occorre quindi, per avere un'immagine nello spazio reale, antitrasformare sistematicamente.
2.3.3 FIM
La forma nello spazio reale tridimensionale può essere riprodotta con un altro strumento: il microscopio a emissione ionica a effetto di campo FIM (Field Ion Microscope). Questa tecnica, sviluppatasi negli anni '70, è capostipite delle moderne microscopie a campo prossimo, in quanto utilizza anch'essa una "sonda", che per fornire buoni risultati dev'essere sufficientemente "piccola" (di raggio di curvatura all'apice dell'ordine di poche decine di nanometri).
Il campione, a forma di cono appuntito, è mantenuto a un potenziale elettrico positivo rispetto a un elettrodo piatto curvo (vedi Fig. 2.11). Un atomo neutro di Elio He sarà allora attratto verso la regione di alto campo dall'interazione del campo elettrico col dipolo elettrico dell'atomo, (è in pratica una distribuzione di cariche asimmetrica, equivalente ad una coppia di cariche uguali ed opposte, che si crea sull'atomo "per induzione", cioè a causa della distorsione della nube di elettroni che ne circonda il nucleo, distorsione generata dal campo stesso in cui l'atomo è immerso). Dopo essere stato ionizzato a catione (cioè diventando uno ione con carica elettrica positiva) nell'estrema prossimità della punta (a causa del campo elettrico che là è particolarmente intenso, e finisce con lo strappare un elettrone, carica negativa, all'atomo), sarà quindi respinto violentemente lungo le linee di forza del campo elettrico (le frecce in figura). Le linee equipotenziali (profili di pari energia) che delimitano la regione di campo sufficientemente intenso per ionizzare gli atomi riproducono il reticolo atomico del campione, la cui immagine va così ad imprimersi sul piatto.
L'inconveniente della tecnica è che i campioni utilizzabili sono solo quelli non degradabili dagli elevati campi elettrici che è necessario impiegare.
Fig. 2.11: una particolarità del FIM è che qui è il campione stesso che costituisce la punta della sonda, contrapposta ad un generico schermo conduttore.
2.4 Introduzione della scansione
Il SEM fu il primo strumento a scansione utilizzato con successo su larga scala, ma, come già accennato in avvio, l'idea della scansione nacque originariamente per provare a migliorare la risoluzione, limitata dalla barriera di Abbe, dei classici strumenti microscopici di natura ottica, ed in effetti si sviluppò all'inizio (prima di dare il via alla famiglia degli SPM) in questa categoria. I primi strumenti a scansione (fatta appunto l'eccezione del SEM) erano quindi ancora ottici, e comunque a campo "lontano"; a questo gruppo appartengono i due di seguito descritti.
2.4.1 FSOM
Nella figura seguente è mostrato un microscopio ottico a scansione a campo lontano (Far-field Scanning Optical Microscope, FSOM), che già migliora i risultati ottenibili rispetto ai COM, rendendo effettivamente raggiungibile il limite di risoluzione per particolari distanti DX=l/2. L'immagine ottenuta non è infatti quella ottica diretta, ma un'immagine ricostruita a partire dall'analisi dei risultati di un "passaggio al setaccio" del campione da parte del fascio fotonico, focalizzato sulla superficie dell'oggetto in uno spot ("macchia", superficie coperta) di dimensioni pari appunto a l/2, in moto rispetto allo stesso di un movimento raster, analogo a quello compiuto dal pennellino elettronico che ricostruisce l'immagine in un ordinario televisore (vedere Fig. 3.1). La luce (trasmessa o riflessa) viene raccolta da una fotocella che, misuratane l'intensità, la utilizza come luminosità di un punto dell'immagine ricostruita, consistente in un intorno quadrato di lato l/2 della posizione (X,Y) illuminata nel campione.
Fig. 2.12: schema di un FSOM. Gli stessi principi di funzionamento valgono anche per radiazioni fuori del range del visibile (microonde, elettroni), ma sempre a campo lontano.
2.4.2 CSOM
Un altro microscopio ottico a scansione, che si può dire abbia portato al loro limite le capacità risolutive della microscopia ottica è stato quello a tecnica confocale: CSOM (Confocal Scanning Optical Microscope). Questo strumento è stato proposto per la prima volta più di quarant'anni fa, ma reso praticamente realizzabile solo con l'invenzione del laser, quasi vent'anni più tardi. Infine soltanto negli ultimi dieci anni ha raggiunto una notevole diffusione, come mezzo per la visualizzazione di device (dispositivi) a semiconduttori e materiali biologici.
Nel CSOM quando l'immagine è defocalizzata l'intensità della luce rilevata cade a zero, e quindi l'immagine scompare completamente, diversamente da quanto accade in un microscopio ottico standard, in cui diventa progressivamente offuscata e indistinta. Questa proprietà rende possibile la ricostruzione tridimensionale dei profili delle strutture analizzate (sulle scale dimensionali tipiche della microscopia ottica, cioè dell'ordine di grandezza della lunghezza d'onda della radiazione utilizzata), giacché si è in grado di determinare con precisione la posizione lungo l'asse ottico del dato particolare del campione analizzato. Il principio di funzionamento è il seguente: il campione viene illuminato solo un punto alla volta, come è tipico della microscopia a scansione. L'immagine globale viene poi generata a partire dalle intensità misurate sui singoli punti di volta in volta illuminati sul piano (X,Y) del campione, (per punto s'intende uno spot di dimensioni determinate dalla diffrazione prodotta dal passaggio della luce attraverso il diaframma A in Fig. 2.13). Se l'oggetto viene spostato in direzione Z, la luce riflessa è defocalizzata e non passa più attraverso un secondo diaframma B. Per questo il metodo si dice confocale: è necessaria la focalizzazione contemporanea della luce incidente su un punto del campione e di quella riflessa in corrispondenza dell'orifizio B.
Fig. 2.13: CSOM a luce riflessa. Sono mostrate le situazioni di focalizzazione a) e defocalizzazione b); in quest'ultimo caso l'immagine scompare, giacché nessuna radiazione luminosa coerente raggiunge il rivelatore.
Oggetto della scansione può essere anche, invece del campione, l'intero apparato ottico di focalizzazione, oppure il fascio luminoso. Un'ulteriore variante, l'unica a fornire immagini in tempo reale, valica la stessa nozione di scansione, in quanto permette di illuminare in istanti rapidamente successivi punti diversi del campione, grazie ad un diaframma costituito da un disco rotante dotato di un gran numero di forellini (disco di Nipkow).
Un altro strumento analogo per molti versi al CSOM è il SAM: Scanning Acoustic Microscope, nel quale la "sonda" che scansiona (o scandisce o scanna che dir si voglia) il campione è un fascio acustico focalizzato, emesso da un trasduttore elettro-acustico. Per onde acustiche ultrasoniche della frequenza di 3 GHz (l=0,5 micron) che si propagano in acqua (utilizzata perché è un mezzo molto denso che provvede in maniera eccellente alla propagazione delle onde sonore) la risoluzione è di circa 0,4 micron. Un vantaggio del SAM è la possibilità di analizzare l'interno di corpi opachi (ciò ha reso possibile esaminare e ricostruire la struttura interna delle celle di un alveare e di alcuni materiali compositi).
Ma il passo fondamentale per superare la barriera di Abbe è stato l'ideazione di una nuova categoria di microscopi a scansione detti a campo prossimo. Caratteristica di questi è l'interazione fisica, di varia natura a seconda dei casi, del campione con una sonda che opera appunto, diversamente dagli oggetti atti alla riproduzione dell'immagine nei COM (le lenti) in "estrema prossimità" del campione, espressione con la quale si può intendere generalmente una distanza di operazione inferiore ai 200 nm. Questa vicinanza permette, secondo diversi meccanismi, di raggiungere una risoluzione assai elevata, da cui anche la denominazione di microscopi a superrisoluzione.
2.4.3 SNOM (o NSOM)
La prima proposta di utilizzo di un microscopio a scansione a campo prossimo venne nel 1956 ad opera di J. A. O'Keefe, del Servizio Cartografico dell'esercito americano. Costui osservò che, illuminando una finissima apertura praticata in un sottile schermo opaco e spostando in un moto di scansione un oggetto molto vicino all'apertura (a distanza dello stesso ordine di grandezza delle sue dimensioni), sarebbe stato possibile, registrando la luce trasmessa attraverso la stessa, formare un'immagine del campione con risoluzione superiore alla lunghezza d'onda della radiazione impiegata, ma limitata soltanto dalla grandezza del foro. Così un diaframma del diametro di 10 nm, sufficiente per lasciar passare una radiazione abbastanza intensa per registrare un'immagine, poteva portare ad una risoluzione altrettanto elevata. Lo stesso O'Keefe osservava però che all'epoca non esisteva la tecnologia necessaria per produrre un moto così preciso del campione, ma, almeno sulla carta, era nato con lui il primo microscopio ottico a scansione a campo prossimo (Scanning Near-Field Optical Microscope, SNOM, chiamato indifferentemente anche NSOM, con inversione dei primi due termini).
Fig. 2.14: schema di base di un generico SNOM. Anche in questo caso il microscopio può funzionare sia in riflessione a ritroso nel cammino ottico attraverso l'apertura che in trasmissione.
In uno SNOM i fotoni trasmessi attraverso il diaframma (la posizione dei quali è definita con incertezza DX=D, diametro del diaframma) risultano in due distinte onde trasmesse: una sferica divergente, l'altra rapidamente decrescente con la distanza dalla sorgente, e praticamente nulla a distanze maggiori di D. Quest'ultima svolge un ruolo chiave nel funzionamento dello strumento. Infatti interferisce distruttivamente con l'altra, ovunque tranne che in vicinanza dell'apertura. La forma del fascio risultante complessivo è quella di un raggio collimato fino a una distanza D dal foro, quindi rapidamente divergente in un'onda sferica.
Il primo esperimento SNOM realizzato con successo risale al 1972, ad opera di E. A. Ash, che raggiunse risoluzione di l/200 con microonde di lunghezza d'onda l=3 cm, cioè risoluzione pari a 150 micron. Nello stesso anno R. Young in una conferenza al National Bureau of Standards mostrava, in connessione col suo lavoro su un altro tipo di microscopia (SFEM, Scanning Field-Emission Electron Microscopy) la nuova possibilità di ottenere un pilotaggio meccanico dei movimenti di scansione preciso su scale dei nanometri, tramite un sistema che sfruttava le proprietà piezoelettriche di alcune ceramiche, accoppiate ad un controllo basato su principi di feedback. Questo nuovo sistema si sarebbe rivelato come fondamentale nello sviluppo delle microscopie a scansione a campo prossimo.
La tecnica SNOM, ripresa e sviluppata nel 1986 da un gruppo di ricercatori americani, rimane oggi ancora valida nel campo delle applicazioni biofisiche della microscopia, in quanto può essere utilizzata sia in aria che sotto liquido, permettendo così una riproduzione non distruttiva di sistemi biologici funzionanti nel loro ambiente naturale, con una risoluzione confrontabile con quella del SEM. Recentemente infatti è stato dimostrato che l'uso combinato di uno SNOM con un microscopio ottico convenzionale può portare la risoluzione al limite dei 20-50 Å, più che sufficiente per molte applicazioni di interesse biologico. In un altro studio si è anche osservato un fatto nuovo, l'eccitazione in una "punta" SNOM di plasmoni (oscillazioni della densità di carica), che permette di affinare molto la sensibilità dello strumento e apre la strada a nuovi interessanti esperimenti ottici.
Varianti e successivi sviluppi dello SNOM sono il PSTM e il SPNM, descritti più avanti tra le vere e proprie microscopie a scansione a sonda.
2.5 L'ultima barriera: la risoluzione atomica
Superata la barriera di Abbe con l'ausilio delle tecniche di scansione, l'obbiettivo sulla strada delle nuove microscopie verso il raggiungimento di risoluzioni sempre maggiori si focalizzò gradatamente negli anni '80 sulla ricerca della risoluzione atomica reale ottenuta su immagini dirette del campione (senza passare per l'analisi nel dominio delle frequenze). Con l'espressione "risoluzione atomica" si intende indicare in generale la capacità di distinguere tra loro gli atomi adiacenti sulla superficie di un campione visualizzato. Questa nozione coinvolge cioè il potere risolutivo di un microscopio sul piano (X,Y) del campione sul quale esso opera, che dovrebbe essere pertanto dell'ordine dei 2-3 Å circa. In realtà però in microscopia si parla comunemente di risoluzione atomica nelle immagini "dirette" (cioè dello spazio reale e non delle frequenze) in un'accezione più lata del termine, riferendosi ad esempio, per quanto riguarda l'analisi di strutture cristalline, alla possibilità di misurare il passo reticolare, ricavandone il valore da immagini del campione dotate delle opportune caratteristiche di periodicità, senza per questo poter "vedere" precisamente i singoli atomi. Queste sono spesso immagini di pseudo-reticoli, generate dalla convoluzione col campione della sonda, sia essa un fascio elettronico o una vera e propria "punta", come nei microscopia a scansione a sonda. La risoluzione necessaria risulta allora meno elevata, ed il risultato dipende fortemente dalla "forma" della sonda (fascio o punta).
Fig. 2.15: immagine a risoluzione atomica realizzata con tecnica STM (vedere paragrafo 2.6.1) di un campione di C60, un interessante materiale cristallino (vedere paragrafo 4.6.2) le cui molecole sono costituite da 60 atomi di Carbonio. La dimensione laterale dell'area spazzata è di circa mezzo micron.
2.6 Introduzione delle sonde: SPM
Quanto più ci si spinge verso risoluzioni maggiori, tanto più diventa centrale il ruolo della "sonda" intesa come estremità appuntita di un oggetto fisico costituente il "sensore" del microscopio a scansione; nasce quindi la microscopia a scansione a sonda SPM (dall'inglese Scanning Probe Microscopy), denominata talvolta anche SXM, dove la X sta come ad indicare un'incognita, vista la varietà delle "sonde" di volta in volta impiegate nelle varie tecniche.
In realtà il termine sonda, in senso lato dal punto di vista del linguaggio comune ma a pieno titolo dal punto di vista scientifico della fisica, potrebbe essere ad ugual diritto attribuito a qualsiasi "entità", sia essa un oggetto materiale più o meno rigido o anche solo un "campo spaziale", che consenta di "sondare", per l'appunto, una certa regione del campione, traendone informazioni. In questo senso costituisce una sonda anche il fascio di elettroni di un microscopio elettronico, che non è un "corpo" nel senso comune, cioè pur essendo materiale non è un "oggetto" rigido, e perfino un fascio di luce di un microscopio ottico, che addirittura non è nemmeno materiale (i fotoni sappiamo che sono particelle di massa nulla). Tuttavia si intende per sonda, nel linguaggio ormai storicamente consolidato della microscopia, quello che si dovrebbe più propriamente indicare a volte con "stilo", e cioè un vero e proprio oggetto materiale rigido che presenta una punta, interagente col campione. Questo è pertanto il significato che cercheremo di dare noi nel seguito del presente testo a questo termine, se non quando direttamente specificato altrimenti, anche se, nonostante il nostro sforzo per essere precisi, una certa ambiguità rimane comunque, ad esempio quando vengono considerate (come normalmente avviene) facenti parte delle tecniche SPM anche le tecniche SNOM (paragrafo 2.4.3), PSTM e SPNM (sottoparagrafi 4.1.2.1 e 4.1.2.2, rispettivamente). Cioè normalmente accade che si tende ad identificare comunque due campi sovrapposti ma non così esattamente: quello della microscopia (a scansione) a sonda (o stilo) e quello della microscopia (a scansione) a campo prossimo, in quanto comunque in entrambe queste tecniche, diversamente da quelle storicamente precedenti (dette appunto talvolta a campo lontano), la sonda è posta nell'immediata vicinanza del campione da analizzare, come sarà meglio specificato nel capitolo 3.
Nei due paragrafi finali di questo capitolo ci accingiamo soltanto ad introdurre le due tecniche SPM principali, fornendo in questa sede solo le informazioni di base circa i fenomeni fisici di interazione punta-campione su cui esse si basano, e rimandando al capitolo successivo per tutti i necessari approfondimenti sulle particolarità di implementazione ed operatività di queste tecniche.
2.6.1 STM
Il microscopio a scansione a effetto tunnel elettronico STM (Scanning Tunneling Microscope) è stato in effetti il primo strumento del genere ad utilizzare una "sonda" nel senso appena specificato di stilo o punta, e ad essere in grado, al contempo, di fornire immagini a risoluzione atomica. La ragione che ha permesso il raggiungimento di questo risultato è la forte dipendenza del segnale (corrente di tunnel) dalla distanza del campione (vedere la relativa equazione più sotto), la quale consente una risoluzione verticale eccezionale (inferiore ai 10-3 Å). Questa elevatissima risoluzione verticale permette di distinguere tranquillamente la differenza in distanza Z sul campione tra un atomo sottostante la punta e la "valle" circostante frapposta tra questo e un atomo adiacente, fornendo un meccanismo per la loro distinzione, (sappiamo infatti che gli atomi adiacenti sulla superficie di un cristallo possono essere visti come "palline" disposte in una griglia regolare: il reticolo cristallino). È chiaro tuttavia che risulta determinante (come peraltro in tutte le tecniche SPM) l'"affilatezza" della punta, che dev'essere anch'essa, almeno nella parte terminale, dello stesso ordine di grandezza delle dimensioni atomiche.
Il principio fisico su cui si basa lo strumento è l'effetto tunnel elettronico, fenomeno di natura quantistica che si verifica quando le propaggini estreme di due corpi sono tanto vicine (a circa 1 nm di distanza) che le funzioni d'onda (e cioè gli orbitali atomici) degli atomi eterogenei più prossimi si sovrappongono sensibilmente. In queste condizioni le nubi elettroniche dei due corpi accostati sono in grado di scambiarsi elettroni, che pilotati da un'opportuna differenza di potenziale (da 10 mV a 1 V) possono fornire un flusso netto di corrente elettrica, ben individuabile anche se piccola (da 1 a 10 nA). La grandezza teorica che caratterizza la disponibilità di elettroni per il tunneling è la LDOS (Local Density of States), ovvero la densità locale dei livelli elettronici nei reticoli atomici dei materiali cristallini, cioè la popolazione di questi livelli. La ragione ultima del fenomeno è il principio di indeterminazione caratteristico della meccanica quantistica, in base al quale, diversamente dalle conclusioni della meccanica classica deterministica, valide in genere su scale superiori di alcuni ordini di grandezza a quelle delle dimensioni atomiche, una particella di energia nominale E ha una probabilità non nulla di superare una barriera di potenziale V anche se V>E, posto che appunto l'indeterminazione (incertezza o errore) DE sull'energia E della particella sia ovviamente maggiore della differenza V-E.
La situazione tipica è quella di una doppia interfaccia metallo-isolante (si parla talora di giunzione MIM, cioè metallo-isolante-metallo), in cui l'energia potenziale di un elettrone è schematizzabile con la configurazione in Fig. 2.16.
Fig. 2.16: schema dell'energia potenziale di un elettrone in una giunzione MIM. Quella che si crea in corrispondenza del gap (intervallo o salto tra i due poli) in condizioni ideali è una barriera di potenziale trapezoidale.
La corrente che passa attraverso una barriera di questo tipo, opportunamente polarizzata, dipende dalla tensione di polarizzazione (V bias) V, dall'ampiezza del gap s, e dalle caratteristiche dei metalli, cioè dalle loro funzioni lavoro f1 e f2, grandezze che esprimono l'energia di estrazione che occorre fornire (ovvero il lavoro che è necessario fare) per tirare fuori un elettrone dal dato metallo. In un caso semplificato in cui i due metalli sono uguali e la barriera rettangolare, il moto dell'elettrone (descritto quantisticamente dall'equazione di Schrödinger indipendente dal tempo) può essere integrato analiticamente (cioè risolto determinando le formule che lo descrivono) in modo esatto, e per la densità di corrente di tunnel che passa attraverso il gap si ricava la seguente relazione:
dove A indica un'opportuna costante moltiplicativa, f la funzione lavoro del metallo comune, è come definita nella sezione 2.2, e V ed s sono la tensione di polarizzazione e l'estensione spaziale del gap unidimensionale di cui sopra, rispettivamente.
Realizzare l'analisi microscopica della superficie equivale a ricavare la relazione inversa s(IT), noti che siano tutti gli altri parametri.
I vincoli per la validità della relazione sopra riportata sono che l'"energia di bias", definita come eV (con e carica dell'elettrone) dev'essere molto minore della funzione lavoro, (che per i metalli più comuni vale circa 4 eV, il che comporta che non si devono applicare tensioni superiori al centinaio di mV). Inoltre lo spessore della barriera s non può essere diminuito a piacimento, ma presenta un limite inferiore di circa 1 nm (mentre il superiore non raggiunge i 10 nm, per questioni di sensibilità dei nanoamperometri a disposizione).
Fig. 2.17: mappa della corrente di tunnel IT in funzione della distanza dal campione (spessore di barriera) s, per un valore tipico di funzione lavoro del campione f (pari a 4.3 eV), in corrispondenza di vari valori della tensione di polarizzazione applicata V.
Il primo tentativo di utilizzare una debole corrente nella microscopia a scansione risale al 1972: lo strumento in questione si chiamava Topografiner, e, consentendo una risoluzione laterale di 400 nm e verticale di 3 nm, costituiva già un buon passo avanti nell'analisi profilometrica standard dei materiali, se si considera che i limiti raggiungibili da un ordinario profilometro ad ago (come il Talysurf) sono infatti di 25 nm per la risoluzione verticale e più di 1 micron per quella orizzontale. Circa nove anni dopo nasceva l'STM.
L'effetto tunnel nell'STM si verifica tra una sonda metallica appuntita, generalmente di Tungsteno (W) o di una lega di Platino-Iridio (Pt/Ir), e il campione da visualizzare, costituito da un materiale conduttore o almeno semiconduttore. Essenziale per il buon funzionamento dello strumento è poter disporre di un apparato di spostamento e controllo della punta (o del campione) che permetta un preciso moto di scansione sul piano di appoggio del campione, con in più la possibilità di spostamento anche nella direzione normale. Le capacità di spostamento sono fornite da un microposizionatore piezoelettrico, mentre il controllo (quando necessario) viene assicurato da un sistema elettronico che agisce all'interno di un ciclo di feedback; ma tutte queste caratteristiche (peraltro comuni anche alle altre tecniche SPM) saranno esaminate nel dettaglio nel capitolo 3.
I limiti dell'STM sono essenzialmente due:
la necessità di disporre di campioni conduttori o almeno semiconduttori di per sé, o resi tali dalla deposizione su di essi di sottili film conduttori, (talvolta sono usati invece substrati conduttori, con campioni sufficientemente fini da essere attraversati dalla corrente, un po' come in un microscopio ottico in trasmissione o in un TEM);
la quasi necessità di operare in ambienti particolari (vuoto o atmosfera controllata, con la quale s'intende una camera piena di azoto che vi fluisca a flusso costante proveniente da una bombola), se si vuole eliminare o ridurre fortemente l'effetto di contaminanti che, almeno nel modo a quota costante, generano una variazione della funzione lavoro f del "campione", impedendo così un'esatta misura di variazioni topografiche.
D'altro canto l'STM permette (con l'uso di tecniche di modulazione periodica e rivelazione in fase) di ottenere anche informazioni di carattere spettroscopico e chimico, oltre al rilievo topografico, rendendo anzi distinguibili, tramite le funzioni lavoro, le contaminazioni tra questi due tipi di effetti; tali variazioni alla tecnica base saranno brevemente descritte nel paragrafo 4.1.1.
2.6.2 AFM
Il microscopio (a scansione) a forza atomica AFM (Atomic Force Microscope) si presenta oggi, anche alla luce di un bilancio dei primi 13 anni di utilizzo, come il migliore prodotto dell'evoluzione dell'STM. Anche con l'AFM è stata raggiunta la risoluzione atomica sul piano di scansione, testimoniata in una gran varietà di materiali, e la risoluzione verticale è anche qui inferiore all'Ångström (benché per ottenere queste prestazioni spinte siano richiesti particolari metodi di rivelazione del segnale, in modo da minimizzare il rapporto segnale rumore, ed anche una buona dose di pazienza da parte dell'operatore nel corso degli esperimenti).
Dalla data di nascita lo strumento si è diffuso progressivamente sempre di più anche sotto il nome di SFM ovvero Scanning Force Microscope, nell'accezione più vasta quindi di microscopio a scansione "a forza", dove cioè si intende porre l'accento sui molteplici effetti di forza presenti nella sua interazione punta-campione, effetti che saranno trattati nel capitolo 3. In particolare una forza presente nell'AFM/SFM su cui si è focalizzato nei primi anni '90 l'interesse della comunità scientifica SPM internazionale è quella di attrito dinamico (vedi sottoparagrafo 3.3.2.6).
In questo paragrafo ci accontentiamo di esporre le caratteristiche necessarie per una descrizione dello strumento di carattere generale. Nell'AFM la sonda è una piccolissima levetta (microleva) elastica, di lunghezza dell'ordine del centinaio di micron, fissata ad un'estremità e in contatto col campione con l'estremità opposta, libera di muoversi a piegare (deflettere) il corpo della leva. In particolare l'estremità libera della levetta presenta al di sotto una punta, che è la vera sonda in contatto col campione: si tratta in fondo di una configurazione analoga a quella della puntina di un giradischi che legge i solchi di un disco (cioè qui le asperità topografiche di un campione), essendo collegata al piatto del giradischi tramite l'apposito braccio, (qui al corpo dello strumento tramite la levetta). Per meglio comprendere la geometria si rimanda all'immagine di microleva AFM triangolare riportata in copertina. La grandezza misurata nell'interazione sonda-campione (ed utilizzata quindi per la composizione dell'immagine) è la deflessione della levetta.
Aldilà della diversa natura della sonda, le differenze sostanziali dell'AFM con l'STM dal punto di vista strumentale sono pertanto due:
in questo caso sonda e campione sono in diretto "contatto", e quindi la natura dell'interazione è assai più complicata, data la gran varietà di forze fisico-chimiche agenti all'interfaccia (vedere paragrafo 3.3.2);
il microscopio necessita di un modulo in più, cioè il sistema di rivelazione della grandezza misurata, in quanto, se la corrente nell'STM è facilmente rilevabile, semplicemente inserendo un nanoamperometro sufficientemente sensibile ed accurato nel circuito stesso di generazione del segnale, non altrettanto si può dire della deflessione della microleva, che va misurata indipendentemente.
Al fine di misurare la deflessione sono stati sviluppati diversi metodi (paragrafo 3.3.1), dei quali il più comune è tuttavia quello descritto nella figura seguente. Ivi un fascio laser viene riflesso dal dorso della cantilever e provoca spostamento del suo spot luminoso su uno schermo, come nella misura della torsione di una bilancia di Cavendish, dove si usa un vero e proprio specchietto, qui sostituito dalla microleva che dev'essere riflettente. Lo "schermo" in questo caso " un fotorivelatore a due elementi fotosensibili indipendenti, accoppiati in maniera differenziale, in modo che lo spostamento su di esso rispetto al centro dello spot luminoso produca una corrente elettrica in uscita ad esso proporzionale, che costituisce la misura delle movimentazioni Z della levetta.
Fig. 2.18: la deflessione della levetta può essere agevolmente misurata in maniera indiretta tramite lo spostamento di un fascio laser riflesso dal dorso della sua estremità libera. Lo spot luminoso del fascio termina su un elemento di rivelazione fotosensibile costituito da un fotodiodo (Photo Sentitive Photo Diode), cioè un dispositivo che illuminato emette una corrente in un solo senso, e trasforma quindi la deflessione in un segnale ancora una volta elettrico come nell'STM.
Dal punto di vista dell'utilizzo sui campioni la differenza fondamentale con l'STM è invece, ovviamente, che L'AFM permette, praticamente con la stessa risoluzione dell'STM, di operare con materiali non conduttori. Inoltre l'affinamento delle tecnologie di produzione delle levette e di realizzazione dei sistemi elettronici di controllo ha portato ad operare a deflessioni cioè forze di contatto sempre più basse (oggi fino a 10-10 N), e ancora meglio si può fare eliminando noise, effetto di contaminanti e forze di menisco negli AFM che operano sotto liquido. In tal modo si apre a questo strumento la via dell'analisi di campioni biologici non conduttori e molli, come ad esempio cromosomi e proteine.
Ma non mancherà l'occasione per approfondire tutti i concetti strumentali e applicativi dell'AFM testé accennati nel capitolo successivo.