L'era della microscopia a scansione a sonda (vedi sezione 2.6) si apre ufficialmente nel 1981, anno in cui G. Binnig e H. Röhrer, due ricercatori dell'IBM di Zurigo, ideavano e realizzavano uno strumento che cinque anni dopo avrebbe procurato loro il premio Nobel per la Fisica: L'STM. Nello stesso anno del conferimento di tale premio Nobel sarebbe stato inventato, sempre da G. Binnig in collaborazione stavolta con C. Quate e C. Gerber, un nuovo microscopio a scansione a sonda derivato dal primo: l'AFM. Oggi, a distanza di meno di vent'anni esistono varie decine di strumenti generati dall'evoluzione di questi due capostipiti, che restano comunque i due tipi fondamentali di SPM, ed almeno una decina di importanti produttori internazionali di questi strumenti (vedi sezione 4.5), con varie migliaia d'installazioni nei laboratori di ricerca di tutto il mondo.
3.1 Caratteristiche generali
Nel capitolo 2 sono stati riportati brevemente i principi fondamentali alla base di queste due tecniche di base della microscopia a scansione a sonda, senza entrare nel merito delle varie modalità operative. In questo capitolo viene affrontata nel dettaglio la relativa descrizione, ponendo in particolare grande attenzione alla descrizione delle caratteristiche fisiche comuni e distinte, per cui sono evidenziate le analogie e le differenze tra STM e AFM, sempre distinguendo sia l'aspetto fisico (principi di funzionamento), con cenni di teoria elementare, che a quello sperimentale pratico-operativo (modalità d'operazione e artefatti nei risultati). Il risultato è una panoramica concisa ma esauriente dedicata a coloro che non sono pratici delle tecniche in questione. Vogliamo quindi, innanzitutto, prima di entrare nel dettaglio dei vari strumenti, introdurre qui alcune caratteristiche generali a loro comuni.
3.1.1 Il principio di funzionamento
La microscopia a scansione a sonda (detta anche a stilo o a campo prossimo) si basa sulla possibilità di effettuare scansioni tridimensionali della superficie di un campione tramite una sonda, che interagisce localmente con esso. La diversa natura dell'interazione (e quindi le caratteristiche della sonda) da luogo alle numerose varianti dei microscopi a scansione a sonda, (SPM, Scanning Probe Microscopy). Gran parte dei concetti di funzionamento sono tuttavia comuni alle varie implementazioni.
Sostanzialmente, dopo aver posto la sonda in prossimità del campione quando non addirittura in contatto (si parla comunque di distanze 200 nm), si misura l'interazione di questa con la superficie del campione in corrispondenza di vari punti (X,Y), relativi al piano di base del campione. La sonda viene spostata tra questi punti con un movimentatore adeguato, in modo da percorrere un movimento detto "raster", come in Fig. 3.1. Spesso inoltre le righe percorse nei due versi opposti vengono utilizzate per collezionare due diverse immagini, dette forward e backward, utilizzate per verifica incrociata l'una dell'altra e per altre considerazioni, come la misura dell'attrito (vedere sottoparagrafo 4.2.1.1). In questo modo viene "rastrellata" tutta la superficie d'interesse del campione, all'interno di una determinata area selezionata (si parla di "spazzata", per la dimensione lineare del tipico riquadro quadrato della superficie di scansione).
Fig. 3.1: il movimento relativo sonda-campione in un generico SPM. Si tratta di uno spostamento simile a quello del pennello elettronico in un tubo catodico (ad esempio un oscilloscopio o un normale televisore), e come quest'ultimo consente di ricavare un'immagine completa da un insieme di punti.
L'entità dell'interazione, quale che essa sia, dipende essenzialmente dalla distanza punta-campione, oltreché, ovviamente, da eventuali fenomeni chimici locali. Pertanto, mappando l'intensità dell'interazione lungo i suddetti punti si può ottenere un'immagine del campione. La distanza tra i punti campionati determina la risoluzione dell'immagine.
3.1.2 Il movimentatore piezoelettrico
Un componente fondamentale di ogni microscopio a scansione SPM è il trasduttore (detto anche movimentatore o attuatore) che serve a muovere il campione rispetto alla punta nel modo desiderato. Questo componente deve essere in grado di eseguire spostamenti nel range di alcuni micron con precisione dell'ordine dell'Ångström, in modo da permettere di raggiungere la risoluzione atomica. I trasduttori piezoelettrici sono i candidati ideali per questo compito.
L'effetto piezoelettrico, scoperto da P. Curie nel 1880, è la capacità di certi materiali cristallini di sviluppare una carica elettrica quando subiscono una deformazione, mentre l'effetto piezoelettrico inverso è la capacità di deformarsi proporzionalmente al potenziale applicato. Questi effetti si riscontrano in alcuni cristalli naturali (come quarzo e sale di Rochelle) e non (diidrogeno fosfato di ammonio) ma anche in alcune ceramiche ferroelettriche. La maggior parte delle ceramiche piezoelettriche cristallizzano con una struttura a perovskite, (vedere la figura successiva).
La struttura cubica in figura viene assunta stabilmente al di sopra di una certa temperatura nota come temperatura di Curie; in questo caso il materiale non presenta dipoli. Al di sotto della temperatura di Curie, invece, la cella unitaria (quella parte elementare che si ripete a formare il cristallo macroscopico, vedi "Introduzione alla Fisica dello Stato Solido") acquista una simmetria tetragonale, in cui i siti delle cariche positive e negative non coincidono più, e questo porta alla creazione di un dipolo elettrico, che può essere invertito o inclinato tramite un certo campo elettrico: i materiali piezoelettrici sono quindi di natura ferroelettrica (cioè posti in un campo elettrico si polarizzano elettricamente generando a loro volta un campo nello stesso verso di quello applicato). La differenza con gli altri materiali ferroelettrici sta nel fatto che, alla creazione del dipolo (e quindi del campo di dipolo), si accompagna una deformazione del cristallo. Per ottenere un effetto piezoelettrico nell'intero cristallo occorre comunque ordinare i domini di Weiss (piccole porzioni mesoscopiche, cioè di dimensioni intermedie tra micro e macroscopiche, che si orientano) attraverso un processo di polarizzazione operato tramite l'esposizione ad un forte campo elettrico: quando il campo viene rimosso i dipoli rimangono bloccati e la ceramica acquista una polarizzazione ed una deformazione permanente.
Fig. 3.2: la struttura a perovskite, tipica delle ceramiche piezoelettriche, presenta una cella unitaria cubica con otto cationi (ioni positivi, che vanno verso un ideale catodo, polo negativo) bivalenti sui vertici, un catione tetravalente più piccolo al centro, e sei anioni (ioni negativi) ossigeno al centro delle facce.
Sono stati sviluppati ed esistono in commercio trasduttori piezoelettrici di diverse caratteristiche, che consentono la movimentazione voluta. In particolare due geometrie nel corso del tempo hanno trovato fortuna, quella a tripode, storicamente anteriore ma rivalutata di recente, e quella, più comune, cilindrica, si veda la figura seguente.
Fig. 3.3: l'aspetto di alcuni movimentatori piezoelettrici: a) struttura a tripode, in cui ciascuno dei tre parallelepipedi fornisce lo spostamento lungo l'asse relativo, in maniera indipendente, e b) struttura a cilindro. In quest'ultima la polarizzazione elettrica che garantisce lo spostamento avviene grazie ad un sistema di elettrodi esterni divisi in quattro quadranti, accoppiati gli uni con gli opposti in configurazione detta differenziale (cioè con applicazione di tensioni +DV ad uno, -DV all'opposto). All'interno è inoltre presente un elettrodo cilindrico Z unificato, che si estende lungo tutto il tubo.
3.1.3 Il sistema di feedback
Abbiamo detto che l'informazione base della microscopia, cioè quella sulla morfologia del campione (detta topografia) viene ricostruita dalla misura di un segnale che dipende in maniera critica dalla distanza sonda-campione. Tuttavia una precisa legge intensità-distanza per la grandezza rilevata risulta spesso esistere solo entro una determinata zona di lavoro intorno al punto ottimale prefissato (il Setpoint o Reference) del valore iniziale dell'interazione, e quindi della distanza. Spesso se ci si sposta in maniera critica da questo punto, uscendo da un certo intervallo (range) consentito, si incontrano problemi d'interpretazione delle immagini, danneggiamento dei campioni e talora anche dell'apparato SPM (sostanzialmente la sonda). Pertanto il segnale d'interazione punta-campione viene raramente rilevato ed utilizzato per costruire l'immagine "ad anello aperto", ma piuttosto si usa generalmente un sistema in cui è stato inserito un ciclo di feedback che lo tiene costante. Il dettaglio di queste due fondamentali modalità d'operazione (con o senza feedback) ed i relativi pro e contro sono profondamente dipendenti dalla diversa natura degli strumenti, se STM ed AFM, e sono pertanto affrontati successivamente (si vedano i paragrafi 3.2.1 e 3.3.3). Tuttavia giova qui introdurre le caratteristiche fondamentali del sistema di feedback, comune ai due strumenti, anche perché dal funzionamento di questa parte essenziale dei microscopi a scansione a sonda possono derivare alcuni artefatti riscontrabili nelle immagini ottenute.
Fig. 3.4: a) diagramma a blocchi di un generico controllo in ciclo di feedback di tipo PID, con b) la rappresentazione schematica della risposta in frequenza delle ampiezze delle tre componenti Proporzionale (P), Integrale (I) e Derivativa (D). Come s'intuisce, I e D servono ad isolare ed evidenziare le frequenze tipiche dei profili del campione rispetto a quelle troppo basse (che possono essere derive del segnale Z) o alte (essenzialmente rumore di vario tipo). P serve invece principalmente per fornire un primo impulso forte ("shot") e indipendente dalla frequenza in modo da annullare istantaneamente gran parte dell'errore, poi "rifinito" dalle componenti del feedback sensibili alla frequenza.
I sistemi di feedback più comunemente utilizzati, non solo nella microscopia SPM, sono controlli di tipo PI, cioè Proporzionale e Integrale. Più raramente si incontrano sistemi PID dove è presente un'ulteriore componente, detta Derivativa. Questo significa che il segnale originale rilevato, denominato "errore" (E) in quanto viene misurato come deviazione dal Setpoint che si vuole mantenuto costante dal circuito di controllo in feedback, viene separato in più canali, ognuno trattato con una caratteristica risposta in frequenza, e cambiato di segno, in quanto lo scopo è appunto annullare l'errore.
Il feedback Proporzionale risponde ad un segnale d'errore E generando un segnale ad esso proporzionale (ed opposto), P = -pE. È evidente che quindi si tende sì ad annullare l'errore, ma in maniera che mai potrà portare ad una situazione di equilibrio stabile: col solo P si avrebbe una continua oscillazione intorno al setpoint, perché non appena p supera 1, E semplicemente cambia di segno. Occorre quindi una componente che consideri la media delle deviazioni nel tempo, e questo ruolo è svolto dal feedback Integrale, che risponde, in linea di principio, con un segnale I = (1/ti) E dt, cioè reagisce in effetti alla media della deviazione su di un tempo caratteristico ti che costituisce un parametro proprio della data componente. Quindi, diversamente dal P, che ha un parametro p che regola solo l'intensità della risposta, in I il parametro ti entra sia come 1/ti a fattore di proporzionalità che come estensione dell'intervallo temporale su cui si somma l'E cui si vuole reagire, il che ha un effetto molto importante sulla qualità delle immagini; infatti è evidente che a seconda del tempo sul quale si integra l'errore E questo può risultare nullo, se ha in quel periodo tante variazioni positive quanto negative che danno media nulla, o anche molto diverso da zero.
In pratica il filtro Integrale è assimilabile ad un circuito RC Integratore (R e C stanno per resistenza e condensatore, vedi figura successiva, parte a)), che ha una precisa risposta in frequenza e risulta essere un filtro passa-basso. Il fatto di "addolcire" la reazione del Proporzionale con una componente che tiene conto delle variazioni dell'errore su intervalli di tempo, consente in pratica, come si può ben intuire, di ottenere la convergenza del sistema, cioè la situazione in cui, per un set di parametri di feedback (P,I) funzionante, risulta che E tende a zero per t (istante temporale attuale) che tende a infinito; non solo, si spera di avere una convergenza del segnale entro periodi ragionevolmente limitati, dell'ordine di tempi pari appunto al tempo caratteristico ti, a parte qualche oscillazione (diciamo entro 2 o 3 ti). Spesso si descrive il comportamento tipico di un sistema PI in reazione ad un segnale d'errore a scalino (cioè, nel caso della topografia, ad un singolo "scalino" di salita, o discesa, del profilo di quota del campione). La risposta ad uno scalino, benché possa sembrare un caso molto particolare, in realtà può essere considerata come quella più generale, che ben descrive il sistema, in quanto ogni rilievo topografico, ad un ingrandimento sufficientemente elevato, può essere visto come un susseguirsi di piccoli scalini, (si ripensi al concetto di integrale); e in effetti si lavora sempre, anche con controller analogici, con segnali che hanno una risoluzione limitata (quella delle immagini, che deriva dalla frequenza spaziale di campionamento lungo la traiettoria punta-campione), e quindi le cui "pendenze" sono sempre approssimate da sequenze di piccoli scalini squadrati.
La terza componente del feedback cui si è accennato all'inizio come Derivativa dà un contributo da sommare all'errore pari a D = - td(dE/dt)|td (dove l'ultima parte sta per "calcolata all'istante td dopo l'istante iniziale, considerato zero"); cioè proporzionale ad una certa approssimazione della derivata temporale di E (in pratica il rapporto incrementale dopo un tempo td). Anche in questo caso il parametro proprio della componente, il tempo caratteristico td, determina due effetti: uno di fattore moltiplicativo ed uno che dice su quale intervallo di tempo si calcola la "derivata", che in realtà è sempre un rapporto incrementale finito. Il Derivativo svolge una funzione opposta a quella dell'Integrale: risulta essere di fatto un l'equivalente di un circuito RC derivatore cioè un filtro passa-alto, che privilegia le alte frequenze presenti nel segnale non filtrato. Infatti il risultato è che il Derivativo si usa raramente, non solo in microscopia SPM ma anche in diversi altri sistemi, in quanto le alte frequenze da esso privilegiate provengono spesso da rumore ed effetti di disturbo derivanti dall'ambiente (spike di natura elettronica o meccanica, vedi sottoparagrafi 1.2.2.4, 1.2.2.5), per cui la componente D tende a far divergere il segnale dal vero segnale dovuto al profilo del campione (mentre l'I è fondamentale in quanto lo fa convergere). È un po' come se D anticipasse e amplificasse le reali variazioni di E, effetto non sempre desiderato, se non per enormi valori di E. D'altronde con un Derivativo si evidenziano le vere porzioni di segnale ad alte frequenze, come ad esempio i bordi degli scalini, mentre con l'Integrale questi vengono sempre inevitabilmente più o meno stondati (blurring, di nuovo si vedano i sottoparagrafi di cui sopra).
Fig. 3.5: a) schema elettrico di un circuito RC integratore tramite il quale è possibile implementare la componente Integrale del feedback in maniera analogica. Si tratta di un filtro passa-basso con frequenza di taglio 1/ti, dove la costante tempo caratteristica in questo caso è ti=RC. b) Analogamente per un circuito RC derivatore (filtro passa-alto). La costante tempo td è sempre pari a RC. Questi filtri o componenti del feedback in un SPM sono oggi sempre più spesso realizzati in maniera digitale, tramite software integrato su chip, con metodi DSP (Digital Signal Processing).
3.1.4 Integrazione con un microscopio ottico
Una cosa è a questo punto opportuno osservare: l'impiego di un microscopio SPM non esclude l'utilizzo in parallelo di un microscopio ottico, anzi lo prevede quasi sempre, come strumento di appoggio combinato con esso.
Fig. 3.6: partendo da sinistra, in un tipico SPM (in particolare un AFM) home built si possono osservare il monitor del PC collegato allo strumento per l'acquisizione e la visualizzazione delle immagini; i moduli dell'elettronica di pilotaggio (scansione X-Y) e di controllo (feedback Z); la testa di misura (head) dello strumento, con un soprastante microscopio ottico.
Ad esempio nella figura precedente, dove è possibile distinguere per un tipico AFM non commerciale (ovvero "fatto in casa" come si suol dire anche in Inglese: "home built") i vari componenti principali (vedi legenda), fa bello spicco anche un elementare microscopio ottico.
Il microscopio ottico è sempre utile come accessorio di un SPM in quanto consente di osservare il posizionamento (X,Y) della sonda sul campione e di verificare la loro distanza relativa Z in fase di avvicinamento. È in particolare importante poter controllare dove si va ad interagire con la sonda sul campione, in modo da analizzare determinate porzioni di quest'ultimo, alla ricerca di informazioni specifiche (ad esempio in prossimità di un'area del campione che, al microscopio ottico, sembra oggetto di particolare interesse, per morfologia o colore). In pratica, cioè, è possibile in un certo senso utilizzare il microscopio ottico per posizionarsi in una zona microscopica del campione, e poi "zoomare" su di essa passando all'analisi SPM, su scala nanoscopica. Questo procedimento, utile specialmente per l'analisi di campioni biologici (che spesso presentano sub-unità particolari del campione sulle quali ci si vuole concentrare, come cellule, molecole, microorganismi, etc.), è rappresentato nella figura successiva, per un AFM.
Fig. 3.7: nelle immagini a sinistra si può vedere il biologo che osserva un determinato campione (nella fattispecie i domini determinati da microsfere di polistirene di diametro 250 nm che, in sospensione in una soluzione acquosa sgocciolata su un vetrino e poi essiccata, si sono disposte in chiazze vuote unite da contorni ricoperti) e l'immagine da lui osservata (diametro 400 nm). In questo caso l'utente è interessato ad analizzare con la sonda AFM (la punta sotto il vertice di una microleva triangolare) solo le "croste" cioè le zone occupate dalle sfere, che sono i bordi delle strutture nell'immagine ottica di cui sopra (fila inferiore, a sinistra), le quali tuttavia costituiscono una minima parte della superficie del vetrino. Quindi "centra" l'oggetto del suo studio con l'ausilio del microscopio ottico, e poi (immagini a destra) "passa" allo strumento SPM (qui AFM) per ottenere un'immagine locale a ingrandimento molto superiore, (quella che si vede è una schermata di un tipico software di acquisizione. La scansione era di 5x5 mm2.
3.1.5 Gli artefatti comuni nelle immagini STM-AFM
La conoscenza degli artefatti (artifacts) è fondamentale per non cadere in errori di interpretazioni delle immagini a posteriori, ed essere anzi in grado di apportare all'apparato le modifiche per minimizzare la loro influenza già durante le misurazioni SPM, (modifiche sulle quali si è dato qualche cenno generale in apertura della presente opera, si veda il paragrafo 1.2.2). Esistono artefatti comuni ad entrambe le tecniche STM ed AFM, ed altri artefatti che, pur potendo in linea di principio verificarsi in entrambe le tecniche, di fatto si manifestano in maniera specifica di ciascuna tecnica con modalità diverse. Nel presente paragrafo affronteremo i primi, lasciando questi ultimi alle sezioni dedicate separatamente alle microscopie STM e AFM.
3.1.5.1 Distorsioni del movimentatore piezoelettrico
I movimentatori piezoelettrici presentano un andamento tipico di risposta dello spostamento alla tensione applicata Di(Vi), con i = x, y o z, che può essere descritto teoricamente dal ben noto ciclo d'isteresi:
Fig. 3.8: andamento qualitativo del ciclo teorico di polarizzazione P o spostamento D (ad essa sostanzialmente proporzionale) di un generico piezoelettrico in funzione del campo E o della tensione V applicati, (all'interno delle parentesi sono riportate le unità di misura caratteristiche delle grandezze). La curva interna rappresenta l'andamento della prima polarizzazione, diversa dalle successive. L'area racchiusa dal ciclo è collegata all'energia dissipata dal sistema di alimentazione, che ha ordinato in maniera irreversibile (a parte l'ageing del piezo,) un certo numero di dipoli nel materiale.
Volendo analizzare questo andamento innanzitutto si nota che si tratta di una curva a tratti non lineari: a parità d'incremento di tensione V0, in corrispondenza di diverse zone di uno stesso ramo della curva (ad esempio quello inferiore) si possono avere incrementi di spostamento differenti, d e D: in particolare vicino al centro ("pancia") del ciclo d'isteresi la sensibilità apparente del piezoelettrico (Si=DDi/DVi, dove i = x, y o z e le delta rappresentano come sempre quantità associate ad ampiezze d'intervalli della grandezza in questione) è maggiore. Si parla di "nonlinearità intrinseca" dei movimentatori piezoelettrici, e l'effetto è appunto che, nella griglia ideale di campionamento coperta dal movimento raster di cui al paragrafo 3.1.1, alcuni punti in realtà non saranno equispaziati, come si può osservare dalla seguente immagine.
Fig. 3.9: griglia di calibrazione di Silicio con pitch 10 mm (scansione di un'area quadrata di lato nominale, ovvero Spazzata, 40 mm). Come atteso dalla curva d'isteresi del piezo, lungo l'asse di scansione X i riquadri appaiono sempre più larghi a inizio scansione (cioè a sinistra per l'immagine forward, a destra per la backward). Lo shift apparente tra le posizioni alle estremità è anch'esso dovuto ai diversi valori locali della sensibilità del piezo Sx=Sx(x). Tra gli altri artefatti si nota la differenza tra Sx e Sy (quest'ultima assai superiore), oltre ad ondulazioni lungo X dovute a noise elettronico o meccanico e a particelle di contaminanti; la riga in alto a destra è invece un graffio sulla griglia, lasciato per riferimento della posizione.
Inoltre, all'andamento in un verso (ad esempio, tensione crescente) corrisponde un certo ramo della curva (quello inferiore), e all'andamento nell'altro verso (tensione crescente) il ramo complementare del ciclo (ramo superiore). Quindi, benché vicino agli estremi i valori siano assai prossimi, tuttavia sempre in corrispondenza della pancia a parità di tensione ma per andamento opposto (crescente o decrescente) la punta si troverà in posizioni assai diverse. Questo comportamento ha un effetto particolarmente notevole soprattutto per la risposta del piezoelettrico lungo l'asse cosiddetto di scansione veloce (quello delle righe, cioè X), in quanto comporta un notevole shift (spostamento relativo) delle features (strutture caratteristiche) incontrate nelle immagini in prossimità del centro tra immagini forward e backward; questo shift può raggiungere fino al 15% della spazzata.
Un altro fenomeno di distorsione legato alla risposta dei piezoelettrici è il creep: si tratta sostanzialmente del ritardo con cui risponde il piezoelettrico, che, in corrispondenza di bruschi cambiamenti di tensione applicata, effettua lo spostamento in due porzioni, una prima, Ds, quasi istantanea, nel giro di pochi ms (millisecondi), ed una seconda, Dsc, in un tempo caratteristico molto maggiore. Il rapporto Dsc/Ds tra queste due porzioni raggiunge finanche il 20% in casi limite. Il fenomeno si manifesta in questo caso, contrariamente all'isteresi, in misura più eclatante all'occorrenza dell'inizio della scansione di una riga (dove si ha uno "scalino" di tensione Vx), e cioè in corrispondenza dei punti d'inversione forward-backward per la scansione sul piano (lungo X), mentre può avere effetti rilevanti anche lungo Z, nel rispondere a sollecitazioni dovute a strutture topografiche ben nette e di dimensioni elevate, ("scalini" veri e propri del campione, come ad esempio su un pattern di una sezione di chip di circuiti microelettronici integrati, dove si hanno salti topografici con spigoli netti, grazie alle tecniche di produzione, e relativamente alti, con dislivelli dell'ordine del micron).
L'effetto del creep su uno scalino topografico z è in pratica un fenomeno di creazione di un contrasto eccessivo ai bordi del tutto analogo a quello dell'overshoot (e/o undershoot) del feedback proporzionale (vedere più avanti la sezione 3.1.5.3).
Fig. 3.10: gli effetti del creep nella risposta di un movimentatore piezoelettrico alle brusche sollecitazioni. La traccia inferiore rappresenta la tensione applicata (che dev'essere comunque relativamente elevata, cioè prossima ai limiti superiori previsti dal movimentatore, per generare un creep sensibile), in pratica un finto "scalino" di natura direttamente elettrica, mentre la traccia superiore rappresenta lo spostamento compiuto dal piezo in risposta alla suddetta sollecitazione.
Fig. 3.11: a) il movimento caratteristico di un piezo cilindrico, amplificato notevolmente nel disegno per sottolinearne l'effetto, (in realtà la rappresentazione non è in scala in quanto il rapporto tipico tra spazzata e lunghezza del piezo è dell'ordine di 1:100). A fianco b) è possibile vedere l'immagine di un campione piatto, vetro, alla spazzata massima del piezo utilizzato (10 mm), che evidenzia, oltre ad una distribuzione uniforme di piccole strutture superficiali (grani), la superficie di sottofondo (background) comunemente sommata dal piezoelettrico a tutte le immagini, ma altrove nascosta da caratteristiche topografiche di superficie più eclatanti.
3.1.5.2 Deriva termica
Il fatto di non operare in un ambiente perfettamente termostatato provoca la dilatazione dei materiali che compongono la testa di misura. Le cause principali di assenza di equilibrio termico sono la mancanza di isolamento della camera di misura dall'ambiente esterno, che può subire variazioni di temperatura, e l'uso di lampade per l'illuminazione del microscopio, in fase di preparazione della misura, le quali riscaldano il corpo dello strumento. Il problema fondamentale è che la testa di misura è spesso composta da materiali eterogenei (alluminio, ottone, acciaio) che presentano coefficienti di dilatazione termica anche molto diversi, e comunque esistono geometrie particolari che si prestano, anche in caso di materiali omogenei, a variazioni relative di posizione tra le due estremità del cosiddetto "anello meccanico" SPM punta-campione, le quali variazioni possono essere di notevole entità rispetto alle dimensioni delle scansioni. Per esempio, in assenza di una stabilizzazione termica, cioè se si accende lo strumento (alimentatori ad alta tensione) e si pretende di effettuare subito misure utili senza attendere dei tempi adeguati di stabilizzazione, se si fanno due immagini consecutive, una seguita dall'altra da un tempo di 2-3 minuti circa, si possono ottenere particolari topografici shiftati tra le immagini di alcune centinaia di nanometri, il che corrisponde ad una velocità di drift (deriva) di circa 40 Å/sec, valore tipico. Normalmente la deriva termica diventa trascurabile permettendo allo strumento di "termalizzare", con tempi di attesa dell'ordine dell'ora. In ogni caso a risoluzione atomica, dove le ampiezze di scansione sono di poche decine di Ångström, gli effetti di deriva termica possono comunque cambiare completamente il punto di misura, o almeno deformare le caratteristiche del campione visualizzate, allungandole nella direzione del drift. In generale è possibile affermare che gli effetti della deriva termica si manifestano in maniera evidente quando il valore della velocità di drift non è trascurabile rispetto alla velocità punta-campione durante la scansione, cioè è confrontabile con essa, ovvero quest'ultima non è molto maggiore. Si può quindi intervenire aumentando la frequenza di scansione di riga fscan (numero di righe percorse al secondo), alzandola da valori tipici di qualche Hertz ai valori limite, superiori di un ordine di grandezza (decine di Hertz), il che è in genere sufficiente a grandi spazzate (dopo la termalizzazione), mentre a risoluzione atomica è possibile aumentare ulteriormente fscan di quasi un ordine di grandezza operando in assenza di feedback (vedere paragrafi 3.2.1 e 3.3.2), opzione resa possibile dal fatto che a risoluzione atomica anche i dislivelli Z sono molto ridotti, dell'ordine di pochi diametri atomici.
Fig. 3.12: in assenza di un'adeguata termalizzazione dello strumento, anche a spazzate relativamente grandi (400 nm in questo caso) la deriva termica mostra i suoi effetti, facendo vedere strutture topografiche (aggregati pressoché circolari) allungate nella direzione del drift relativo punta-campione. Dallo spostamento del medesimo punto da P in P', considerato che tra le due acquisizioni sono intercorsi (a fscan=4 Hz per un'immagine di 128x128 pixel) circa 35 secondi (128 righe / 4 Hz più 3 secondi di tempi morti), essendo la distanza P-P' circa 200 nm, si ricava una velocità di drift di circa 57 Å/sec. Il campione è un film sottile di rodopsina, una proteina.
3.1.5.3 Problemi del feedback
Occorre infine considerare che le immagini vengono ricostruite a partire dal segnale Z fornito al movimentatore piezoelettrico per annullare la variazione di segnale originale rilevato dalla sonda, cioè l'errore E, e non da questo stesso segnale originario (E). Quindi l'immagine presenta una caratteristica fondamentale che è la "fedeltà" al campione, requisito di base per la sua interpretazione, e questa proprietà dipende essenzialmente dalla bontà di funzionamento del sistema di feedback: quanto più fedelmente il piezo segue, con movimenti complementari, la variazione della topografia, tanto più l'immagine sarà innanzitutto una riproduzione ottimale del profilo del campione. Abbiamo già introdotto brevemente le caratteristiche generali di funzionamento dei più comuni sistemi di feedback (paragrafo 3.1.3), il che ci consente di comprendere le problematiche ad essi associate.
Ritornando ai problemi che si possono incontrare in un controllo PI non operante in maniera ottimale, gli artefatti consueti si hanno in caso di P troppo elevato (rispetto a I), per cui, prima che l'I provveda ad agire (il che avviene su un tempo circa pari a ti) il segnale cresce (o cala) troppo oltre il Setpoint, dando origine al cosiddetto overshoot, oppure, nel caso opposto di I troppo elevato (rispetto a P), causando un eccessivo arrotondamento dei profili netti (blurring), corrispondente ad una reazione che grava troppo "sulle spalle" del solo I, ed evidenzia il suo comportamento dipendente nel tempo (ovvero la risposta in ritardo), cosa che si manifesta visibilmente quando il tempo caratteristico ti è troppo elevato (feedback "lento"). L'overshoot genera in pratica bordi multipli (nel caso limite raro di più oscillazioni prima dello smorzamento) o almeno un bordo (picco) "extra" che si estende oltre al valore reale della struttura topografica, con un effetto apparente di "cicatrice", come se si avesse del riporto di materiale in eccesso al bordo dello scalino, e che quindi può essere confuso con una caratteristica reale del campione. Si parla di ghosting (striscia chiara sui bordi in salita, scura su quelli in discesa). Vista la sua sensibilità alla direzione del moto relativo, l'overshoot può essere tuttavia smascherato facilmente con un controllo incrociato delle immagini forward e backward. Tale effetto è lo stesso del creep (come visto più sopra), sul quale comunque in genere domina.
Una delle deviazioni pratiche che si riscontrano comunemente nelle immagini proprie della tecnica AFM rispetto al suddetto comportamento teorico generale è che l'overshoot "in salita" (o overshoot in senso stretto) è generalmente meno accentuato dell'overshoot "in discesa" (detto anche undershoot), in quanto nel primo caso si ha sempre la forza elastica della microleva che tende a compensare l'eccesso d'impulso fornito dal P, mentre nel caso opposto i due effetti vanno nella stessa direzione.
Tutti questi problemi e molti altri ancora, più specifici delle singole tecniche STM e AFM (paragrafi 3.2.2 e 3.3.4), possono essere affrontati e rimossi parzialmente col successivo trattamento delle immagini ottenute (vedi paragrafo 1.2.2), anche se è sempre meglio cercare di ridurli il più possibile già in fase di acquisizione dei dati.
3.2 L'STM nel dettaglio
Il microscopio può operare in diverse modalità, di seguito specificate.
3.2.1 Modalità operative STM
Innanzitutto definiamo, per negazione, quelle che ci proponiamo di classificare come modalità standard: intenderemo con questo termine tutte le tecniche non spettroscopiche (quali siano queste ultime sarà chiaro più avanti, nel capitolo 4).
In modalità standard l'utilizzo dello strumento può essere distinto ulteriormente in altre due (sotto-) modalità (vedere figura successiva), che andiamo a descrivere.
3.2.1.1 STM a "grandezza misurata" costante
Nell'STM la "grandezza misurata" che viene mantenuta costante è, evidentemente, la corrente: si è usata questa espressione particolare, benché non esista ambiguità (così come d'altronde per qualsiasi altro dato SPM) per stabilire un parallelismo con l'AFM e in generale con altre tecniche SPM descritte nei prossimi paragrafi, dove cambia di volta in volta la natura dell'interazione punta-campione e quindi la grandezza fisica rilevata come misura di questa. In questa modalità è necessario un controllo sulla posizione Z della parte in moto all'interfaccia oggetto dell'interazione (sonda o campione), al fine di mantenere costante la corrente tra i due "elettrodi" di tunnel; in questo caso è lo stesso segnale finale che va a guidare il piezoelettrico nel suo spostamento Z che riproduce la topografia del campione.
L'apparato necessario per scansione e controllo descritto in Fig. 3.14 è utilizzabile senza bisogno di modifiche in gran parte degli altri microscopi a scansione SPM, a partire dall'AFM. Lo schema a blocchi ivi rappresentato acquista pertanto rilevanza centrale nella comprensione del modo di rilevamento "a grandezza costante", caratteristico delle microscopie a scansione.
Fig. 3.13: modi standard di operazione di un STM: a) a quota costante e b) a corrente costante, con relativa rappresentazione delle grandezze di Input ed Output del sistema "microscopio" nei rispettivi casi. Il vettore X rappresenta il punto (X,Y) sul piano di scansione.
Con riferimento alla Fig. 3.14 possiamo dire che quando durante la scansione varia il gap e quindi la corrente di tunnel IT si discosta dal valore prefissato Iref (il Setpoint o Reference), che corrisponde ad un segnale in uscita dal convertitore corrente-tensione pari a V0, la tensione in ingresso al modulo di controllo Ve (tensione corrispondente al segnale d'errore E) è diversa da zero, e indica di quanto il sistema si è allontanato dalla situazione voluta di corrente costante. Il sistema di feedback deve allora reagire in modo da spostare la posizione Z relativa punta-campione così da riportare il valore di corrente a quello prefissato, ed annullare Ve.
Tutto questo viene realizzato in un certo tempo che si vuole il più breve possibile, cioè il sistema di feedback deve essere piuttosto veloce, se si vogliono realizzare velocità di scansione (e quindi di variazione del segnale da riportare al valore di riferimento) elevate, (a numero di punti campionati fissato, ad esempio 256 per riga di scansione; si consideri che i valori massimi della frequenze di campionamento si aggirano di norma intorno ai 10 kHz).
Il metodo "a grandezza costante" è generalmente preferito perché il sistema di feedback consente di evitare che variazioni topografiche molto elevate che possono essere incontrate sul campione (fino ai micron) comportino l'urto della punta con la superficie del campione stesso, (ricordiamo che la punta deve sorvolare la superficie a distanze dell'ordine del nanometro, un ordine mille inferiori). L'urto rovinerebbe la punta, compromettendone il successivo utilizzo. D'altronde, perché il feedback possa operare correttamente occorre che esso riesca a reagire alla variazione di quota del punto del campione sorvolato in un tempo minore al tempo di spostamento della sonda su un nuovo punto di campionamento. In questa modalità pertanto la frequenza di scansione di riga fscan selezionabile è limitata superiormente dalle prestazioni del circuito elettronico di feedback, per cui valore limite tipico può essere dell'ordine di 10 Hz, che, per un immagine di risoluzione tipica pari a 256x256 pixel corrisponde ad un tempo di acquisizione di 256 righe / 10 righe/sec = 26 sec circa.
3.2.1.2 STM a quota costante
Se si decide di disattivare il sistema di controllo in feedback, e si esegue la scansione mantenendo fissa la posizione z della punta, cioè lavorando a quota costante, è la corrente misurata che passa nel circuito di rivelazione che fornisce direttamente la stima dei rilievi topografici presenti sul campione. Questo metodo di utilizzo dello strumento è conveniente su piccole aree di analisi dei campioni, dove la corrugazione massima è minore di 10 Å, e non si rischia quindi di impattare il campione con la punta, rovinandola. Il vantaggio di tale modalità è che, non avendo bisogno di attendere l'assestamento del sistema durante il moto a particolari condizioni operative, consente di eseguire la scansione a grande velocità (da standard TV in su), con la possibilità di ottenere immagini in tempi rapidissimi, quasi fossero "istantanee" del campione, evitando quindi problemi come ad esempio la deriva termica (sottoparagrafo 3.1.5.2), sempre notevoli a piccole spazzate, soprattutto su scala della risoluzione atomica. Il limite superiore imposto alla frequenza di scansione in questo caso è infatti soltanto quello dovuto alle risonanze meccaniche delle varie componenti, in particolare il movimentatore piezoelettrico, che sono dell'ordine dei 10 kHz.
Fig. 3.14: schema a blocchi di un STM. Un ruolo critico viene svolto dal modulo elettronico di controllo della posizione Z della punta (ovvero della distanza dalla base del campione) in ciclo di feedback (vedere Fig. 3.13 a) per dettagli). V0 è il Setpoint o Reference, valore a cui si vuole mantenere costante il segnale VT, mentre Ve è il segnale d'errore. Si osservi che nell'STM generalmente viene spostata la punta, per ragioni di facilità costruttiva e di basso carico meccanico (piccola massa il che implica inerzia trascurabile) sul movimentatore piezoelettrico.
Il metodo a quota costante risulta però sensibile alla presenza sulla superficie del campione di vapore acqueo o di altri contaminanti, nei quali la punta può affondare durante il suo rapido moto pur senza risentire di forze repulsive elevate come nell'hard-contact col campione vero e proprio, generalmente un solido cristallino o comunque un materiale piuttosto rigido. In queste condizioni (come evidenziato in Fig. 3.13 a)) quello che si rivela con l'STM è veramente più una convoluzione di topografia e funzione lavoro del campione che non la semplice topografia di questo.
È possibile in realtà realizzare una configurazione mista dei due metodi altezza/corrente costante, operando con il circuito di feedback inserito ma sensibile esclusivamente alle lente variazioni del segnale, in modo da rivelare a quota costante le piccole corrugazioni locali fino ai 100 nm ed evitare però l'hard-contact quando si presentino pendenze che conducono a forti dislivelli, perché si segue l'andamento medio della superficie. Questo metodo è però poco usato perché in sostanza si sa che a dimensioni atomiche le corrugazioni sono di altezza atomica, e non danno inconvenienti. Invece su lunga distanza la pendenza media del campione o le sue corrugazioni su grande scala possono creare dislivelli grandi. Perciò un feedback lento dà buoni risultati, risultando però la misura fatta come a quota costante.
3.2.2 Artefatti specifici STM
La tecnica STM, oltre agli artefatti SPM comuni descritti nel paragrafo 3.1.5, si presta a generare nelle immagini altri effetti di disturbo, di seguito analizzati.
3.2.2.1 Contaminanti
Gli ambienti di utilizzo STM più comuni sono aria e vuoto. Quest'ultimo consente di evitare la presenza di contaminanti, e quindi non permette a nessuna molecola di frapporsi tra punta e campione. Al contrario in aria, dove si può incontrare la presenza di un gas o di un vapore nell'ambiente, anche se molto rarefatti, è comune avere particelle di questi contaminanti gassosi che si sono depositate sul campione (adsorbimento) ed hanno pertanto alterato chimicamente la superficie del materiale analizzato, con conseguente effetto sulla misura STM tramite la funzione lavoro f. Una delle sorgenti di contaminazione più comune e deleteria per le immagini STM è l'umidità, ovvero la presenza di semplice vapore acqueo, che forma sulla superficie del campione una pellicola di alcune centinaia di Ångström.
Questo problema affligge, in maniera diversa (più meccanica che chimica) anche le misure AFM; si veda la discussione delle forze in gioco nell'AFM al paragrafo 3.3.2.
Un altro effetto, sempre di natura chimica, provocato dall'umidità, consiste nell'ossidazione precoce delle superfici da analizzare. Anche questo provoca un'alterazione locale del campione "visualizzato" dallo strumento (tramite f), giacché aumenta la difficoltà nel far avvenire il passaggio di corrente tunnel.
Occorre quindi sempre tenere presente che l'informazione STM ottenuta nella modalità d'operazione a corrente costante riproduce la topografia del campione solo nell'ipotesi che il campione stesso sia chimicamente omogeneo, cioè presenti una f costante su tutta la superficie analizzata. Il riconoscimento dei contaminanti delle immagini è comunque lasciato solo all'esperienza dell'operatore in fase di imaging (visualizzazione), essendo impossibile distinguere a priori l'effetto di topografia reale e quello di topografia apparente dovuto a f. In questa sede possiamo solo segnalare come, in ogni caso, una comprensione adeguata del fenomeno consenta talvolta di ricondurre quello che normalmente è un problema anche ad un effetto utile, da sfruttare per l'ottimizzazione delle immagini, come ad esempio per la visualizzazione di campioni non sufficientemente conduttori, resi tali dallo strato di vapore acqueo superficiale.
3.2.2.2 Punte multiple
Un problema che si riscontra sovente nell'utilizzo del microscopio STM è quello delle punte multiple. Infatti quella che noi intendiamo come punta STM dev'essere una sonda sufficientemente "appuntita" su scala atomica o almeno macromolecolare (decine di nm). Il caso ideale è senz'altro quello di punta monoatomica, tuttavia il rendimento della punta nei casi reali dipende evidentemente dalla spazzata delle immagini, ovvero dalla risoluzione che interessa di volta in volta nelle specifiche acquisizioni, la quale va confrontata con la dimensione caratteristica della parte terminale della punta (raggio di curvatura). Per ottenere risoluzione atomica occorre effettivamente che questa grandezza sia delle dimensioni di uno o comunque pochi atomi. Quello che aiuta parecchio per avere risoluzioni elevate nell'STM, rispetto all'AFM, è il fatto che la dipendenza del segnale (corrente) dalla distanza è esponenziale, cioè molto forte, per cui basta che tra gli atomi terminali della punta, anche nel caso che questi siano parecchi, ce ne sia solo che uno appena più prominente, che il suo effetto diventi assolutamente prevalente su quello degli altri adiacenti. Questo accade almeno nell'ipotesi che la punta non sia così poco affilata, rispetto alle asperità tipiche del campione, da interagire con quest'ultime col suo bordo, come capita invece più spesso nel caso dell'AFM (vedere sottoparagrafo 3.3.4.3).
Fig. 3.15: le immagini di un ideale reticolo atomico a cella quadrata visualizzato all'STM con punte di diversa morfologia. In a) la punta è monoatomica, quindi l'immagine ottenuta è quella realistica; in b) la punta è triatomica; in c) è biatomica con l'asse che unisce i centri degli atomi parallelo alla direzione di scansione X; infine in d) si ha una punta biatomica con l'asse perpendicolare alla direzione di scansione.
Si tenga presente anche che per l'STM è consuetudine in genere utilizzare non punte commerciali, benché disponibili (un produttore di punte di elevata qualità è ad esempio Material Analytical Services, Raleigh, North Carolina, USA), ma piuttosto prodotte in proprio. I metodi più comuni a tale scopo sono essenzialmente due: etching elettrolitico di un filo di Tungsteno (W) in soluzione acquosa di KOH o NaOH, o "cutting" tramite forbici di un filo di Platino/Iridio (Pt/Ir). Quest'ultimo metodo, in particolare, per quanto possa sembrare estremamente brutale ed artigianale consente spesso di avere punte che raggiungono risoluzione atomica, in quanto la parte terminale della punta magari su scala intermedia (diciamo dei micron) è scabrosa, ma risulta formata da varie suprapunte, generate dallo strappo della lama, che, prese singolarmente, possono essere affilate fino a livello atomico. D'altro canto, benché presentino raggio di curvatura normalmente assai superiore (dell'ordine del centinaio di nanometri) le punte realizzate elettrochimicamente sono più riproducibili, una volta fissati i parametri relativi (cioè concentrazione dell'elettrolita, intensità della corrente che circola nella cella e durata del processo).
Un esempio dei risultati che si ottengono nel caso sfortunato in cui si voglia realizzare un'immagine a risoluzione atomica mediante una punta multipla con atomi terminali alla stessa quota è mostrato nella figura precedente.
3.3 L'AFM nel dettaglio
Come l'STM anche l'AFM presenta analoghe distinzioni tra le varie modalità di utilizzo, con le debite differenze dovute alla necessità di un ulteriore blocco elementare dello strumento, il modulo di rivelazione del segnale, ed alla diversa natura dell'interazione punta-campione. Prima di descrivere le modalità d'utilizzo occorre quindi approfondire queste due questioni.
3.3.1 Metodi di rivelazione
Come già spiegato nel paragrafo 2.6.2, mentre nell'STM è lo stesso fenomeno di interazione alla base del funzionamento dello strumento che fornisce la grandezza (cioè la corrente di tunnel) da misurare operativamente in maniera diretta (anche se essa va opportunamente amplificata), nell'AFM la deflessione della microleva non corrisponde direttamente ad una grandezza fisica facilmente misurabile, e questo strumento richiede pertanto necessariamente un "modulo" ulteriore di rivelazione del segnale di deflessione. I metodi storicamente utilizzati nel corso del tempo sono stati i seguenti:
effetto tunnel elettronico:
la microleva e la punta alla sua estremità, normalmente composte di materiale isolante, sono in questo caso conduttrici (o rese tali con qualche ricopertura metallica), e in prossimità del dorso della microleva viene posta una punta STM, che traduce lo spostamento verticale della levetta in una corrente di tunnel. In pratica si ha un STM sovrapposto ad un AFM, dove il "campione" rilevato dall'STM è non la topografia del vero campione finale ma la deflessione della microleva AFM su di esso, la quale fa da intermediaria. Questo metodo è stato usato per lo più nei primi AFM, in cui la leva non era, come quelle usate ormai universalmente oggi, in Nitruro di Silicio (una ceramica isolante), ma consisteva in un filo di Tungsteno con l'estremità ricurva.
interferometria:
un fascio laser viene focalizzato sul dorso della microleva, e il raggio riflesso interferisce con un altro fascio fisso di riferimento. Su uno schermo opportuno è possibile osservare le frange d'interferenza, dal cui shift (spostamento) si risale alla deflessione della microleva.
leva ottica:
questa tecnica, ripresa in tempi relativamente recenti dal metodo di Poggendorf ad opera di Meyer ed Amer, è già stata descritta esaurientemente al paragrafo 2.6.2.
Fig. 3.16: i metodi classici di rivelazione della deflessione della levetta in un AFM, riuniti in un'unica immagine complessiva che facilita il confronto: a) effetto tunnel elettronico, b) interferometria, c) leva ottica. Quest'ultima tecnica è già stata descritta in Fig. 2.18: qui abbiamo in più una fibra ottica per il trasporto del segnale luminoso, ma si tratta di un espediente contingente forzato a volte dalla difficile disposizione geometrica delle varie parti, e tuttavia spesso non necessario o comunque sostituibile con un più semplice specchietto.
Giova a questo punto fare alcune considerazioni circa il rapporto segnale/rumore (S/N) dei metodi sopra elencati, parametro che identifica in genere la validità di una tecnica di prelevamento di un segnale. È stato evidenziato in letteratura che nel primo caso in principio si ha un ottimo valore S/N, ma il sistema non è sufficientemente robusto per l'utilizzo in aria, dove l'effetto dei contaminanti è deleterio. Negli altri due casi il problema non sussiste, mentre l'effetto di disturbo dovuto alla pressione di radiazione del laser sulla microleva è stato calcolato come irrilevante (almeno 100 volte inferiore alle minime forze verticali di Setpoint tipiche). In particolare la leva ottica è preferibile per la semplicità realizzativa e la versatilità nel rilevare altri movimenti della levetta (vedere sottoparagrafo 4.2.1.1), ed è quindi il metodo più redditizio (in considerazione anche delle difficoltà realizzative), non a caso ormai universalmente adottato anche da tutti i maggiori strumenti commerciali (Digital Instruments, Park Scientific Instruments, Topometrix, Omicron, etc., vedere sezione 4.5). Questo metodo è preferito anche ad altri realizzati più di recente, come quelli basati su effetto piezoelettrico (dove la deflessione della leva, accoppiata ad un secondo piezoelettrico, una piastrina ad essa solidale, si traduce in un segnale elettrico) o su sistemi capacitivi (dove la leva è una piastra di un condensatore che ha l'altra piastra fissa, e la deflessione della leva produce una variazione di capacità elettrica del dispositivo).
3.3.2 Forze coinvolte
Oltre alla elevata risoluzione spaziale (al limite atomica, come nell'STM) l'AFM consente di ottenere una sensibilità prima non raggiungibile nel misurare le forze di interazione: sono state osservate forze fino a 10-13 N e gradienti di forza (cioè derivate, ovvero variazioni, nello spazio) fino a 10-6 N/m. Come già evidenziato, tuttavia, nel caso dell'STM la dipendenza esponenziale della corrente di tunneling dalla distanza confina virtualmente l'interazione al solo atomo della punta più vicino alla superficie, mentre per l'AFM la dipendenza dalla distanza è mediamente più debole e l'interazione cambia fortemente a seconda delle forze coinvolte. L'interpretazione fisica dell'interazione AFM risulta pertanto per alcuni aspetti estremamente complessa, vista la gran varietà di forze in gioco.
Premesso che esistono modalità di utilizzo dello strumento (sottoparagrafi 3.3.3.3 e 3.3.3.4) che prevedono anche assenza, temporanea e/o permanente, di contatto punta-campione, in generale nell'AFM ci troviamo in presenza anche di un contatto tra questi due terminali dell'interazione, per cui, volendo considerare tutti i casi di utilizzo dello strumento, occorre comunque tenere presenti anche le forze d'interazione proprie del contatto.
Quella che segue è una veloce rassegna delle principali forze che intervengono tra una generica coppia punta-superficie, che cercheremo d'introdurre tramite la lettura della curva caratteristica AFM forza-distanza, associandole ciascuna rispettivamente al suo range d'azione in base alla distanza punta-campione.
Supponiamo infatti di avvicinare progressivamente la punta della microleva alla superficie del campione, percorrendo la curva nella figura seguente a partire la punto iniziale P. A distanza molto elevata ovviamente l'interazione è nulla. Intorno al centinaio di nanometri cominciano ad agire 3 diversi tipi di forze: magnetiche, di Van der Waals ed elettrostatiche.
Fig. 3.17: curva forza-distanza AFM. s è la separazione tra la superficie del campione e la posizione della punta all'estremità della microleva, con quest'ultima in posizione di riposo (deflessione nulla), ovvero la posizione della base fissa della microleva. Leggendo opportunamente questa curva è possibile comprendere l'azione delle varie forze in corrispondenza dei diversi intervalli di distanze (range d'azione), e misurare grandezze caratteristiche del campione e dell'interfaccia punta-campione.
3.3.2.1 Forze magnetostatiche
Possono essere sfruttate mediante una particolare punta magnetizzata, in modo da utilizzare l'AFM per indagare la distribuzione spaziale delle grandezze magnetiche sulla superficie del campione. Questa applicazione, che per il suo interesse tecnologico ha sviluppato un filone indipendente (sottoparagrafo 4.4.2.1), lavora a tali distanze in modo da essere sensibile ai soli campi (o gradienti) magnetici superficiali, senza risentire della corrugazione del campione. La forza che fa deflettere il cantilever è quella che interviene tra il momento magnetico della punta e quello del dominio magnetico sottostante sulla superficie del campione, sostanzialmente una interazione di tipo dipolo-dipolo.
Il limite di risoluzione ottenibile dipende anch'esso dalla geometria della punta e non è legato in modo ovvio (come nel caso della terminazione della punta AFM o STM) al raggio di curvatura dell'estremità, ma piuttosto dipende criticamente dalla direzione di magnetizzazione della punta. Sia da modelli teorici che da misure risulta comunque raggiungibile una risoluzione di poche decine di nanometri.
3.3.2.2 Forze elettrostatiche
In condizioni particolari, spesso come effetto di disturbo ma a volte anche come fonte di maggiori informazioni, si possono incontrare interazioni punta-campione di natura elettrostatica oltre che magnetostatica, ad esempio forze di double layer nei liquidi (associate alla creazione per induzione di un doppio strato di cariche di segno opposto, affacciate). In effetti la possibilità di lavorare su materiali dielettrici consente di misurare con l'AFM la distribuzione spaziale della carica superficiale e le proprietà dielettriche della superficie. Operando con le modalità di operazione oscillanti (vedere 3.3.3.3, 3.3.3.4 e 4.2.1.2) si può riuscire ad ottenere immagini di distribuzione di capacità elettrica, con sensibilità di ~10-22 F (Farad) e risoluzione spaziale migliore di 100 nm.
3.3.2.3 Forze di Van der Waals (o di dispersione)
Le forze di Van der Waals (VdW) nascono da interazioni di natura dipolare. Visto che questi effetti includono tanto dipoli permanenti (che sono tali anche in assenza di un campo esterno, come, nel caso del campo magnetico, per una calamita) che dipoli indotti (che sono tali solo in presenza di un campo esterno, come un chiodo attaccato in verticale ad una calamita, che diventa anch'esso capace di attrarre) sono comunque presenti nell'interazione tra tutti i tipi di corpi. L'intensità dell'interazione non segue in generale una semplice legge di potenza s-n, con s distanza e n coefficiente di potenza fissato, ma a seconda dei casi può variare da s-7 a s-2. Il range di azione si estende fino ad alcune centinaia di Ångström; questo fa sì che, lavorando alle distanze tipiche delle modalità di operazione dette spettroscopiche o dinamiche (sottoparagrafo 4.2.1.2), con materiali elettricamente neutri e non magnetici, le forze di VdW risultino quelle dominanti.
In ogni caso, nonostante la varia natura, le forze di Van der Waals presentano un effetto complessivo di attrazione, per cui, al decrescere della distanza s, si ha una forza negativa (cioè attrattiva) crescente, finché non subentra l'effetto drammatico e violento delle forze di adesione.
3.3.2.4 Adesione
Avvicinando ulteriormente punta e campione a un certo punto il gradiente delle forze supera la costante elastica del cantilever (che è a sua volta la derivata della forza elastica del cantilever rispetto alla distanza, essendo F=ks, con k costante elastica), e allora la resistenza all'attrazione della microleva viene vinta e si instaura il contatto. L'evento è pressoché istantaneo (avviene in tempi di ~1 ps, picosecondo, pari a 10-12 secondi), e si verifica con un vero e proprio salto della punta verso la superficie, detto Jump to Contact (JC).
Immediatamente prima del contatto e da quel momento in avanti agiscono le forze di adesione. Tali interazioni abbracciano un gran numero di proprietà sia di bulk sia di superficie dei due corpi coinvolti. Una loro esatta comprensione richiede di volta in volta la conoscenza accurata dei parametri locali delle superfici (punta e campione) che vengono in contatto. L'adesione è comunque, nella maggior parte dei casi, dovuta alla presenza di un film sottile di contaminanti adsorbiti sulla superficie del campione durante l'operazione in aria, generalmente semplice vapore acqueo.
Rispetto al caso dell'STM lo strato di vapore influenza l'operatività dello strumento non tanto chimicamente (tramite la funzione lavoro f) quanto fisicamente, proprio in forza del fatto che la visualizzazione AFM standard avviene con sonda e campione in contatto. In queste condizioni la pellicola di vapore esercita una notevole forza di adesione, normalmente superiore di almeno un paio di ordini di grandezza (dell'ordine del micronewton, mN) rispetto alle tipiche forze di Setpoint AFM impostate (~10 nN). L'adesione si esercita attraverso un menisco, ovvero un collo che avvolge l'interfaccia punta-campione al contatto e forma un legame fisico tramite la tensione superficiale del vapore. Lo studio quantitativo delle forze di adesione è reso difficile dalla irregolarità con cui questa pellicola si crea sulla superficie del campione, e dalla dipendenza dalla forma della punta e dalla natura del contaminante.
3.3.2.5 Repulsione
A questo punto punta e campione sono in contatto. In queste condizioni si ha l'equilibrio tra la forza elastica della microleva e le altre forze in gioco, sia in attrazione (tratto A-B) che, proseguendo nel diminuire s, in repulsione (tratto B-C). La forza di repulsione è per l'appunto quella successivamente chiamata in causa per bilanciare la crescente forza elastica. Essa subentra tra due corpi quando la loro distanza è breve al punto da far sovrapporre parzialmente le nubi elettroniche degli atomi esterni.
La natura è duplice: da un lato si ha l'effetto elettrostatico tra i nuclei degli atomi dei suddetti corpi, dall'altro l'effetto dovuto al principio di esclusione di Pauli, di natura quantistica, che prevede che due elettroni con lo stesso non possano occupare il medesimo orbitale. L'interazione ha comunque una forte dipendenza dalla distanza e il suo range di azione è limitato a pochi Ångström.
Lungo la retta di contatto, nel tratto B-C si ha una reazione del campione tale che la pendenza della retta dipende non solo dalla costante elastica della microleva, kl, ma anche da quella della superficie del campione, kc. Oltre un certo limite, in presenza di un campione molle (kc<kl) la deformazione della superficie dello stesso diventa plastica, ovvero irreversibile, e la retta diventa curva (dopo il punto C): si parla di penetrazione del campione da parte della punta. Due grandezze interessanti che si possono ricavare dalla curva forza-distanza in questo tratto sono pertanto H' e H (vedere figura precedente), separate dall'intersezione tra la tangente alla curva di downloading (il tratto percorso a carico decrescente dopo aver raggiunto il massimo valore) nell'estremità (punto di carico massimo D) e l'asse F=0. H', che è la porzione di penetrazione recuperata, viene definita come la deformazione elastica a carico zero, e H, la porzione di penetrazione non recuperata, come la indentazione plastica a carico zero. Un'altra grandezza ricavabile dalla curva è inoltre il modulo di Young E del campione.
Proseguendo nell'unloading, cioè allontanando ulteriormente la base della microleva dal campione, si incontra la seconda discontinuità della curva F(s): il cosiddetto Jump Off contact (JO). Il salto stavolta si verifica quando la costante elastica della microleva supera il gradiente della forza di adesione, che è quella che, evidentemente, impedisce a punta e campione di staccarsi alla stessa distanza di quando il contatto è stato instaurato. L'area racchiusa dalla curva tra il JC e il punto JO rappresenta quindi il lavoro della forza di adesione.
3.3.2.8 Altre forze
Talvolta operando in un mezzo liquido invece di un netto Jump Off contact si verifica nella corrispondente zona della curva F(s) un andamento del distacco progressivo, a scalini: si parla di Slide Off contact (SO). Questo "scivolamento" nel distacco ha a che vedere con la presenza di forze idrofobiche. Le forze idrofiliche-idrofobiche s'instaurano tra acqua e molecole polari o non polari rispettivamente, e sono dovute alla realizzazione o meno di legami idrogeno.
In liquido si possono avere anche forze di solvatazione (idratazione se il liquido è acqua), dovute a variazioni della pressione molecolare nella regione tra punta e campione, per distanze pari a poche unità molecolari del liquido, e forze steriche, legate a fluttuazioni di natura termica, associate a una specie di diffusione delle estremità libere di molecole a catena lunga (ad esempio polimeri) nel liquido, fenomeno detto di "protrusione entropica", che genera piccole forze repulsive.
3.3.3 Modalità operative AFM
Anche per l'AFM, come già per l'STM, analizzeremo in questo capitolo le modalità d'operazione dello strumento dette standard, cioè non di natura spettroscopica (affrontate per contro nel capitolo 4).
In modalità standard l'utilizzo dell'AFM prevede però ulteriori distinzioni rispetto all'STM, in quanto esso può operare sia in contatto (che è in realtà il modo più comune e quindi quello "standard" per eccellenza) che in non contatto, o ancora in regime intermedio (contatto intermittente).
Nella modalità di contatto la punta trasversale all'estremità della levetta elastica viene posta e mantenuta in contatto costante e stabile con la superficie del campione da analizzare. Le forze prevalenti in gioco, il cui effetto è alla base del funzionamento dello strumento, sono, tra tutte quelle analizzate in precedenza, la forza repulsiva di core ("nocciolo duro") tra i nuclei degli atomi più prossimi del sistema eterogeneo punta-campione, e la forza repulsiva di origine quantistica dovuta al principio di esclusione di Pauli. In pratica è la forza repulsione complessiva che agisce poi sulla levetta flettendola, e la deflessione di questa fornisce una misura dell'andamento dei rilievi topografici del campione.
È solo in questa modalità di contatto che si può fare la distinzione, parallela a quella corrispondente per l'STM, tra (sotto-) modalità a "grandezza misurata" costante e a quota costante. Cominciamo quindi con l'analisi di questi due casi.
3.3.3.1 AFM a "grandezza misurata" costante
Stavolta la grandezza di riferimento da mantenere costante al Setpoint è la deflessione, ovvero la forza verticale di contatto, repulsiva, pari alla deflessione moltiplicata per la costante elastica della microleva utilizzata.
Il fatto di lavorare a deflessione costante ci dice che la compressione a cui è sottoposta la superficie del campione durante il contatto è uniforme, per cui, se anche fosse, nel caso peggiore, troppo elevata, in modo da deformare (purché non plasticamente) la morfologia del campione che viene percorso dalla punta, almeno siamo sicuri che l'effetto di questa deformazione (che comunque si vuole minima!) è uguale in tutti i punti. Inoltre applicando una forza verticale costante possiamo anche trarre ulteriori informazioni derivate, come la forza d'attrito (sottoparagrafo 4.2.1.1). D'altra parte sappiamo già dall'STM quali limitazioni di velocità imponga l'utilizzo del sistema di feedback che garantisce la costanza della "grandezza misurata".
Solo un'osservazione: il fatto che noi deduciamo l'essere la forza verticale di contatto sul campione costante, come conseguenza della costanza della deflessione della levetta, deriva in realtà da un'ulteriore assunzione: che durante il moto in ogni istante la punta sia in condizioni di equilibrio con il campione, almeno per quanto riguarda la direzione ortogonale al piano di scansione. Questa ipotesi in realtà non è così scontata, visto che sul piano (X,Y) in generale si possono avere complicazioni dovute al moto composito raster dell'interfaccia, congiunte ai limiti di efficacia del traslatore piezoelettrico e a fenomeni non lineari legati ai gradi di libertà laterali della levetta, (stick-slip della forza di attrito, vedi 4.2.1.1). Inoltre lo stesso cedimento elastico del campione comporterebbe una diminuzione istantanea della forza di contatto, ed è da evitare il più possibile anche per questo.
Fig. 3.18: AFM in modo di contatto e a deflessione (forza verticale) costante. Per passare alla modalità a quota costante è sufficiente bypassare il modulo di controllo su Z. Come si può osservare, lo schema nel complesso, a parte la diversa disposizione geometrica dei vari "blocchi", non differisce da quello dell'STM riportato in Fig. 3.14: lo si è qui voluto riproporre per mostrare dove s'inserisce il blocco di rivelazione del segnale (in più rispetto all'STM), evidenziato all'interno della linea punteggiata. Qui il "sensore" dell'AFM è quello a effetto tunnel elettronico, ma potrebbe essere uno qualsiasi dei 3 mostrati in Fig. 3.16.
3.3.3.2 AFM a quota costante
Allo stesso modo sono uguali all'STM i vantaggi e le caratteristiche di applicabilità dell'altra modalità alternativa, cioè quella a quota costante: maggiori velocità di scansione (e quindi di realizzazione complessiva delle immagini) e validità solo per piccole spazzate (poche decine di nm), rispettivamente.
Nessuna novità particolare si riscontra quindi rispetto al caso STM, solo vale la pena di fare una doverosa precisazione: in realtà per il caso AFM nel modo a quota costante la forza repulsiva, essendo variabile sul campione da punto a punto (con la deflessione della levetta), fa sì che la parte della sonda a quota costante sia la base della levetta, mentre la "sonda" vera e propria (la parte terminale del sistema sonda, cioè quella direttamente interessata dall'interazione col campione, ovvero la punta) cambia quota. È, evidentemente, solo una questione di linguaggio, essendo la quota della punta legata alla "grandezza misurata" (la deflessione dell'estremità della leva), e distinta dalla "quota" nel significato SPM, che è la quota della piastrina cui è fissata la base della levetta.
3.3.3.3 AFM in non contatto
Una terza modalità di utilizzo dell'AFM, che costituisce un caso a parte, è quella detta "di non contatto". In questa tecnica la punta della microleva è posta e mantenuta a distanze dal campione dell'ordine di 10 nm o più. In tali condizioni le forze prevalenti su di essa dovute al campione sono quelle di Van der Waals (sottoparagrafo 3.3.2.3). Il fatto che le forze nel modo di non contatto siano molto più piccole che nell'altro modo (vedere Fig. 3.19, o Fig. 3.17 nel tratto della curva da P a J.C.) ha fatto sì che fino ad oggi questa tecnica sia stata utilizzata molto meno delle due varianti della modalità di contatto, per ragioni sia di difficoltà realizzativa di un efficace sistema di rivelazione del segnale, sia di scarsa stabilità del sistema nella zona di operazione (si ricordi il meccanismo del Jump to Contact). La procedura consueta della modalità di non contatto consiste pertanto non nel mantenere la punta a distanza fissata dal campione, cioè in "condizioni statiche" su Z (modalità detto anche "in continua"), ma nel modulare l'estremità della levetta di un moto periodico lungo Z ("condizioni dinamiche" o "oscillanti" o "risonanti"). In questo modo si è in grado da un lato di sottoporre a misura non il valore assoluto della forza in sé ma quello del suo gradiente (o derivata), cioè la variazione nello spazio lungo Z (più facilmente rivelabile), dall'altro di fornire un meccanismo che consenta all'estremità libera della levetta di vincere l'attrazione che potrebbe, se indisturbata, portare al Jump to Contac.
La modulazione Z della punta della microleva è realizzabile direttamente o tramite un secondo traslatore piezoelettrico pilotato con una tensione alternata (ricordiamo che il "primo" è quello applicato al campione) o eccitando la levetta termicamente, per mezzo di un fascio laser che riscaldandola la faccia oscillare. Le oscillazioni imposte presentano ampiezze che variano, di caso in caso, dai nm alle decine di nm, e frequenze vicine a quella propria di risonanza della microleva (in genere tra i 100 e i 400 kHz), anche in considerazione del fatto che le microleve utilizzate in questa tecnica sono normalmente più rigide di quelle usate in contatto, proprio per evitare facili J.C..
In pratica ciò che viene mantenuto costante dal circuito di feedback, nella modalità AFM di non contatto dinamica, è non la forza d'interazione ma il gradiente di tale forza.
Fig. 3.19: è qui raffigurata la curva ideale forza-distanza di una coppia punta-campione AFM; si tratta in pratica della versione "teorica" della curva reale, "pratica", riportata in Fig. 3.17. A parte la generale corrispondenza della forma, in questa curva teorica non si nota isteresi, ovvero differenza tra loading e unloading (cioè tra i 2 versi di percorrenza della curva, avvicinamento ed allontanamento), essendo il contatto idealmente puntiforme e l'adesione tra le superfici estese di contatto non considerata in casi ideali. Per gli studiosi di chimica facciamo osservare come questa curva teorica, di fatto, riproduca un tipico potenziale d'interazione fisico-chimica alla Lennard-Jones. Nella nostra rappresentazione sono evidenziate le regioni associate ai regimi di interazione AFM di contatto e non contatto.
L'andamento con la distanza delle forze di VdW, alcuni ordini di grandezza meno ripido di quello delle forze repulsive utilizzate nel modo di contatto, limita in genere la risoluzione alla decina di nm, ma per lo studio di molti processi biologici questo valore è più che sufficiente, mentre si ha il notevole vantaggio di interagire col preparato senza danneggiarlo, dato che si utilizzano forze dell'ordine di 10-11 N, un fattore 100 circa più piccole di quelle tipiche dell'AFM in contatto.
Ultimamente sono state effettuate alcune misure in modo AFM attrattivo di non contatto anche "in continua", cioè senza l'imposizione del moto oscillatorio di base alla cantilever, grazie all'immersione dell'interfaccia in ambiente liquido, che sfavorisce il J.C., e sembra che anche in queste condizioni si possa ottenere una risoluzione "atomica" (o pseudoatomica). Si tratta però, nel caso statico, di una tecnica che deve ancora dimostrare definitivamente la sua validità e praticità di utilizzo, mentre per la variante "dinamica" c'è da dire che allora, dovendo mobilitare l'attrezzatura richiesta (almeno un amplificatore a lock-in per la rivelazione delle variazioni di ampiezza e/o fase dell'oscillazione imposta alla leva, vedere 4.2.1.2) conviene a quel punto affidarsi a tecniche che consentano un'ulteriore approfondimento delle proprietà del campione che non la semplice visualizzazione della topografia, compito svolto già egregiamente dalle più semplici e comuni modalità di contatto. Per queste altre analoghe tecniche "dinamiche" (che prevedono cioè oscillazioni della Z della microleva) si veda il sottoparagrafo 4.2.1.2 del capitolo successivo.
3.3.3.4 AFM a contatto intermittente
Questa modalità è in pratica una combinazione dei modi di contatto e non contatto introdotta per la prima volta col nome di Tapping mode. In pratica si tratta di una situazione in cui il contatto è intermittente, essendo l'estremità della microleva posta in oscillazione come nel modo di non contatto dinamico, ma con ampiezza tale da toccare il campione nel punto più basso dell'oscillazione. La misura è poi fatta sulla variazione della riduzione dell'ampiezza dell'oscillazione imposta dal contatto, riduzione che è una misura della topografia del campione. In pratica come concetto si basa sul contatto in quanto a grandezza da misurare, e sul non contatto in quanto a metodo per misurarla. Il vantaggio rispetto al contatto costante sta nel fatto che per la maggior parte del tempo il contatto è assente e questo evita fenomeni di disturbo associati al contatto come l'attrito (che non si verifica perché la punta, durante la maggior parte dello spostamento raster, è sollevata e non "struscia") e la deformazione in verticale del campione, per compressione: essendo la frequenza di oscillazione molto elevata, in pratica anche nel contatto la punta non ha tempo di "schiacciare" il campione, e rimbalza rapidamente verso l'alto come se questo fosse di fatto assai più duro di quanto non sia realmente. Tale tecnica si presta quindi all'impiego su campioni molli di per sé o comunque poco fissati al substrato (il vetrino sul quale sono posizionati).
3.3.4 Artefatti specifici AFM
Cosè come per l'STM anche l'AFM presenta problemi suoi specifici, o comunque più comunemente riscontrati con questa tecnica di microscopia rispetto a quella STM, in aggiunta a quelli comuni a tutti gli strumenti SPM; di conseguenza questo vale anche per gli artefatti, ovvero le alterazioni ingannevoli indotte sulle immagini prodotte.
3.3.4.1 Interferenza ottica
Questo artefatto riguarda le immagini realizzate in contatto con AFM che utilizzano il sistema di rivelazione a leva ottica, peraltro il più comune, come già sottolineato (paragrafo 3.3.1). Il fenomeno si manifesta con l'apparizione, sull'immagine in questione, di fasce chiaro-scure parallele equidistanti, pressapoco orizzontali, e può essere correttamente interpretato nel seguente modo. Parte della luce laser che incide sul dorso della microleva arriva in realtà anche sul campione sottostante, sia perché, se si usano levette di Nitruro di Silicio (Si3N4) non dorate esse sono parzialmente trasparenti, sia perché, e questo vale sempre, lo spot laser ha dimensioni superiori a quelle della parte terminale della leva che viene illuminata. Ora è vero che la luce riflessa dal campione va a finire fuori dalla fotocella, in conseguenza del fatto che il chip contenente la microleva viene montato con una inclinazione j (pari di norma a circa 15°) col piano del campione, (accorgimento adottato principalmente per garantirsi sempre che la leva tocchi con l'estremità libera, e non rischi di urtare e "arare" il campione con la base ed il relativo supporto rigido). Tuttavia il fascio riflesso dal campione anche se non incide direttamente sulle fotocelle interferisce con il fascio riflesso dalla microleva, e provoca quindi l'occorrenza di massimi e minimi di interferenza sulla fotocella. La loro spaziatura dipende dalla differenza di cammino ottico tra i due fasci riflessi dalla levetta e dal campione. Il passo della figura di interferenza può quindi essere ricavato eguagliando tale differenza di cammino ottico alla lunghezza d'onda della luce laser. Si può dimostrare che se ne ricava per il passo d la seguente relazione:
d = l / (2 cosq senj)
dove q e j sono rispettivamente l'angolo di incidenza del laser sulla cantilever e l'inclinazione della cantilever rispetto al campione. Pertanto risulta d l/2, e se come di consueto il laser utilizzato è rosso (cioè l ~ 600 nm) d è quindi ~ 400 nm. Questo artefatto è perciò presente soltanto nelle immagini di dimensioni superiori al micron.
L'effetto è particolarmente realistico in quanto, quando si manifesta, anche ruotando la scansione o variando le dimensioni della spazzata le strisce ruotano o cambiano dimensioni apparenti all'interno delle immagini, come se si trattasse di veri rilievi del campione, diversamente da quanto accade per altri artefatti che sono quindi più facilmente riconoscibili (come le fasce verticali di noise elettronico o meccanico).
L'uso di levette rettangolari, invece che triangolari, sembra inoltre incrementare l'effetto, probabilmente perché minore è l'area utile come schermo per lo spot laser in corrispondenza dell'estremità libera della microleva, e quindi maggiore la porzione di luce che non incide sul dorso della microleva che la riflette ma finisce sul campione sottostante nelle immediate vicinanze.
3.3.4.2 Mescolamento topografia-torsione
Nello spostamento punta-campione sul piano (X,Y), condotto con moto raster al fine di ricostruire l'immagine, in modalità di contatto l'AFM esercita, come conseguenza della forza verticale di contatto, anche una forza laterale di attrito, che provoca una torsione della microleva. Questa deformazione della levetta si aggiunge alla deflessione associata alla forza verticale, complicando la situazione di equilibrio dinamico della microleva.
Fig. 3.20: a) utilizzando il metodo di rivelazione degli spostamenti della microleva detto a leva ottica estesa con un sistema di fotocelle a quattro quadranti, e combinando opportunamente i 4 segnali come nelle formule in figura in alto a destra, è possibile misurare simultaneamente deflessione D e torsione T della microleva, (a è un coefficiente di normalizzazione che divide per la tensione, cioè il segnale, totale). Si veda anche Fig. 4.6). b) Occorre tuttavia fare attenzione al corretto allineamento delle fotocelle, in quanto altrimenti, in caso di una discrepanza di direzione descritta da un angolo d, parte del segnale di torsione si può sommare a quello di deflessione, e viceversa, alterando le immagini.
Tuttavia, essendo i due moti (deflessione lungo Z e torsione, ovvero rotazione della levetta intorno al suo asse longitudinale) virtualmente indipendenti per ragioni geometriche (si parla di "gradi di libertà" della microleva, ovvero possibilità di movimento, indipendenti), è possibile porsi in condizioni tali da poter misurare indipendentemente entrambi questi spostamenti della microleva. A tale scopo si usa, invece che una singola coppia di fotocellule, accoppiate in maniera differenziale ed allineate con la loro congiungente lungo la direzione di spostamento del fascio laser riflesso dalla leva, una doppia coppia di tali fotocellule, in cui le due coppie sono ortogonali tra loro come gli spostamenti (indipendenti) dello spot laser dovuti ai due movimenti di deflessione e torsione. Tale sistema di elementi fotosensibili nel complesso viene detto talvolta brevemente "fotocella a 4 quadranti", (vedi figura precedente; nel sottoparagrafo 4.2.1.1 si vedrà come questa disposizione consenta di fornire immagini di attrito del campione).
In pratica giocando sugli accoppiamenti a 2 a 2 dei 4 elementi fotosensibili è possibile isolare i segnali elettrici (tensioni provenienti dalla conversione delle fotocorrenti in uscita dai fotodiodi) che misurano i due movimenti, come mostrato in figura. Fin qui niente di problematico. Il punto critico sta nel fatto che perché il tutto funzioni egregiamente è necessario un corretto allineamento dei quadranti; altrimenti le fotocelle "misurano" dei segnali Tcells e Dcells diversi dai segnali reali T e D, in quanto derivanti in realtà da una loro combinazione ingannevole, fenomeno detto di "mescolamento" dei segnali.
3.3.4.3 Convoluzione punta-campione
La convoluzione punta-campione è in realtà un artefatto generale dei microscopi a scansione a sonda. Tutte le volte che, come è nella pratica, l'estremità della sonda ha una dimensione finita e una aspect-ratio (cioè un'affilatezza) poco elevata, di fatto è possibile che la sonda interagisca col campione non solo con l'estrema sua propaggine, ma con altre zone (atomi o cluster o protuberanze) delocalizzate, sul piano (X,Y), rispetto al punto teorico di campionamento del segnale d'interazione poi utilizzato per la ricostruzione dell'immagine. Abbiamo già accennato a questo aspetto nell'STM, dove si manifesta essenzialmente come punte multiple: essendo nell'STM normalmente effettuate misure a risoluzione in media più elevata che rispetto all'AFM, è però in quel caso più importante la sola parte terminale della punta, che nella realtà non è monoatomica come nel caso ideale, ma sarà sempre in effetti, almeno a livello atomico, appunto, molteplice.
Fig. 3.21: convoluzione di una punta su un profilo di un campione e relativo andamento grafico. È facile immaginare che cosa succede nel caso in cui si percorrano delle buche o delle asperità più strette della larghezza della punta: viene in pratica riprodotta la forma stessa della punta AFM (nel primo caso cambiata di segno), e quindi le buche vengono "riempite" (quasi non si rilevano o comunque si "vedono" come molto poco profonde), mentre le "punte" vengono estremamente "allargate".
Nell'AFM il discorso è un po' diverso: poiché più spesso si fanno immagini di campioni "grandi", su scale dai micron alle decine di micron, e spesso di corrugazione elevata su scale dalle centinaia di nanometri al micron, l'effetto di convoluzione punta-campione più comune è dovuto non tanto alla punta multipla terminale ma alla contattazione del bordo della punta. Questo anche perché la punta, essendo prodotta con procedimenti industriali di microfabbricazione integrata su chip di, normalmente, Nitruro di Silicio, è, almeno in linea di principio, maggiormente riproducibile ed affidabile in quanto a forma di quanto non siano le punte STM, generate, sia nel caso elettrochimico che, ancora di più, nel caso del cutting, in maniera artigianale. Inoltre su grandi scale (dell'ordine del micron, appunto) l'aspect-ratio (rapporto larghezza-altezza) delle punte AFM è in genere assai più basso, variando da circa 1/3 per le cosiddette "superpunte" a circa 2/1 per le punte standard più economiche e comuni. In queste condizioni è facile capire come, dovendo percorrere protuberanze elevate e ripide, ci si possa trovare facilmente a toccare il campione col bordo della punta piuttosto che con la sua estremità. In tal caso si dice che l'immagine del campione ottenuta risulta una convoluzione dei due profili in gioco, quello della sonda e quello del campione, come mostrato nella figura precedente.
Esistono scaricabili come freeware o shareware da Internet diversi software di correzione che consentono di deconvolvere la forma della punta dall'immagine SPM ottenuta, risalendo così all'immagine reale del campione puro, sia per STM (effetti di punte multiple) che soprattutto per AFM (effetti di bordo), dove sono più utilizzati nella pratica, fino a costituire per contro, più che un metodo di "ripulitura" dell'immagine, delle procedure ormai standard per la caratterizzazione della punta impiegata. Infatti, mentre nel caso dell'STM il controllo a priori della punta può essere affidato solo a immagini ottenibili da misure SEM, per l'AFM è possibile invece comprendere la forma della punta proprio da immagini AFM di campioni con protuberanze molto sottili e lunghe, (dette talvolta "whiskers", baffi) disponibile in commercio come campioni standard di taratura.
3.4 Analisi dei parametri di una misura SPM
Un'operazione senz'altro utile ai fini del raggiungimento di una maggiore comprensione delle tecniche SPM è l'analisi dell'insieme di informazioni coinvolte nella realizzazione di un tipico esperimento di scansione-acquisizione di dati, e l'evidenziazione di quelle più importanti tra le varie considerate. In questa analisi, di seguito affrontata, abbiamo ritenuto opportuno di limitarci alle sole tecniche SPM principali, quelle, per così dire, genitrici di tutte le altre, e cioè l'STM e l'AFM entrambi "a grandezza costante" (più avanti brevemente indicate solo col termine generico SPM). Inoltre, essendo molte le variabili da considerare procederemo su diversi livelli di approfondimento successivo.
3.4.1 Considerazioni preliminari
Il punto di partenza per l'analisi delle grandezze in gioco è l'insieme delle grandezze effettivamente impostabili tramite software ed hardware su un tipico strumento SPM.
I parametri si possono distinguere in due categorie, in base alla frequenza con cui comunemente ne vengono modificati i valori. Esistono parametri che normalmente vengono impostati ad un valore una sola volta all'inizio di una serie di misurazioni; ad essi ci riferiremo in seguito con la dicitura "parametri di sessione".
Occorre osservare che, con sessione, s'intende una serie coerente di acquisizioni consecutive, realizzate al fine di analizzare diverse zone di uno stesso campione o di perfezionare la visualizzazione di una stessa zona del campione. Al termine "sessione" corrisponderà quindi in maniera biunivoca anche il termine "esperimento"; ovvero, per esperimento SPM s'intenderà una sessione completa di acquisizioni SPM, e non una singola acquisizione; la sessione è infatti il minimo corpo di misure significative nel suo complesso.
Esistono poi parametri che vengono comunemente modificati di acquisizione in acquisizione, o comunque con frequenza assai maggiore dei precedenti. Solitamente questi parametri sono impostabili via software o attraverso comodi comandi "fisici" (manopole o cursori sui moduli dell'elettronica di controllo), allo scopo di consentirne una rapida variazione all'utente. Ad essi ci riferiremo in seguito con la dicitura "parametri di singola acquisizione".
3.4.2 Selezione dei parametri fondamentali
Nell'analisi dettagliata di seguito presentata, per ciascun parametro viene riportato, subito dopo il nome, il carattere dello stesso, per quanto riguarda le sue modalità di variazione implementate nel generico strumento tipo considerato, descritte come "grandezza hardware" o "grandezza software". "Hardware", in senso lato, si riferisce non solo a controlli manuali sull'elettronica dello strumento ma anche a impostazioni meccaniche effettuate comunque manualmente sullo strumento AFM (inteso come testa e controller nel loro complesso). È riportata anche una descrizione del parametro e la conclusione se si tratti di un parametro in generale importante. Ad ogni parametro è stato assegnato un codice identificativo.
3.4.2.1 Parametri "di sessione"
A1 Materiale del campione da analizzare: (grandezza "hardware") è la prima variabile da tenere in considerazione durante una fase sperimentale. Non cambia all'interno di una sessione per ovvi motivi. Il parametro è significativo.
A2 Condizioni ambientali: (grandezza "hardware") possono essere intese in due modi: come "mezzo" in cui è posto il campione e quindi in cui avviene la misura, o come "parametri di disturbo" alla misura. Nel primo caso sono controllabili; per esempio, se si sceglie di acquisire in aria o in vuoto, in atmosfera controllata o in liquido la condizione ambientale è di sicura rilevanza. Questa operazione corrisponde tra l'altro al cambiamento di parti "hardware" dell'apparecchiatura: o di una camera di misura (assente in aria e in liquido o presente in atmosfera controllata e in vuoto) o del tipo di supporto portacampione (un normale piattino per le misure in aria, in atmosfera controllata e in vuoto, o, per le misure in liquido, una cosiddetta cella liquida o un piattino con bordo rialzato e colmato di liquido). Le condizioni controllabili non vengono modificate, generalmente, all'interno di una sessione, perché il loro cambiamento richiederebbe un certo tempo non trascurabile, ed inoltre modificherebbe la qualità delle immagini ottenute, rendendole non immediatamente confrontabili con le precedenti. In caso di cambiamento di questo parametro si dovrebbe più correttamente parlare di una distinta sessione di acquisizioni.
Nel secondo caso le condizioni ambientali inficiano la misura, nel senso che acquisizioni a diversi valori di queste forniscono risultati diversi a parità di tutti gli altri parametri. Esempi di queste condizioni sono l'umidità e la temperatura.
Il parametro è significativo.
A3 Traslatore piezoelettrico (o "tubo piezoelettrico" o "piezo"): (grandezza "hardware") è il tipo di movimentatore che fornisce la mappatura (X,Y,Z) del campione; in pratica è identificato dal suo range di scansione sul piano (X,Y) e dalla dinamica Z.
Il parametro è significativo in quanto determina in maniera critica la movimentazione relativa dell'interfaccia punta-campione, e soprattutto influenza lo spostamento lungo Z, utilizzato per ricostruire la topografia del campione nelle mappe che costituiscono le immagini; la diversa sensibilità Z (Sz) del piezo determina, come si vedrà più avanti, anche un altro parametro significativo, B5.
A4 Sonda: microleva elastica per l'AFM, punta conduttrice per l'STM: (grandezza "hardware") è il tipo e il particolare esemplare di punta conduttiva STM o microleva AFM utilizzata, che potrebbe essere diverso da altri esemplari dello stesso modello per eventuali difetti di fabbricazione o per modificazioni intervenute con il precedente utilizzo, riguardo alle sonde acquistate da produttori che le realizzano commercialmente (in genere per AFM), mentre a maggior ragione è evidente che è ancora più probabile che ci siano delle differenze tra sonde realizzate in proprio (ciò accade solo per l'STM) dall'utilizzatore. Tuttavia anche nel caso di sonde acquistate, realizzate da aziende produttrici su scala industriale (in genere microfabbricate), la distinzione del "singolo individuo" di sonda all'interno del tipo è molto importante. Questa distinzione non è stata operata per il parametro precedente, traslatore piezoelettrico, perché per esso se ne ha a disposizione un solo individuo per modello per un lungo periodo di tempo (anni), mentre le punte STM o le microleve AFM sono in effetti materiale di consumo nel lavoro di microscopia SPM, in quanto si deteriorano piuttosto rapidamente o possono essere comunque difettose anche a inizio esperimento, per cui vanno sostituite piuttosto spesso.
Il parametro è significativo in quanto influenza in maniera indiretta (tramite la sua caratteristica di conducibilità nel caso STM o di costante elastica nel caso AFM) l'impostazione del valore di riferimento Setpoint o Reference (parametro B7), considerato significativo di per sé (vedere più avanti). Inoltre il parametro inteso nel suo carattere di individuo di sonda influenza la qualità delle immagini, che dipende dall'integrità della sonda stessa e, in particolare, per quanto riguarda la risoluzione, dalla "finezza" (fattore di forma) della punta all'estremità della sonda.
3.4.2.2 Parametri "di singola acquisizione"
B1 Spazzata: (grandezza "software") è una misura dell'area del campione analizzata, e precisamente la dimensione del lato della superficie quadrata del campione scandita dalla sonda dello strumento (espressa di default, a seconda dello strumento, in Ångström, nanometri o micron).
Il parametro è significativo in quanto le caratteristiche del campione in termini di numero, ripetizioni e dimensioni relative delle strutture topografiche presenti sulla sua superficie analizzata dipendono dalla porzione di campione che si va ad analizzare. Questa osservazione è opportunamente approfondita da Fig. 3.26 in poi.
B2 Offset x e Offset y: (grandezze "software") si tratta dello spostamento, in unità di dimensioni fisiche lineare (micron) dell'angolo inferiore sinistro dell'area di scansione rispetto all'origine (punto centrale) dello "scope", cioè del quadro di scansione che può essere coperto dal traslatore piezoelettrico sulla superficie del campione (o campo d'azione complessivo), per un dato posizionamento fisico dello stesso sul portacampione solidale al traslatore.
Si conclude che questo parametro non è in genere significativo in un esperimento SPM, in quanto non esistono origini di riferimento privilegiate sul generico campione. Per la stessa ragione, non essendo presenti altri criteri di assegnazione, non esistono valori prefissati ottimali per questi parametri, anche se, di default (in assenza di un motivo che spinga ad inquadrare una certa zona piuttosto che un'altra) gli offset saranno tali che la regione del campione scandita si trovi al centro dello scope dello strumento.
B3 "Canali" acquisiti: (grandezza "software") è il set di informazioni che si sceglie di acquisire nel corso di un'acquisizione. In genere infatti è possibile acquisire simultaneamente, nel corso della medesima scansione, diversi segnali o "canali": ad esempio Topografia (indicata con Z), Deflessione (D) e Torsione (T) per l'AFM; Topografia (Z), Corrente di tunnel (I) e altre grandezze, come misure di capacità (C), per l'STM. In entrambi i casi la prima grandezza è quella fondamentale, la seconda rappresenta una grandezza da confrontare col Setpoint impostato, e quindi è una misura dell'"errore" o infedeltà dello strumento nelle immagini, la terza è un'informazione ulteriore sul campione, di tipo "spettroscopico".
Si tratta comunque di un parametro non significativo, in quanto una sua variazione non consente di migliorare in alcun modo il risultato dell'acquisizione di ciascun singolo canale; ovvero il decidere se misurarlo o meno non produce, di per sé, alcun miglioramento nell'acquisizione.
È opportuna qui una precisazione. Le corrugazioni della superficie del campione, in contatto con la punta all'estremità della microleva elastica, si traducono in un segnale di variazione del segnale fondamentale (deflessione della microleva D o corrente di tunnel I) rispetto ad un segnale di Setpoint preso come riferimento di partenza, fissato ad un valore noto (D0 o I0). Pertanto è corretto parlare di una variazione di segnale (D-D0 o I-I0). Ciò detto, precisiamo però che nel seguito, per ragioni di brevità, parleremo semplicemente di segnale di deflessione D o corrente I, intendendo in realtà in ciascuna caso la relativa variazione.
Questo segnale, che già è una misura della topografia del campione, non è quello impiegato di fatto per la ricostruzione dell'immagine: esso è l'errore fornito in ingresso al circuito di feedback che cerca di annullarlo (per lavorare a Setpoint costante), agendo sulla posizione Z del movimentatore piezoelettrico del campione. La Topografia è quindi ricostruita a partire dallo spostamento Z del tubo piezoelettrico, cambiato di segno. Pertanto è qui che la qualità dell'immagine viene influenzata dal corretto pilotaggio del movimentatore (parametri P ed I, ma anche fscan, Fv etc.). Il vantaggio di lavorare "a grandezza costante" è, lo ricordiamo, quello di evitare differenze di alterazione del campione (e deformazione della sua immagine) ottenute localmente nei vari punti di campionamento, che potrebbero verificarsi se, nei vari punti, il campione fosse sollecitato in maniera diversa dalla sonda interagente con esso.
Ritornando alla discussione del parametro B3 sopra elencato, sembrerebbe importante acquisire soltanto i consueti canali fondamentale (Z) ed eventualmente quelli accessori "spettroscopici", (indichiamoli pure con una generica X). Questi ultimi infatti, oltre a contenere una componente di derivata della topografia, possono sempre fornire informazioni sulla presenza di contaminanti o comunque materiali con stessa quota e diverso attrito, che potrebbero creare problemi sulle immagini di topografia; acquisendo anche questi canali le eventuali acquisizioni/immagini critiche possono essere identificate ed isolate, in attesa di ulteriori considerazioni ed elaborazioni (magari da effettuare in un secondo momento). Tuttavia il segnale "di variazione" fornisce in effetti informazioni ancora più importanti, rispetto a quelli accessori, ai fini della valutazione della qualità delle immagini: è questa la grandezza che rappresenta l'errore nel funzionamento dell'attuatore (errore sempre inteso, in realtà, come differenza tra la valore istantaneo della grandezza considerata ed il rispettivo Setpoint, cioè il valore di offset di riferimento: D(t)-D0 o I(t)-I0 ).
Chiaramente, essendo un campione in generale non idealmente piatto, esisteranno sempre punti di deflessione diversa dal valore fissato iniziale, ma si vuole che questa differenza sia minimizzata, cioè non proceda molto oltre l'istante iniziale in cui è intervenuta la variazione; (se la variazione di deflessione continua ad essere non nulla, su una riga, dopo diversi pixel, significa che, a patto che il profilo del campione non continui a variare nella stressa direzione, il sistema attuatore non lo segue efficacemente, cioè il sistema di feedback non è regolato opportunamente). Un criterio per valutare la qualità dell'immagine di topografia, almeno nel caso di differenze fini non visibili ad occhio nudo, potrà essere quindi la minimizzazione di un indice di deviazione fornito dalla somma dei valori di variazione del segnale (D(t)-D0 o I(t)-I0) sull'area del campione analizzata, eventualmente normalizzata al numero di campioni, cioè ai pixel); sarà in pratica il valor medio della matrice di variazione del segnale acquisita D(X,Y)-D0(X,Y) o I(X,Y)-I0(X,Y). (Sull'utilizzo di questo "errore" per ottenere un "indice di qualità" delle immagini si veda anche più sotto, al sottoparagrafo 3.4.3.2).
Riguardo all'impostazione ottimale del parametro B3 si consiglia pertanto di acquisire, nel corso degli esperimenti SPM, anche il segnale di variazione del Setpoint oltre a quello di Topografia, piuttosto tralasciando eventualmente (quando non espressamente richiesta) l'acquisizione dei segnali aggiuntivi "spettroscopici", attivandola nei soli casi critici o di particolare interesse specifico.
B4 Canali e/o verso di scansione da visualizzare durante l'acquisizione: (grandezze "software") si tratta di parametri che influenzano le modalità di visualizzazione durante la scansione-acquisizione, ma non la modalità di scansione e/o acquisizione stessa. Sono pertanto utili solamente nella misura in cui consentono di verificare "on-line" la validità della misura in corso (eventualmente interrompendola prima della fine, consentendo così di risparmiare perdite di tempo), ma di fatto non consentono di modificarla ottimizzandola. Quindi si tratta di parametri ritenuti non significativi.
Per questo stesso motivo non esistono valori ottimali che consentano di prefissare, a priori, un'assegnazione particolarmente vantaggiosa per tali parametri. Di default, per semplice convenzione, durante l'acquisizione si visualizzano normalmente il canale Topografia (la grandezza più comunemente acquisita) e il verso di scansione Forward (quello più intuitivo per l'interpretazione del movimento della punta sul campione, che in questo caso procede, sull'immagine, da sinistra a destra, come la punta della penna di una persona destrorsa).
B5 Dimensioni delle matrici delle immagini: (grandezza "software") è possibile, acquisizione dopo acquisizione, modificare la dimensione delle mappe del campione in numero di dati campionati sulla sua superficie. Questi punti sono destinati, in una rappresentazione delle mappe in immagini in scala 1:1, a tradursi ciascuno in un singolo pixel, per cui l'unità di misura naturale di questa grandezza è il pixel stesso (solitamente nel software s'imposta la dimensione lineare che costituisce il lato di una mappa che ha il vincolo di essere quadrata, fermo restando che è possibile alterare il fattore di forma delle immagini all'interno del software di postprocessing che in genere accompagna come integrazione il software di scansione-acquisizione dello strumento).
Si tratta di un parametro significativo nella misura in cui, a priori, si decida di ottenere una determinata risoluzione, all'interno della zona di campione analizzata. Tuttavia questa scelta si effettua già prima di iniziare la misura, e un metodo migliore per ottenere risoluzione maggiore consiste in realtà nel ridurre la spazzata (dimensione fisica della zona di campione analizzata) a parità di dimensione dell'immagine che rappresenta la zona di campione analizzata, in pratica "zoomando" sull'area d'interesse. Pertanto il parametro non è significativo nei termini intesi in questa trattazione. Si precisa comunque che questo parametro dovrà sempre avere un valore ragionevolmente elevato, al minimo pari a 64x64 pixel, altrimenti non si ottiene un campionamento tale da creare un quadro con sufficiente risoluzione relativa, all'interno dell'immagine. Comunque si consiglia di usare comunemente, per ogni acquisizione, una stessa dimensione dell'immagine, e pari normalmente a 256x256 pixel, in genere valore ottimale per ottenere un'immagine di qualità e abbastanza "estesa" per l'applicazione di procedure di elaborazione, pur senza appesantire troppo i tempi di acquisizione e di successiva elaborazione, e le dimensioni dei file di dati salvati. In determinate condizioni, quando siano necessari tempi di misura più rapidi e le stampe saranno effettuate ad un basso ingrandimento, cioè le dimensioni delle immagini stampate non supereranno i 10 cm di lato, saranno sufficienti anche immagini di 128x128 pixel.
B6 Parametri di controllo del sistema di feedback, G, P, I: (grandezze "hardware") si tratta delle componenti Proporzionale ed Integrale del sistema PI implementato sullo strumento, nonché del Guadagno complessivo dello stadio di feedback (vedere paragrafo 3.1.3). Sono indubbiamente parametri fondamentali e significativi, per una discussione dettagliata dei quali si rimanda al passo successivo della presente analisi, poiché il loro contributo deve essere dettagliato con cura riferendosi ad analisi sperimentali.
B7 Frequenza di taglio del filtro Passa Basso fLP: (grandezza "hardware") è un altro parametro legato anch'esso all'elettronica dello strumento come i precedenti; si tratta della frequenza di taglio del filtro passa basso normalmente inserito dopo lo stadio proporzionale per eliminare il rumore, mentre sul ramo dell'integrale questo ruolo è già svolto dall'integrale stesso, che è un passa basso di per sé (di nuovo si veda il paragrafo 3.1.3). Il parametro è ritenuto significativo.
B8 Input Gain In.G: (grandezza "hardware") è un generico guadagno normalmente introdotto sui segnali immediatamente provenienti dall'interazione (cioè in uscita dalle fotocelle nell'AFM, in uscita dal convertitore corrente-tensione nell'STM); esso è relativo cioè ad uno stadio d'amplificazione inserito prima del modulo di feedback PI, ed opera sui segnali non ancora elaborati da questo. Il parametro è ritenuto a priori significativo per il buon esito di una misura SPM.
B9 Setpoint o Reference, cioè forza verticale Fv (o deflessione della microleva D0) per l'AFM, corrente di tunnel IT0 per l'STM: (grandezza "hardware") è impostata dall'utilizzatore. Varia in funzione innanzitutto del tipo sonda utilizzata. Questo in misura maggiore per l'AFM, dove la caratteristica che distingue le sonde, cioè la costante elastica, varia anche di 2 ordini di grandezza tra i vari tipi di cantilever; in misura minore, ma comunque osservabile, per le diverse punte STM (che in ogni caso si cercano della massima conducibilità), sia in funzione della conducibilità intrinseca del materiale, se W o Pt/Ir, che della sua "anzianità" di utilizzo benché attento (solo per l'ossidazione) o addirittura per un utilizzo non adeguato che l'abbia logorata (spuntata in seguito ad "urti", cioè contatti violenti). In particolare per l'AFM occorre notare che la forza verticale dipende sia dalla deflessione della microleva (ovvero dal segnale di tensione, da mantenere costante tramite il sistema di feedback, che il laser riflesso dal dorso della leva genera in uscita dalle fotocelle), sia dal tipo della microleva (ovvero dalla sua costante elastica, che a parità di deflessione è la grandezza che, moltiplicata per la deflessione, dà la forza verticale di contatto: Fv=kD).
Il parametro è significativo, riguardo all'effetto delle sue variazioni, in una misura SPM, in quanto influenza in maniera critica la situazione postulata, per la misura, di moto relativo punta-campione che procede per stati di equilibrio, per cui ci si attende che esistano almeno dei limiti superiori ai valori di questo parametro. Per l'AFM questo valore limite di Fv corrisponderà al punto di rottura della microleva o della sua punta; inoltre esisterà un limite in cui viene provocata una deformazione quantomeno elastica (se non addirittura plastica) del campione, la quale influenza la topografia apparente dello stesso. Per l'STM il valore limite IT0 corrisponderà a qualche alterazione indotta elettricamente della punta o, più probabilmente, del campione, che almeno nel caso di campioni biologici, ma non solo, è più delicato di questa. Se si modifica il campione si ricade nelle applicazioni nanolitografiche delle tecniche SPM, ma se interessano solo le immagini lo scopo è invece opposto: quello di non alterare in alcun modo l'aspetto originale del campione.
B10 Frequenza di riga di scansione fscan: (grandezza "software") è la frequenza (in Hertz) con la quale viene percorsa e acquisita una riga delle matrici di punti mappati sul campione di cui al parametro B2.
Il parametro è significativo per due distinti motivi, uno dei quali valido solo per la tecnica AFM. Quest'ultimo consiste nel fatto che il valore del parametro si ripercuote sulla velocità fisica con cui la punta della sonda, in contatto col campione in questa tecnica, lo percorre nel suo moto ad esso relativo, (cioè influenza la dinamica del contatto, che deve procedere per stati di equilibrio tra reazione del campione e forza elastica della microleva), e quindi ha un effetto critico sul meccanismo del contrasto AFM. Nell'STM d'altronde, non essendoci contatto nel moto relativo punta-campione, non è necessario che sia soddisfatta nessuna condizione di equilibrio, ma esiste un'altra limitazione alla velocità massima (presente, questa, anche nell'AFM): l'elettronica di acquisizione. Cioè esistono dei tempi minimi di assestamento del sistema di feedback al valore di Setpoint impostato, sui vari punti raggiunti nel moto dal punto di interazione punta-campione, tempi che devono essere evidentemente inferiori a quelli con i quali la punta raggiunge i successivi punti di campionamento del segnale. Ovvero l'elettronica di controllo potrebbe, quando anche in assenza a priori di problemi di dinamica (STM) o in presenza di una situazione dinamica stabile (AFM), non riuscire comunque a seguire il movimento della punta, cioè ad assestare, su ogni punto acquisito dell'area del campione, il valore di topografia Z in un tempo efficace (in questo senso la frequenza di riga è un parametro legato alla costante di tempo della componente integrale del feedback).
Il risultato della rassegna sopra effettuata è riassunto nella seguente tabella.
Relativamente ai parametri selezionati nel precedente paragrafo come fondamentali, effettuiamo uno studio più approfondito del loro significato, interpretandoli ed elaborandoli ai fini del loro utilizzo. Cioè vogliamo vedere quali di questi parametri sia utile variare in una tipica operazione di "tuning" SPM, dove s'intenda con questo termine l'ottimizzazione delle immagini ottenute del dato campione in esame, effettuata variando i valori dei vari parametri di scansione-acquisizione dello strumento SPM.
Intanto occorre osservare che oltre ai parametri che determinano, per un dato esperimento, il conseguimento di immagini ottimali, risulta estremamente importante definire in maniera corretta anche i parametri che devono identificare in maniera univoca un dato esperimento "acquisizione SPM", consentendo di distinguerlo da tutti gli altri esperimenti, che avranno, in genere, valori ottimali dei parametri di scansione-acquisizione che dipendono da questi. Cioè il sistema SPM è una "scatola nera" che, in presenza di un determinato campione (o più in generale "esperimento", intendendo con esso il campione più le condizioni al contorno, ambientali, di misura) e di un determinato insieme di valori dei parametri di scansione-acquisizione impostati dall'operatore, variabili tutte considerabili come facenti parte di un Input, fornisce in Output una data immagine, che si vuole di qualità ottimale. Per migliorare questa immagine è possibile, fissato il campione (l'esperimento) far variare i parametri di scansione-acquisizione.
Quindi il problema, da parte dell'operatore, è risolvere un altro sistema, uno strumento "ideale", che potremmo chiamare "ottimizzatore SPM", che questa volta abbia in Input i parametri che descrivono il campione (o esperimento), e in Output i valori ottimali dei parametri SPM di scansione-acquisizione. È chiaro che questo "ottimizzatore" è costituito dall'operatore stesso, che in base alla sua esperienza (operatore esperto) decide di provare ad impostare, in corrispondenza di un campione con determinate caratteristiche, determinati valori dei parametri operativi SPM di scansione-acquisizione. Comunque si tratta di un'operazione sempre non immediata ma che procede per tentativi, cioè secondo un metodo cosiddetto "trial and error" (prova ed errore, e successiva nuova prova fino a "vedere" un'immagine migliore, cioè un errore "minore"). Vogliamo porci il problema di identificare e segnalare quali parametri, secondo questo secondo problema di ottimizzazione (tuning) delle immagini, siano quelli di Input e quali quelli di Output.
L'insieme di parametri componenti che costituisce un vettore di Input della rete sarà chiamato di seguito brevemente "campione", mentre l'insieme di parametri componenti che costituisce un vettore di Output sarà chiamato "impostazione ottimale". In pratica si osservi che rispetto alla classificazione che distingue tra i parametri SPM di sessione e di singola acquisizione ne abbiamo effettuata in questo modo un secondo tipo, più focalizzata sulla funzione dei parametri (che cosa descrivono e perché cambiano o si cambiano) che non sulla loro operatività (frequenza con la quale vengono cambiati), anche se ovviamente esiste una relazione abbastanza stretta tra i due aspetti, che vede una certa corrispondenza tra parametri di sessione e parametri campione (vettore di Input) da un lato, e parametri di singola acquisizione e parametri impostazione ottimale (vettore di Output) dall'altro. Si è solo spostato l'accento sull'operazione di miglioramento del risultato SPM (l'immagine), con la conseguenza che sarà necessario, nel paragrafo successivo, un qualche riordinamento delle idee ed una ridefinizione dei parametri stessi.
3.4.3.1 Parametri assegnabili in maniera deterministica
Partendo dai parametri SPM fondamentali preselezionati, possiamo escluderne tre tra quelli da utilizzare nella procedura di ottimizzazione trial and error (cioè per tentativi). Benché essi siano infatti parametri molto importanti, non risulta necessario il loro inserimento in una simile procedura di tuning variazionale perché i loro valori possono essere assegnati nella maniera ottimale in modo deterministico, senza ricorrere a procedure di variazione.
Traslatore piezoelettrico (A3): a seconda dello strumento utilizzato, se questo prevede tubi piezoelettrici intercambiabili, che si distinguono in base al range di scansione sul piano (X,Y) ed alla dinamica Z, quello di volta in volta da utilizzare, per un determinato campione, sarà sempre, come è buona norma universalmente accettata, il più "piccolo" utile tra quelli disponibili; cioè il più piccolo che consenta di spazzare l'area massima che si intende visualizzare del campione e che sia simultaneamente in grado di ricoprire, con la sua dinamica Z, l'intervallo di dislivelli attesi del campione, Zmax-Zmin.
Tra l'altro questo "parametro" (piezo utilizzato) è "di sessione" in quanto non è immediato da modificare, ed è perciò confortante che esista una buona regola che induce a tenerlo costante e fornisce un criterio per la sua scelta.
Sonda, ovvero microleva elastica per l'AFM, punta conduttrice per l'STM (A4): si è già detto, in fase di considerazioni preliminari sull'importanza dei parametri, che, benché le sonde siano in pratica materiale di consumo negli esperimenti SPM, il parametro corrente può essere considerato "di sessione". In effetti questo è giustificato perché nonostante il cambiamento di sonda sia in effetti una procedura relativamente rapida (soprattutto, nel caso AFM, tra microleve diverse su uno stesso chip, che ne presenta un certo numero alloggiate insieme sullo stesso supporto), si tratta di un'operazione da sconsigliare, generalmente, all'interno di una sessione, quando si vogliano mantenere informazioni quantitative coerenti. Infatti esistono fattori che influenzano in maniera critica quest'ultimo aspetto sia nell'STM che nell'AFM: nel primo basta ricordare il fattore di forma (aspect ratio) delle punte STM, in genere realizzate a mano e quindi sempre diverse, mentre nel secondo risulta determinante, per i valori numerici dei segnali che generano le immagini, la qualità della focalizzazione del laser sul dorso delle microleve, praticamente mai riproducibile in maniera esatta neanche su leve dello stesso tipo, e che comunque genera normalmente un comportamento diverso. Ad esempio, leve di diverse dimensioni fanno passare, verso la superficie del campione, una porzione diversa del fascio laser incidente su di esse, e possono, nel caso questa sia troppo elevata, indurre fenomeni di interferenza col fascio riflesso dal campione, o sovrapporsi comunque sulle fotocelle al fascio riflesso primario. Nell'AFM, inoltre, ad una difficoltà nella focalizzazione del fascio sul piano dell'estremità della microleva si aggiunge una difficoltà nella centratura del fascio sull'estremità della microleva stessa, ed entrambe influenzano la riproducibilità degli esperimenti (così come il fatto che la punta sia diversamente appuntita nella tecnica STM).
Il parametro va quindi mantenuto costante durante un intero esperimento. Per la sonda STM la variazione del Setpoint di riferimento sarà effettuata senza problema tramite la relativa tensione di polarizzazione, mentre per la sonda AFM il valore di riferimento della forza verticale di contatto Fv sarà modificato separatamente, nell'ambito del ristretto range di valori utilizzabili con la microleva selezionata, e l'effetto della scelta della microleva su questi valori sarà quello che consiglierà di utilizzare un determinato modello di microleva piuttosto che un altro. La scelta dello specifico tipo di sonda nel caso AFM è pertanto rinviata alla discussione del parametro Setpoint.
Frequenza di taglio del filtro Passa Basso fLP (B7): potrebbe essere utile inserire questo parametro tra quelli di tuning, in quanto effettivamente la qualità delle immagini cambia al variare del suo valore. Infatti, partendo da valori molto alti, che contengono le elevate frequenze di rumore (1/f) sempre presenti, e diminuendo questo valore, si ottiene dapprima un miglioramento, corrispondente al taglio di queste frequenze di rumore (tra cui "spikes" isolati e il cosiddetto rumore "salt and pepper", che con la sua presenza di picchi alti, cioè bianchi, e bassi, cioè neri, sembra effettivamente una distribuzione di granellini di sale e pepe). Tuttavia tagliando eccessivamente a un certo punto vengono penalizzate porzioni di segnale significativo (strutture reali sulle immagini), per cui si assiste ad un progressivo "blurring" (offuscamento, sfumatura).
Questo funziona in pratica se si lavora solo con la parte Proporzionale del feedback; in realtà, siccome si lavora sempre con Proporzionale ed Integrale combinati, occorre considerare anche il contributo di quest'ultimo, che costituisce di fatto anch'esso un passa basso.
Fig. 3.23: una serie di immagini di un campione di film sottile di un polimero conduttore, a scansioni di spazzata ~1,4 mm. A Integrale fissato, pari a un valore tipicamente ottimale per molte immagini, si è ridotta progressivamente la fLP: a) 1000 Hz, b) 300 Hz, c) 100 Hz. Già nella c) sono scomparse tutte le oscillazioni presenti nelle immagini precedenti, mentre successive acquisizioni a 30, 10, 3 e 1 Hz hanno fornito immagini praticamente uguali, non mostrando quindi, in realtà, il blurring che ci si sarebbe atteso. Questo è dovuto al fatto che il valore d'Integrale impostato corrisponde ad una f0~111 Hz, per cui comunque non vengono tagliate le frequenze inferiori a quel valore, per quanto riguarda il ramo Integrale del feedback. In e) è infine rappresentato il risultato di un'elaborazione di post-processing dell'immagine a) di tipo passa basso 5x5, il minimo necessario per rimuovere le oscillazioni: si può osservare che in questo caso è inevitabile l'insorgere di un notevole blurring; è quindi confermata l'importanza di un passa-basso "fisico" on-line sulle acquisizioni (e del relativo parametro fLP), da preferire in ogni caso a qualsiasi operazione, anche analoga, di post-processing.
Quindi due sono le "frequenze di taglio" da tenere presenti: la fLP e la f0=1/2pti dell'Integrale (con ti=RC costante tempo). Pertanto, in condizioni in cui non è necessario un elevato Proporzionale perché di fatto le altezze delle strutture topografiche sul campione sono piuttosto ridotte, anche annichilendo il contributo del Proporzionale con una fLP assai bassa, rimane la porzione di feedback Integrale, e quindi può capitare di non osservare il blurring sopra descritto.
Per quanto riguarda il valore da assegnare a questo parametro fLP, almeno per il limite superiore, questo potrebbe essere determinato automaticamente in maniera esatta, senza necessità di procedimenti iterativi, conoscendo le caratteristiche nominali (periodicità) del campione. Se, ad esempio, si acquisiscono 128 punti su una riga che rappresenta una dimensione lineare del campione pari a 1 micron, poiché come dimensioni minime delle strutture riconoscibili si può ragionevolmente pensare di avere due pixel per un cluster (uno può essere dovuto, spesso, a rumore), e altri due, a fianco, per distinguere un altro livello (che può essere il piano di substrato, per la singola struttura topografica, o il semiperiodo di valore basso, per una struttura periodica), si può concludere che il "periodo" minimo interessante è pari a 4 pixel, quindi 4/128 del periodo di riga, ovvero, la frequenza massima interessante è 128/4=32 volte la frequenza di scansione di riga; tutte le frequenze superiori possono essere tagliate dall'immagine (ad esempio, a 4 Hz di scansione si può impostare tranquillamente la frequenza di taglio a 4x32=128 Hz senza timore di perdere alcuna informazione, che non sarebbe in ogni caso riconoscibile sull'immagine, e genererebbe soltanto rumore). Ma un'altra osservazione consente di determinare una regola pratica di validità generale per l'assegnazione del valore a questo parametro, senza fare ricorso ad una sua considerazione di "variabile" nell'ambito delle procedure di "tuning" delle acquisizioni. Questa è fornita dal richiamo al fatto che, come già osservato sopra, lo stesso Integrale è un passa basso con una sua frequenza di taglio, per cui, una volta impostato il contributo dell'Integrale, la frequenza di taglio sul proporzionale dovrà essere ragionevolmente impostata al valore più prossimo a quella (1/2pti) dell'Integrale: non ha molto senso, infatti, ricomporre un segnale precedentemente sdoppiato in due rami distinti sui quali da uno è stato tagliato un certo insieme di frequenze e dall'altro no. Nella figura seguente si vede come modificando con fLP anche l'Integrale, in modo da procedere di pari passo con fLP e f0, si osserva in effetti il blurring di cui si era discusso in precedenza.
Fig. 3.24: effetto della diminuzione parallela di fLP e f0: a) fLP=f0=100 Hz, b) fLP=f0=30 Hz, c) fLP=f0=10 Hz, d) fLP=f0=3 Hz. La variazione di ciascuno dei due parametri evidenzia l'effetto di quella dell'altro e non lo maschera; il risultato è un notevole blurring, oltre all'evidente curvatura della superficie dovuta all'isteresi del piezoelettrico lungo Z (evidenziata quando lo stesso "è in difficoltà" nel seguire il profilo del campione, come in questo caso, in cui praticamente sia la componente Proporzionale che quella Integrale vengono progressivamente ridotte sempre più al diminuire delle frequenze di taglio). Questo metodo di variazione "in parallelo" consente di vincolare i parametri uno all'altro; poiché quello veramente essenziale ai fini della stabilità del sistema è il parametro del sistema di feedback I (cioè f0), questo sarà variato nella procedura di ottimizzazione delle immagini, mentre sarà l'altro ad essere impostato in maniera dipendente dal primo. (Il campione è lo stesso di Fig. 3.19, in un'altra zona, a spazzata ~ 2,2 mm).
Fig. 3.25: una esemplificazione dell'effetto di inibizione della luminosità. In a) il tono di grigio dei quadrati interni è lo stesso, ma sembra più chiaro all'interno del quadrato nero, per contrasto, che non all'interno del quadrato bianco. In b) è rappresentato un caso pratico di occorrenza dell'effetto descritto in immagini SPM: si tratta delle matrici sinistra (Forward) e destra (Backward) di Torsione T di un AFM in contatto utilizzato su un pattern di proteine. Nelle tre zone indicate dalle lettere nell'immagine a sinistra si hanno due livelli di grigio corrispondenti a valori di attrito diversi di tre distinte sostanze, e precisamente: in A (Amminosilano) si ha un livello d'attrito minore, pari a ~30, in unità arbitrarie, mentre in B (BSA: Bovine Serum Albumine, albumina da siero bovino) e F (Fibronectina) si ha un valore approssimativamente uguale, pari a ~60. Sull'immagine destra si hanno all'incirca gli stessi valori, cambiati di segno (in quanto l'attrito è sempre opposto alla direzione del moto), e cioè ~-30 sulla zona A, ~-60 sulle zone B e F. Essendo le 2 immagini sinistra e destra rappresentate con la stessa palette di toni di grigio, questi corrispondono ai valori numerici che rappresentano, e pertanto sulla zona A a sinistra il grigio è comunque più chiaro (valore ~30) di quello sulla zona A a destra (valore ~-30), mentre sembra il contrario.
Questo è dovuto al fatto che secondo la "Gestalt theory" noi percepiamo le immagini nel loro insieme, e non riusciamo ad estrarre realmente le singole caratteristiche, cosa che si può fare confrontando i numeri che generano la rappresentazione in immagini, tramite apposito software.
L'intervento dell'operatore umano è invece assai più efficace in sede di verifica, quando si tratti solo di formulare giudizi sulle scelte effettuate preventivamente da un qualche meccanismo di analisi matematico/statistica delle immagini, implementato via software. L'utilizzo di un parametro calcolato sulle immagini costituirebbe un metodo perfettamente riproducibile tra vari esperimenti di uno stesso strumento SPM. Inoltre fornirebbe un criterio ben definito da utilizzare come standard anche in considerazione dell'eventualità di una commercializzazione di un sistema SPM realizzato artigianalmente (gli SPM commerciali, pur se dotati di software di analisi ed elaborazione delle immagini molto evoluti, lasciano in genere a desiderare sotto questo aspetto, forse perché potrebbe rivelarsi, possiamo magari anche pensare con un pizzico di malizia, troppo autocritico?) Avere un parametro di valutazione che possa descrivere in maniera oggettiva la qualità (intesa quindi come fedeltà al campione) delle immagini potrebbe essere infine di grande utilità per confrontare il funzionamento di uno stesso strumento in condizioni diverse, o di due strumenti distinti che per forza di cose sono costretti a lavorare in condizioni normalmente diverse: magari uno operante ad esempio in aria in un laboratorio isolato da un centro cittadino e in una località con normalmente l'80% di umidità, ed un altro in un dipartimento universitario al centro di una grande città e vicino a strade molto trafficate (vibrazioni), in un luogo che mediamente presenta il 20% di umidità.
La conclusione di quest'analisi è comunque che le variabili candidate a descrivere il campione devono essere ampliate rispetto ai semplici parametri A1 e A2. L'espansione dovrà provvedere innanzitutto ad estrapolare dal parametro "Materiale" (che è di fatto solo descrittivo) le proprietà chimico-fisiche di cui sopra che si ritengono fondamentali per l'esito di una misura SPM), e quindi ad individuare in generale anche altri parametri che distinguano realmente il campione, tenute in considerazione anche le debite condizioni al contorno. Anche questi parametri contribuiranno a determinare, in generale, un insieme diverso di valori dell'"impostazione ottimale".
3.4.3.3 Vettore di Input: "Campione"
Le proprietà chimico-fisiche che posso essere individuate come probabilmente le più importanti del campione (o più precisamente dell'interfaccia punta-campione) sono fondamentalmente due: la "Durezza" e l'"Adesività". La Durezza in qualche modo rende conto del problema dell'alterazione del campione, sia essa di origine elettrica (STM) che meccanica (AFM). Ad esempio nel primo caso la punta STM a tensioni di polarizzazione troppo elevate e magari impulsate può formare dei veri e propri buchi nella superficie del campione, estraendone materiale, (oppure può al contrario, dipende evidentemente dal segno della polarizzazione, "sparare" della materia, come fossero nano-gocce, dalla punta al campione). Ma nel caso AFM forse l'alterazione del campione è ancora più comune e difficile da evitare, essendoci un vero e proprio contatto punta-campione: quest'ultimo è infatti spesso deformato elasticamente (con generazione di artefatti nelle immagini) o, in casi limite, perfino plasticamente, con vero e proprio logorio del campione (le cui strutture superficiali sono "spazzate" dalla punta se troppo debolmente fissate al substrato o scavate dalla stessa "molli"), nel caso in cui sia stata selezionata una forza di contatto eccessiva. La durezza del campione è quindi il primo requisito perché la fisica dell'interazione punta-campione sia, da un lato, stabile, e dall'altro assicuri immagini che riproducono il profilo reale del campione. Per l'aspetto chimico, l'eventuale tendenza del campione a "legare" in qualche modo la punta (con qualsiasi tipo di legame, vero legame chimico o creazione di giunzione viscosa) può essere interpretata appunto con un generico parametro di nome "Adesività", che renda conto della tendenza alla interazione dei due corpi all'interfaccia, quale che sia l'origine di questo effetto.
Una considerazione ulteriore è che le proprietà fisico-chimiche, o perlomeno quelle chimiche cioè l'"Adesività", dipendono non solo dal materiale in sé ma anche dall'ambiente (temperatura e umidità, per esempio). A questo proposito occorre prendere in considerazione il parametro "Condizioni ambientali" (A2). Si osservi che a parte lo stesso "Materiale" (puramente descrittivo, ora che ne sono stati estratti i contenuti fisico-chimici) questo parametro è l'unico candidato rimasto tra quelli detti "di sessione", cioè da non variare nel corso di un singolo esperimento. In effetti, se si considera come strettamente definito all'inizio, cioè solo come ambiente di scansione (aria, liquido, atmosfera controllata o vuoto), è chiaro che per campioni duri e che non necessitano di particolari attenzioni l'ambiente normalmente selezionato sarà senz'altro la comune "aria", (per un banale criterio di massima semplicità sperimentale).
Per raggiungere la risoluzione atomica potrà tuttavia essere necessario operare in vuoto, mentre per i campioni molli si dovrà probabilmente lavorare in uno dei due mezzi rimanenti; per cui in assoluto potrà aver senso vedere quali sono i parametri ottimali per uno stesso campione analizzato in mezzi diversi. Quindi si potrebbe considerare anche la presenza di un parametro "Condizioni ambientali" esplicitato come "Mezzo" materiale di immersione del campione in analisi. Di fatto, però, è possibile valutare l'effetto di questo parametro all'interno dello stesso parametro Adesività, considerando che, ad esempio, l'immersione di un campione in liquido (così come l'operazione in atmosfera controllata e in vuoto) comporta l'eliminazione dell'adesione dovuta alla presenza di un menisco generato da contaminanti (vapore acqueo) adsorbiti sulla superficie del campione, in aria. Anche le condizioni ambientali vengono intese come facenti parte di un unico simbolo descrittivo del campione, l'Adesività, intendendo con questo l'insieme degli effetti causati anche da variazioni di temperatura o, ancor più, di umidità.
Quindi, riepilogando, come descrizione complessiva esauriente del "Campione" a questo punto si ha: Materiale (comprendente l'aspetto descrittivo del mezzo) + caratteristiche chimico-fisiche che lo distinguono (Durezza e Adesività, comprendente l'aspetto funzionale del mezzo).
Un ultimo insieme di parametri significativi ci aspettiamo che sia costituito dalle caratteristiche specifiche della "porzione" di materiale analizzata, che viene descritta (almeno parzialmente, sul piano (X,Y)) dal parametro "Spazzata". Questo risulta significativo in quanto ci si attende che, innanzitutto per questioni "geometriche", sia diverso visualizzare uno stesso materiale su scale di dimensioni differenti: un medesimo vetrino (ad esempio un macrocristallo di Grafite HOPG) può essere piatto su scale del micron o almeno delle centinaia di nanometri (vedere figura successiva, parte a)), e mostrare un profilo corrugato se si scende con le dimensioni di scansione a dimensioni dell'ordine dei nanometri, per ragioni di semplice risoluzione delle immagini, (al limite, a livello di risoluzione atomica, dove il rilievo sono i singoli atomi, ogni superficie è corrugata, e per la Grafite si vede la struttura ordinata del reticolo cristallino, vedi parte b) in figura).
Fig. 3.26: a) grafite HOPG a scansione di 2 micron: si vedono zone coerenti di dimensioni lineari dell'ordine di centinaia di nm dovute ad estesi piani piatti a livello atomico (i piani della struttura lamellare), delimitati ed evidenziati dai loro bordi (che consentono di riconoscere i piani come tali, garantendo che non si tratta di semplici zone a segnale nullo). b) Grafite a scansione di 3 nm: la figura dimostra che, zoomando, in condizioni ottimali è possibile conseguire la risoluzione atomica, cioè visualizzare il reticolo cristallino.
Oppure, al contrario, un vetrino può essere molto irregolare a grandi scansioni, quando se ne inquadrano superfici molto estese (come nel caso del film spesso di polimero conduttore in figura successiva, parte a)), e liscio localmente, su zone più piccole all'interno di ciascuna regione frastagliata, sia essa monte o valle (come per la zoomata nella parte b) in figura).
Fig. 3.27: film spesso di polimero conduttore depositato per via elettrochimica. a) La scansione ha dimensioni lineari di ~2,57 mm. b) Zoomando sulla zona visualizzata in precedenza, a dimensioni ~0,2 mm, è stato possibile ottenere questa immagine, quasi perfettamente piatta (a parte la curvatura del bordo, che è stata inquadrata volutamente per evidenziare la corrispondenza della zona e la realtà dell'immagine), in quanto localizzata su un plateau delle corrugazioni topografiche presenti su più ampia scala. (Le apparenti corrugazioni sono dovute ad effetti di rumore che si è diffuso con un effetto di "blurring" sulle vicinanze in seguito all'effettuazione di un filtro passa basso 3x3).
Ricapitolando, con un'estrema semplificazione si può dire che, in generale, esistono dimensioni intermedie tra il microscopico e il macroscopico, dette talvolta "mesoscopiche", sulle quali un materiale, che su scale macroscopiche presenta rilievi, può risultare liscio, perché siamo andati a vederne una zona abbastanza piccola da essere piatta. Scendendo poi ulteriormente nello "zooming" dell'area analizzata, almeno in linea di principio possiamo in ogni caso arrivare nuovamente alla visualizzazione di differenze di quota, a livello atomico-molecolare. Queste situazioni agli estremi opposti valgono, in generale, per un medesimo qualsivoglia campione.
3.4.3.4 Vettore di Output: "Impostazione ottimale"
Vogliamo analizzare l'opportunità di inserire in questo set i parametri individuati come candidati, procedendo tra essi per esclusione.
Consideriamo per primi i Parametri di controllo del sistema di feedback: G, P, I. Richiamiamo rapidamente il loro significato (già ampiamente descritto nel paragrafo 3.1.3) e discutiamoli in dettaglio.
Fig. 3.29: è riportato l'effetto di un aumento di G su un'acquisizione su aggregati di microsfere di Polistirene, (successivamente analizzati in Fig. 3.31 anche al variare di In.G). In queste immagini P e In.G erano stati fissati a 3 e 1 rispettivamente, mentre i valori di G sono stati modificati tra 1, 5 e 10.
G è il guadagno finale (numero puro) del segnale trattato dal sistema di controllo dopo la ricomposizione dei due rami elaborati dalla porzione proporzionale e da quella integrale del feedback; pertanto in condizioni ideali di buona sensibilità dello strumento possiamo escluderlo dai parametri fondamentali, in quanto influenza esclusivamente l'intensità del segnale rilevato, ma non la sua natura. Si tratta di un discorso intrinsecamente poco rigoroso, ma di indubbia validità sperimentale: se si ottengono immagini che comunque presentano strutture topografiche (non piatte) e queste hanno quote apparenti dei rilievi (dedotte dalle sensibilità Z nominali del piezo in uso, Sz) ragionevolmente prossime ai valori attesi, non v'è motivo di amplificare questo segnale. In effetti è stato riscontrato che le deviazioni dei dislivelli topografici su campioni noti (ad esempio per campioni di microsfere di Polistirene, griglie di calibrazione di passo 1 e 10 mm, chip di silicio, etc.) sono minori di quelli attesi (inferiori del 20%), e quindi rientrano nelle procedure di variazione dei valori nominali tipiche della taratura dei piezoelettrici, che, come si sa, occorre realizzare periodicamente. L'aumento di G rispetto al valore di partenza 1 non è quindi necessario in genere, ma anzi introduce spesso solo le tipiche problematiche di un'amplificazione eccessiva: overshoot, oscillazioni, fino eventualmente alla saturazione, (vedere figura precedente).
Per tutte le generiche misure SPM si consiglia di prendere G=1; il tuning "fine" dello strumento, per quanto riguarda l'amplificazione del segnale, sarà piuttosto realizzato tramite la variazione di P.
Fig. 3.30: immagini di una sezione orizzontale di un chip, effettuate al variare del parametro Proporzionale P. Per quanto le immagini sembrino a prima vista equivalenti, la tracciatura di una sezione del profilo in alcuni singoli punti chiave (ad esempio, in questo caso, in corrispondenza degli scalini associati alle piccole buche in alto a destra) evidenzia in realtà una differenza sostanziale: già nella seconda sezione compare il fenomeno di overshoot, per cui un eccessivo P genera, in corrispondenza di uno scalino, un segnale che va oltre il reale segnale d'errore da annullare, provocando un picco innaturale, mentre nella terza sezione questo effetto è ancora più evidente.
P è il guadagno (numero puro) della porzione di segnale trattata, nell'ambito del controllo PI, col feedback Proporzionale. È importante in quanto, insieme a I, determina la convergenza, la rapidità e la precisione con cui il sistema si avvicina al segnale di riferimento (Setpoint). Un esempio dell'effetto della variazione di P è riportato nella figura precedente. P va senz'altro inserito tra i parametri d'interesse per la variazione nel tuning.
I varia contemporaneamente guadagno e frequenza di taglio del ramo Integrale (passa basso) del feedback. Corrisponde cioè a quella precisa costante tempo ti(=RC) con cui il segnale di feedback sale per rispondere all'errore (la frequenza di taglio relativa del passa basso è f0=1/2pti); d'altronde entra anche a fattore dell'ampiezza del segnale, come 1/ti.
Quindi aumentando I (cioè ti) il feedback è lento a seguire il segnale, e l'amplificazione 1/ti diminuisce (cioè diminuisce il peso dell'Integrale rispetto al Proporzionale). Sull'opportunità di inserirlo tra i parametri per il tuning vale quanto detto per P. Un esempio di effetto di variazione di I, dal punto di vista della frequenza di taglio associata f0, è riportato in Fig. 3.24, dove, parallelamente a f0, viene impostata nello stesso modo anche fLP, frequenza di taglio del filtro Passa Basso, equivalente all'Integrale, inserito sul ramo di feedback trattato con il proporzionale P.
Per quanto riguarda il parametro da noi denominato Input Gain In.G ed altri eventualmente della stessa natura o con questo confrontabili, si tratta in tutti i casi di variabili che influenzano la generica sensibilità dello strumento, nell'ipotesi di piccoli segnali in uscita, andando ad agire direttamente sul segnale proveniente dalla sonda. L'esperienza insegna che nella maggior parte dei casi è sufficiente mantenere In.G (o qualsiasi altro parametro equivalente) impostato ad 1, mentre per i valori superiori si riscontrano oscillazioni nella risposta del sistema di feedback (dovute alla dinamica limitata dell'attuatore piezoelettrico), che possono generare anche una saturazione, parziale o completa, del segnale finale (immagini). Ad esempio nella figura seguente sono riportate 3 immagini di un campione a più livelli di topografia (microsfere di Polistirene aggregate) che mostra, a partire da una condizione di buona visualizzazione con In.G=1, l'effetto tipico di un aumento di questo parametro a 10 e 100. Si decide quindi che In.G andrà mantenuto sempre a 1.
Fig. 3.31: è rappresentato l'effetto tipico di un aumento di In.G (da 1 a 10 a 100) sull'immagine ottimale degli aggregati di microsfere di Polistirene, (già analizzata in Fig. 3.29 al variare di G; qui scan size=5 mm, G=1).
Consideriamo ora il parametro Setpoint o Reference, cioè forza verticale Fv (o deflessione D0) per l'AFM, corrente di tunnel IT0 per l'STM. Come abbiamo già avuto modo di osservare si tratta di un parametro che, insieme alla frequenza di scansione, influenza in maniera critica il meccanismo del contrasto delle immagini SPM. In particolare nell'STM valori anomali di corrente di tunnel impostata possono fornire una gran varietà di strani effetti geometrici sulle immagini, anche in funzione della eventuale molteplicità della punta (sempre presente in una qualche misura), se non addirittura alterare il campione in maniera più o meno reversibile, mentre nell'AFM il vero e proprio contatto genera spesso artefatti, tramite le condizioni di relativa instabilità della dinamica punta-campione. Valgono per questo un po' le stesse osservazioni fatte al precedente sottoparagrafo (3.4.3.3) per il parametro "Durezza" del campione, ad esso complementare. È infatti evidente che il campione può essere considerato "duro" se l'interazione cui esso è sottoposto con la punta è relativamente "debole", o al contrario "molle" se questa è relativamente "forte". In effetti ci si attende che il comportamento di un campione possa essere diverso, durante la visualizzazione, in relazione al valore di forza di contatto impostato: in generale un campione molle, ad esempio di natura biologica (cellula, DNA), potrà modificare il proprio profilo in presenza di correnti di tunnel (STM) o forze verticali di contatto (AFM) piuttosto elevate, mentre si suppone che questo non avvenga per campioni rigidi indeformabili, come ad esempio un chip di silicio. Un tipico caso dell'effetto della variazione dell'interazione di riferimento (Setpoint) su un campione relativamente molle è presentato nella figura successiva.
Fig. 3.32: immagini di microsfere di Polistirene di diametro 0,5 mm (la spazzata è ~3 mm), realizzate con la tecnica AFM. È stata utilizzata una stessa microleva (Triangolare Grande TG, costante elastica k=0,03 N/m), a valore di Setpoint (forza) crescente, pari rispettivamente a 0,03, 0,47 e 1,58 nN.
Nelle immagini riportate nella figura precedente si osserva che a forza bassa a) le sfere risultano effettivamente circolari (sul piano dell'immagine, bidimensionale) ma l'immagine presenta alcune righe in corrispondenza delle quali la punta sembra essere strisciata sul campione, probabilmente perché la forza di contatto Fv molto bassa genera instabilità. Esiste un valore di forza intermedia in corrispondenza del quale b) non compaiono più strisciate dovute all'instabilità del contatto (l'acquisizione è stata ripetuta diverse volte e mai si è avuta occorrenza di questo fenomeno), ma le sfere cominciano ad essere schiacciate: assumono forma più rettangolare e colmano maggiormente le buche interstiziali, soprattutto nella direzione di scansione, che è quella in cui la caratteristica topografica, deformata verso il basso per la elevata Fv, tende anche ad essere trascinata e deformata lateralmente, per effetto della forza d'attrito. A forza Fv ancora maggiore c) l'effetto indesiderato di schiacciamento e stiramento delle sfere è ancora più accentuato, e cominciano ad apparire nuovamente delle righe con fenomeni d'instabilità del contatto (una Fv troppo elevata può generare stick, cioè inpuntamento, sulle asperità topografiche più elevate).
Queste immagini facevano parte di una serie di misure più estesa, che presentava, per immagini intermedie, una considerevole continuità nell'andamento ivi descritto.
Il caso dell'STM è diverso e in generale più difficile da interpretare, quanto alle alterazioni indotte nel campione da un'interazione di eccessiva intensità di questo con la punta. Si tratta pertanto di un parametro significativo che si consiglia effettivamente di variare nel tuning delle scansioni-acquisizioni SPM.
Relativamente alla Frequenza di riga fscan, per quanto riguarda le ragioni della significatività di questo parametro in un generico esperimento SPM si è già detto esaustivamente nel paragrafo precedente, e le stesse ragioni, in assenza di un criterio deterministico indipendente per l'impostazione di un valore ottimale per esso, spingono a considerare il parametro nella procedura di tuning delle scansioni-acquisizioni. Le immagini riportate di seguito, per due diversi campioni d'esempio, confermano l'importanza della variazione di questo parametro, ai fini dell'ottimizzazione delle immagini.
Fig. 3.33: immagini esemplari di serie di acquisizioni realizzate a diverse fscan, pari, nella fattispecie, a 2, 4, 8 e 12 Hz rispettivamente. Il campione rappresentato sulla fila superiore di immagini è pelle di cipolla, a spazzata ~13 mm, quello sulla fila inferiore è uno scalino di Silicio, a spazzata 8 mm. In entrambi i casi, quindi per campioni assai diversi, si osserva che al crescere di fscan i contorni delle caratteristiche topografiche risultano ampliati e sfumati, e in taluni punti segmentati lungo la direzione di scansione X, ed estesi oltre la loro reale posizione.
Concludendo, con la nostra analisi siamo stati in grado di individuare e caratterizzare i parametri più importanti da considerare per l'utilizzo nella procedura di tuning, fornendo in pratica un vademecum e uno schema mentale di partenza solido ed efficace per un generico utente SPM alle prime armi. Questi parametri sono rappresentati nella tabella seguente.
Fig. 3.34: il compendio finale della nostra analisi, rappresentato come insieme di valori di Input e Output della procedura di ottimizzazione (tuning) delle immagini che va sempre effettuata dall'operatore SPM al fine di raffinare la qualità delle immagini fornite dal proprio strumento. A costui si consiglia di variare i parametri di Output a seconda delle caratteristiche di quelli di Input, e imparare col tempo ad associare automaticamente, in base all'esperienza, i valori di Output migliori corrispondenti ai dati "valori" di Input imposti dalle necessità sperimentali.