18.06.2004 La rinormalizzazione di una teoria di campo
MAPPA della PAGINA: La rinormalizzazione di una teoria di CAMPO... Agg. 02.07.2004
G = g0 + g1 + g2 + g3 + ... (1)
G potrebbe essere la probabilità di un certo processo di creazione di particelle o qualche proprietà quantitativa di una particella che interagisce con altre (es. la carica)... Nelle teorie fisicamente interessanti accade il fatto sgradevole che ciascun termine escluso il primo g1, g2, ... risulta essere infinito quando si portano fino in fondo i calcoli! Questo problema ha creato problemi ai fisici per vari anni fino a quando Feynman, Tomonaga e Schwinger (ma con l'aiuto decisivo di Dyson allora dottorando di Feynman), negli anni '50 compresero come era possibile ottenere risultati sensati almeno nell'elettrodinamica quantistica: la teoria degli elettroni e dei fotoni. Si è arrivati così a definire il processo di "rinormalizzazione" della teoria e si è introdotto il concetto di teoria di campo "rinormalizzabile". Il successo della procedura è stato tale che si è avuta, per la via indicata da Feynman, Tomonaga, Schwinger e Dyson, la previsione verificata sperimentalmente con la precisione più accurata di tutta la storia della fisica. Mi riferisco alla predizione del valore rinormalizzato del "rapporto giromagnetico dell'elettrone". Non entro nei dettagli del significato di tale grandezza ma torno al concetto di rinirmalizzabilità. Una teoria è rinormalizzabile quando sostituendo valori misurati a quelli infiniti per un numero "finito" di parametri, si possono fare "infinite" previsioni sul comportamento fisico del sistema fisico descritto dalla teoria. In pratica significa questo: ciascun coefficiente g1, g2, ... dello sviluppo di G di sopra, può essere curato dalle infinità riaggiustando solo alcuni parametri, un numero FINITO di parametri, gli stessi che compaiono in OGNI termine g1, g2, ... Di fatto questi parametri sono delle grandezze come G stessa e possono essere misurati sperimentalmente. Quindi con una certa procedura piuttosto complessa di sottrazione di infinità, si sostituiscono a ciascun termine g1, g2, ... i valori misurati dei parametri detti (che per la teoria sarebbero di valore infinito). In questo modo ciascun termine g1, g2, ... è stato rinormalizzato e risulta essere funzione (in genere una funzione complicata) dei valori sperimentali dei parametri detti. A questo punto si può calcolare G con l'approssimazione voluta sommando i g1, g2 rinormalizzati ed il risultato ottenuto si può confrontare con le misure sperimentali di G. Rinormalizzando gli stessi pochi (finiti) parametri usati per G si possono calcolare i valori di un infinità di altre grandezze G', G'', ... Quindi facendo preventivamente un numero finito di misure di pochi parametri, che poi sono le masse le cariche e le costanti di interazione della teoria, abbiamo alla fine delle formule che permettono di prevedere infinite caratteristiche del sistema fisico considerato. Viceversa se la teoria non è rinormalizzabile il numero di parametri diversi da "curare" e misurare risulta essere in numero infinito e la teoria perde predittività: Per poterla usare dovremmo fare un numero infinito di misure preliminari. Voglio aggiungere che non è detto che una teoria non rinormalizzabile non descriva buona fisica. Quello che è certo è che, dal punto di vista perturbativo, cioé usando delle serie infinite come quella in (1) sopra, una teoria non rinormalizzabile è patologica. Ma non si può dire molto di più. Perché l'uso di tecniche perturbative dipende dal nostro approccio per tentare di descrivere il mondo, ma è difficile credere che sia un fatto intrinseco della Natura. La teoria della gravità nell'impostazione di Einstein tradotta in teoria dei campi quantistici risulta essere NON rinormalizzabile. Anche (ma non solo) per questo fatto l'ipotesi del gravitone come bosone mediatore della forza gravitazionale è piuttosato controversa. Nemmeno la rinormalizzazione è la procedura definitiva per usare le stesse teorie rinormalizzabili ai fini della previsione. Questo perché una volta curati tutti gli infiniti e ottenuta una somma di termini che approssimano il risultato numerico voluto, accade spesso che la somma completa G che contiene infiniti termini (tutti finiti!) sia infinita. Questo fatto è stato provato da F.Dyson sempre negli anni '50 già per teorie "molto semplici" come l'elettrodinamica quantistica (QED). In termini matematici si dice che le serie con questa patologia sono "serie asintotiche". Il caso della QED è emblematico: se si somma la serie fino ad un certo ordine si ottiene un risultato che si avvicina di molto al valore "vero", da un certo ordine in poi però se ne distacca ed esplode all'infinito (oscillando). L'accuratezza raggiunta quando la procedura approssima bene il risultato vero è però tale che ha prodotto la previsione più precisa di tutta la storia della fisica quando confrontata con il risultato sperimentale -come detto sopra-. Questa situazione mostra quanto siamo ancora lontani da avere capìto la vera natura delle cose. Le teorie di stringa, brane e simili sono una speranza, ma per ora, non hanno apportato una briciola in più di sapere.
(Esempio applicativo: Gruppo di RINORMALIZZAZIONE)
Lo
spin tube ed il modello spin-orbita
Mediante
le tecniche della bosonizzazione e
del gruppo di rinormalizzazione sono
state investigate le proprietà a bassa energia di un ladder
di tre catene di spin in presenza di
un campo magnetico diretto lungo le catene, con
particolare riguardo agli effetti delle condizioni al contorno periodiche che
permettono di realizzare la cosiddetta configurazione di spin-tube.
Dapprima, partendo dal limite di grande accoppiamento tra le catene, in cui
il modello è descritto da triangoli indipendenti formati da tre spin-1/2
ed introducendo perturbativamente l'interazione lungo le catene, si è derivata l’Hamiltoniana effettiva del
modello. I risultati mostrano che
tale l'Hamiltoniana è equivalente
ad una catena di spin SU(3) anisotropa. Dopo aver proceduto
alla bosonizzazione del modello, l'analisi
mediante la teoria del
gruppo di rinormalizzazione mostra
che il sistema a bassa energia si comporta come un liquido
di Luttinger a due compomenti
a differenza dell’usuale liquido di
Luttinger ad una componente che
si realizza quando si considerano condizioni al contorno aperte.
La conseguenza di questo comportamento è
il contributo alle proprietà magnetiche,
a parte dei gradi di libertà di spin,
di un nuovo tipo di grado di libertà detto
chirale che nasce dall'aver considerato delle
condizioni al contono periodiche che sono frustranti per gli spin nel singolo
triangolo. A partire dall’Hamiltoniana effettiva si
è poi investigato il comportamento della magnetizzazione in funzione del campo
esterno per descrivere il formarsi di plateau della magnetizzazione per valori
discreti (m=0,1/2,3/2).
In particolare si è ricorso a calcoli numerici di DMRG
per verificare l'inesistenza di ulteriori
plateau della magnetizzazione tra ½<m<3/2 dove
si realizza il liquido di Luttinger a due componenti.
Infine, una generalizzazione
del modello al modello così detto spin-orbital ha permesso
di descrivere il diagramma di fase di alcuni vanadati.
In particolare l'analisi col gruppo
di rinormalizzazione mostra
che si possono realizzare una fase gapless
ed tre fasi massive in cui l’ordine antiferromagnetico compete con la dimerizzazione.
Ladder
di spin ½: effetti di interazioni
chirali e di interazioni di scambio anisotrope
Mediante
le tecniche della
bosonizzazione sono
state investigate le proprietà a bassa energia di varie tipologie di
ladder di spin ½ in
presenza di un'interazione chirale e di varie interazioni magnetiche cosiddette
di scambio. Per quanto riguarda il primo tipo interazione, essa
sorge allorquando un qualsiasi tipo di reticolo non-bipartito,
in cui si hanno almeno tre spin che formano un percorso chiuso, è posto in campo
magnetico. In tal caso quando il campo magnetico
è diretto perpendicolarmente alla superficie del reticolo, accanto
al termine di interazione di Pauli si ha un termine di interazione
chirale che rompe la parità. Queste interazioni chirali sono generate
in molti sistemi di spin e dovrebbero essere prese in considerazione. Lo studio
su alcuni sistemi di spin-1/2 con gap mostra che i termini
chirali alterano la fisica descritta dal solo termine di Pauli.
In particolare, questi termini
alterano la classe di universalità della transizione commensurata-incommensurata
in uno spin-tube. Più interessante
è la fisica indotta in ladder di spin zig-zag.
Qui si trova che i termini chirali chiudono il gap di singoletto e conducono
ad una transizione di fase del secondo ordine nel settore non-magnetico, che
si manifesta attraverso un comportamento di Luttinger a due componenti
nelle funzioni di correlazione di spin. Per quanto
riguarda invece le interazioni di scambio tra spin si sono analizzati gli effetti
dell’interazione Dialoshinskii-Moriya
(DM)
e la sua controparte simmetrica, cioè l'interazione
Analisi dello scattering Raman nei ladder di spins...
Lo scattering Raman è una tecnica sperimentale che fornisce valide informazioni sulla dinamica di spin degli antiferromagneti quasidimensionali. Essa è stata utilizzata per investigare catene di spin 1/2 e spin 1, sistemi spin Peierls (come CuGeO3) e spin ladders. L'analisi teorica dello scattering Raman è basata sull'Hamiltoniana di Fleury-Loudon, che descrive le interazioni dei fotoni con le eccitazioni magnetiche. Lo scopo della ricerca è stata quella di studiare mediante delle tecniche analitiche, la sezione d'urto dello scattering Raman nei ladder di spin. Dapprima è stato considerato l'approccio dei fermioni di Majorana, valido nellimite di debole accoppiamento tra le catene, in seguito abbiamo fatto ricorso alla tecnica degli operatori di bond (TOB) valida nel limite di forte accoppiamento. La rappresentazione in termini dei fermioni di Majorana conduce ad una cuspide nella intensità Raman ad un valore due volte quello di gap, in disaccordo con gli esperimenti, mentre la TOB predice un picco allo stesso valore dell'energia. Quest'ultimo risultato descrive bene i risultati sperimentali del CaV2O5 e Sr14Cu24O41. Inoltre ci permette di stimare il valore del gap nel caso dello Sr14Cu24O41, che risulta dell'ordine di 35 meV, in accordo coi dati di scattering neutronico. Un'importante conseguenza della nostra analisi è che lo spettro dello scattering Raman è sensibile alla dimensionalità del sistema di ladder accoppiati, rendendo così il Raman scattering un utile mezzo per discriminare i sistemi ladder dai sistemi con gap quasi-bidimensionali.
[TOP]
DIGRESSIONE...
Ci poniamo le seguenti domande...
Le odierne teorie formulate dai fisici conducono alla comparsa di quantità infinite. Nella teoria delle superstringhe, esse sono ancora presenti o sono state eliminate ? Nel primo caso è concepibile che la realtà fisica, in ultima analisi, sia spiegabile solo ricorrendo al concetto d'infinito e che le grandezze concretamente misurate ci appaiano finite per motivi a noi ignoti (ad esempio perché abbiamo la possibilità di misurarle solo in punti determinati del tempo e dello spazio e non in tutti gli infiniti punti ai quali hanno qualche probabilità di essere associate, come potrebbe essere il caso dell'elettrone, che in elettrodinamica quantistica ha massa e carica elettrica infinita, cui si sostituisce in pratica quella concretamente misurata) ? Infine nella teoria delle superstringhe il paradosso EPR ha spiegazione e se il tempo e lo spazio sono ancora variabili inserite a priori nel modello oppure sono derivabili da altre grandezze fondamentali (LINK correlato con il principio ANTROPICO) ? La domanda sorge spontanea, dato che per intervalli di tempo e di spazio confrontabili con quelli di Planck sia il tempo che lo spazio parrebbero perdere continuità divenendo, pertanto, difficilmente definibili.
(*)-E' vero che le teorie di campo portano alla comparsa di quantità infinite. Per quanto rigurda le teorie fisiche, cioè quelle che hanno un effettivo riscontro con la realtà, questi "infiniti" sono tuttavia solo apparenti, e "curabili" con un procedimento fisico-matematico che prende il nome di rinormalizzazione. La formalizzazione di questo procedimento è valso il Nobel 4 anni fa a Veltman e t'Hooft.
INCISO: Nobel per la Fisica a due olandesi
Gli olandesi Gerardus't Hooft e Martinus Veltman sono i vincitori del premio Nobel per la Fisica 1999. Lo annunciò l'Accademia reale delle Scienze di Stoccolma, precisando che il premio è stato attribuito ai due studiosi per i loro importanti lavori sulla struttura quantica nella teoria di interazione della forza elettromagnetica debole.
I due ricercatori si sono distinti, scrivono gli accademici nella loro motivazione, per "aver fornito alla teoria della fisica delle particelle una base matematica più solida". Veltman e Hooft hanno inoltre dimostrato come utilizzare la teoria per precisare i calcoli dei valori fisici. E recentemente alcune esperienze sugli acceleratori di particelle fatte in Europa e negli Stati Uniti hanno confermato molti dei risultati raggiunti dai due fisici. E' infatti grazie ai loro studi che i ricercatori dispongono oggi di un edificio teorico che può servire, tra l'altro, a prevedere le proprietà di nuove particelle scoperte a partire dagli anni '50 con l'aiuto degli "acceleratori". Gerardus't Hooft, 57 anni, lavora dal 1977 all'Università di Utrecht. Nel 1979 è stato insignito del premio Dennie Heineman della Società americana di Fisica. Martinus Veltman, 68 anni, ha invece insegnato fino a qualche anno fa alla Michigan University, negli Stati Uniti, dopo essere stato anche lui professore all'Università di Utrecht dal 1966 al 1981. Sono entrambi membri dell'Accademia olandese delle scienze e la loro collaborazione risale al 1969. Gerardus't Hooft, ritenuto uno fra i maggiori fisici teorici, è noto per aver teorizzato che il protone, benché formato da tante particelle, non si "rompe". Con ciò, T'Hooft ha messo in discussione tutta l'impalcatura della meccanica quantistica, la teoria che governa da '50 anni la comprensione dell'atomo ma che, secondo il "neo" Nobel, è inadeguata a spiegare i segreti dei "buchi neri". T'Hooft è stato il primo fisico teorico ad aver trovato la strada giusta per spiegare come mai l'ultimo mattone pesante dell'Universo (il protone) non si può rompere, nonostante sia fatto di tante cose. T'Hooft ha infatti scoperto che le forze che agiscono nell'universo subnucleare sono di carattere totalmente diverso da quelle a noi note. Martinus Veltman è invece noto per le sue ricerche pionieristiche sulle teorie di Gauge e per i suoi calcoli che hanno fornito la previsione per la massa della tuttora elusiva particella nota come bosone di Higgs (che nessuno ha mai visto finora) e per la massa del quark top, il sesto e ultimo quark della materia, identificato qualche anno fa nell'acceleratore del Fermilab di Chicago. E' la quinta volta che il Nobel viene attribuito a studiosi che si sono occupati della fisica delle particelle. Ed è la novantatreesima volta che questo premio è diviso tra due vincitori. Nel 1998 era andato a due americani, Robert Laughlin et Daniel Tsui, e a un tedesco, Horst Stoermer, per il loro contributo alla comprensione della fisica dei quanti rispetto alla struttura microscopica della materia. I due ricercatori olandesi hanno ricevuto ufficialmente il premio a Stoccolma, dalle mani del re di Svezia, il 10 dicembre 1999, anniversario della morte di Alfred Nobel, l'industriale svedese inventore della dinamite che creò i premi che portano il suo nome, tranne quello per l'economia, nel 1895. E con il premio hanno ricevuto un assegno di 7,9 milioni di corone svedesi (quasi 914.128,71 Euro).
Le teorie in cui gli infiniti non sono rinormalizzabili non sono fisiche: ad esempio, se si cerca di costruire una teoria di campo nel modo classico che renda quantizzato il campo gravitazionale (e quindi unifichi Meccanica Quantistica e Relatività Generale), si va incontro ad una teoria non rinormalizzabile. Gli infiniti sono più "cattivi", incurabili, e dunque la teoria non funziona. La teoria delle stringhe invece unifica questi questi due aspetti in modo rinormalizzabile, ed è questo uno dei principali motivi per cui piace a noi teorici. Quindi, più che dire che "le grandezze concretamente misurate ci appaiono finite per motivi a noi ignoti" mi sembra giusto dire è l'approccio matematico che dà luogo alla comparsa di infiniti, che sono in qualche modo un artificio teorico-formale. La carica dell'elettrone in elettrodinamica è "e", non infinito.
(*)- Il paradosso EPR non è in realtà un paradosso. O meglio, i suoi ideatori, Einstein, Podolski e Rosen lo pensarono come tale per dimostrare che la meccanica quantistica è assurda o incompleta, in quanto non locale. Il loro ragionamento era del tipo: se è vera la meccanica quantistica, allora eventi non spazialmente connessi si possono influenzare a vicenda, il che è assurdo. Invece se è sperimentato che è veramente così, per stati quantistici opportunamente configurati. Quindi, oggi sarebbe più corretto parlare di effetto EPR. Questo effetto è solo una delle cose strane che avvengono in Meccanica Quantistica: basti pensare all'effetto tunnel. Il paradosso EPR è legato al comportamento apparentemente problematico di certi sistemi fisici quantistici in riferimento a certi assunti dettati dalla relatività su come dovrebbero comportarsi i sistemi fisici. In particolare sembrerebbe violata la richiesta di insuperabilità della velocità della luce. Tuttavia non è così, se la questione viene considerata da vicino.
Divido la questione in alcuni punti.
1)-Il sistema fisico del fenomeno EPR è costituito da due parti A e B che si separano e allontanano molto velocemente. In qualunque momento si può misurare una certa proprietà P_A su A e in qualunque momento si può misurare una certa altra proprietà P_B su B. La meccanica quantistica dice che, se il sistema A+B è stato preparato in modo opportuno, i risultati delle due misure sono correlati sempre e comunque: se una misura fornisce un certo risultato l'altra deve fornire un ben preciso risultato legato alla prima e viceversa.
2)-Fino a qui niente di strano :-): queste correlazioni esistono in esempi banali tratti dall'esperienza quotidiana. Faccio un esempio. Prendo una banconota e la taglio a metà e ne consegno una parte a caso al signor A e l'altra al signor B che, non guardando quale parte di banconota tengono in mano, corrono in direzione opposta. Sono allora sicuro che, se nell'istante in cui A osserverà la prima volta la sua parte di banconota vedrà, per esempio, la metà destra, allora B sicuramente, nell'istante in cui osserverà per la prima volta la sua parte di banconota vedrà la parte sinistra e viceversa. La correlazione dei risultati esiste perchè era già esistente e definita prima che A e B controllassero quale parte di banconota portano con loro: i lati delle banconote sono stati assegnati all'istante iniziale da me !
3)-Prima di passare al caso quantistico facciamo una importante osservazione di carattere relativistico. Supponiamo che A e B siano molto lontani al momento del controllo delle proprie parti di banconota, tanto lontani che nulla che viaggi con velocità miniore o uguale a qualla della luce possa partire da A quando controlla la banconota ed arrivare a B quando fa la stessa cosa o viceversa. In tale situazione si dice che A e B sono "spazialmente separati" quando controllano le parti di banconota. In questo caso non ha alcun senso fisico dire chi dei due ha controllato per primo la parte di banconota: secondo la teoria della relatività posso trovare sistemi di riferimento in cui si descrive prima A controllare la sua parte banconota e poi B controllare la sua parte di banconota, ma posso trovare sistemi di riferimento dove accade il contrario e posso trovare un sistema di riferimento in cui A e B controllano contemporaneamente la propria parte di banconota. E' allora chiaro che in tale situazione, qualunque cosa faccia A al momento del controllo, non può essere causa di qualcosa che capita a B nel momento del controllo e viceversa: qualche osservatore vedrebbe la causa seguire l'effetto e invece noi assumiamo come principio elementare che le cause precedano gli effetti indipendentemente dall'osservatore (principio di causalità). In particolare. Non avrebbe senso dire che il risultato del controllo della parte di banconota di A ha causato il risultato del controllo di B o viceversa. Nel caso non quantistico in esame il commento è irrilevante perchè come detto in 2), la correlazione era già stata definita all'inizio, prima che i due signori si allontanassero.
4)-In meccanica quantistica la cosa è simile con una importantissima differenza in cui il commento in 3) gioca un ruolo importante. Usiamo la rappresentazione di sopra dell'esperimento in cui il sistema è la banconota (quantistica !), i due sottosistemi sono i suoi due lati, e la proprietà da misurare per A e B è "quale lato della banconota si tiene in mano". Secondo la Meccanica Quantistica l'esito del controllo della banconota di A non è fissato a priori, ma è deciso casualmente al momento in cui A controlla la banconota. La stessa cosa dicasi per B, con il vincolo che il risultato complessivo di A e B sia quello di avere una banconota intera e non due lati sinistri o due lati destri. Si noti che il ruolo di A e B è completamente interscambiabile.
5)-"Casualmente" sopra significa che se ripetiamo tante volte l'esperimento completo, A trovera' nelle sue mani il 50% delle volte il lato destro della banconota e il 50% il lato sinistro, e la stessa cosa accadrà a B; però sarà ogni volta rispettato il vincolo che i due risultati forniscono un lato destro ed un lato sinistro.
6)-Per quanto detto in 3), non è possibile pensare che il risultato ottenuto da A sia la causa del risultato ottenuto da B o viceversa!
7)-Questo esperimento ideale (paradosso EPR) è stato realizzato davvero (in più di 20 esperimenti differenti) con coppie di particelle vere usando l'orientazione dello spin delle particelle come risultato da controllare e si è visto che le cose accadono davvero come prevede la Meccanica Quantistica. Ciò dimostra che il "principio di località" è violato dai fenomeni fisici. Il principio di località, almeno, nella forma violata dal paradosso EPR si può enunciare dicendo che:
"non possono esserci correlazioni tra eventi spazialmente separati se tali correlazioni non hanno avuto causa comune nel passato !".
Nel caso in esame il risultato del controllo delle parti di banconota non ha causa in comune nel passato di A e B perchè, secondo la Meccanica Quantistica avviene nel momento dell'osservazione (e non è possibile determinare l'esito dell'esperimento a priori fissando opportune "cause" [vedi anche punto 10) più sotto]).
8)-Il principio di località era stato assunto da Einstein Podolsky e Rosen (EPR) come naturale nelle teorie fisiche (assumendo come vera la relatività), per motivi di buon senso. In effetti, apparentemente, se fosse violato, io potrei trasmettere informazioni "nel passato" sfruttando una correlazione con un evento separato spazialmente dall'evento in cui agisco (per il punto 3), A e B al momento del controllo possono essere visti uno nel passato dell'altro e viceversa. Infatti, si può provare (non è del tutto banale) che con una catena di tali correlazioni si costruirebbero paradossi temporali (es. cruento: pago un killer per uccidere i miei genitori prima che io sia concepito).
9)-L'analisi logica di Einstein, Podolsky e Rosen, che non volevano rinunciare al principio di località, portava alla conseguenza che la Meccanica Quantistica era falsa oppure incompleta (nel senso che l'esito di ogni controllo di A e B è già deciso in partenza ma è legato a variabili che la Meccanica Quantistica non considera). In realtà gli esperimenti gli hanno dato torto nel senso che si è visto, dopo la riformulazione teorica da parte di Bell di tutta la questione, che la località deve essere realmente violata (questo NON implica però che la Meccanica Quantistica sia completamente vera e completa).
10)-Ma allora ci sono davvero i paradossi temporali ? La risposta mostra tutta la sottigliezza della Natura: la violazione della località da parte della Meccanica Quantistica è tale che NON permette i paradossi temporali di cui sopra ! Esistono dimostrazioni tecniche rigorose di ciò. L'idea di fondo non è semplice e cerco di spiegarla comunque. Si deve notare che la Meccanica Quantistica viola contemporaneamente località e determinismo. Per determinismo intendo qui quel principio che dice che:
"in linea di principio, scegliendo opportune condizioni iniziali ed al contorno, posso, attraverso le leggi fisiche, costringere un qualunque sistema fisico ad assumere uno stato arbitrariamente scelto !".
Se fosse così allora A potrebbe costringere la sua mezza banconota ad uscire nello stato "lato destro" e sarebbe sicuro che B vedrebbe la sua mezza banconota nello stato "lato sinistro". Usando il codice Morse A potrebbe comunicare con B provocando i paradossi temporali. Però come detto in 5) il risultato del controllo della banconota di A è casuale (questo lo stabiliscono gli stessi principi della Meccanica Quantistica), per cui non è possibile trasmettere nulla a B. Si può provare una cosa ancora più forte: che A controlli la sua banconota oppure non la controlli: i risultati di B, eseguendo tante volte l'esperimento, hanno la stessa statistica. Per cui B non può nemmeno sapere se A ha davvero controllato la sua banconota. Dovrebbe essere chiaro da quanto ho scritto che, comunque funzioni il fenomeno di correlazione EPR, esso NON implica propagazione di informazione a velocità maggiore della velocità della luce, come talvolta si dice impropriamente. Non c'è proprio "propagazione di nulla" perchè, rimanendo nella spiegazione quantistica e relativistica insieme, non c'è un meccanismo di tipo causa-effetto che provoca la correlazione che non è descrivibile in alcun modo con tali categorie in quanto è intrisecamente quantistica.
(*)-"Tempo e spazio variabili inserite a priori o derivabili da altre grandezze fondamentali". Mi sembra carino citare Einstein: alla domanda di un giornalista, che chiedeva che cosa ha cambiato la teoria della relatività, lui rispose più o meno così: "Prima si credeva che spazio e tempo fossero li dà sempre, immutabili, e che se si togliessero tutta la massa e l'energia dall'Universo quelli continuerebbero ad esistere. Con la relatività generale si è capito che, se si togliessero massa ed energia, anche spazio e tempo smetterebero di esistere". Insomma, già in relatività generale spazio e tempo, in qualche modo, dipendono da massa ed energia, e a maggior ragione nelle teorie di stringa, che includono relatività generale e teorie quantistiche di campo. Quanto a quel che succede alla lunghezza di Planck, beh, quello è in gran parte un mistero :-). Non direi però che a tale lunghezza spazio e tempo perdono continuita. Alla lunghezza di Planck la gravità va descritta in maniera quantistica, cosa che non si sa fare con le teorie pre-stringhe, che quindi perdono di senso a tale scala di grandezze. Secondo le teorie fino ad oggi consolidate, non ha senso misurare lunghezze minori della lunghezza di Plank. Spazio e tempo devono essere diversi da come siamo abituati a vederli: Wheeler ci dice che diventa una schiuma quantistica, Hawking un mare di buchi neri virtuali che si creano e annichilano in continuazione. Le teorie di stringa ipotizzano che ci siano ulteriori dimensioni oltre alle quattro a cui siamo abituati, e che queste dimensioni extra siano strettamente "arrotolate" entro spazi di grandezza comparabile alla lunghezza di Planck. Le particelle che vediamo non sarebbero altro che i modi di vibrazione di stringhe unidimensionali in questo spazio allargato a molte dimensioni. Sono proprio queste dimensioni extra a far si che la teoria sia rinormalizzabile, evitando i famosi infiniti "cattivi" ed eventi catastrofici. Ma anche questa è un'altra storia...
NOTA: ESPERIMENTO mentale di EINSTEIN: Questo è l'esperimento mai effettuato che Einstein ideò per dimostrare quanto stava affermando. Per capire quanto verrà spiegato, è richiesto possedere una buona conoscenza di alcune nozioni di fisica meccanica e ondulatoria e chimica generale. Si può considerare un sistema formato da due quanti, da due particelle (ad esempio fotoni), che abbiano appena interagito e che si siano poi separati. In base al principio di sovrapposizione, questo sistema può essere considerato un unico stato, nel quale vi siano quantità uguali dello stato di polarizzazione orizzontale e di quella verticale. Per fotoni che hanno spin 1 e sono bosoni (non obbediscono al principio di esclusione), è intuitivo definire una polarizzazione orizzontale o verticale considerando l'analogia del fotone con l'onda elettromagnetica. Per gli elettroni che hanno spin 1/2, e sono fermioni (obbediscono al principio di esclusione), due polarizzazioni distinte corrispondono agli stati up e down, spin “destro” e spin “sinistro”. Lo stato formato dai due quanti viene descritto da una unica funzione d'onda (che non riporto) e che esprime certe relazioni di conservazione. Ne consegue che essendo le quantità correlate perché definite dallo stesso stato, se si misura la velocità o la polarizzazione di un quanto, si conosce immediatamente anche la velocità o polarizzazione dell'altro, indipendentemente dalla distanza spaziale delle due particelle. Ad esempio, obbedendo al principio di esclusione, se si misura lo spin up per un fermione, il secondo risulterà per forza avere spin down. Se la meccanica quantistica afferma questo, significa che la seconda particella, avendo inizialmente polarizzazione (o spin) indefinita, sa istantaneamente all'atto della misura sull'altra, che valore della polarizzazione (o spin) deve assumere, anche se essa si trova ad una distanza molto grande dal punto in cui viene effettuata la prima misura. La misura fissa istantaneamente il valore della polarizzazione di entrambi i quanti. La seconda particella “sa” che polarizzazione deve avere all'istante esatto in cui viene misurata la polarizzazione della sua lontana compagna, anche se nessuna delle due ha un sistema per informare l'altra del suo comportamento. La meccanica quantistica sfida quindi il concetto relativistico di località, in base al quale un evento non può avere effetti che si propaghino più velocemente della luce. L'esperimento ideale implicherebbe una azione a distanza “istantanea e fantasma”, ed una velocità dell'informazione infinita.
FINE DIGRESSIONE
Alcuni cenni di Meccanica Quantistica
Altro modo di vedere l'EPR...
Poniamoci le seguenti domande...:
"In fisica quantistica esistono velocità infinite, infatti se produco una coppia di particelle e le distanzio, misurando ad esempio lo spin di una faccio diventare istantaneamente l'altra di spin opposto. Qual è la distinzione tra queste velocità e quelle reali ? E' possibile in qualche modo sfruttare questo fenomeno per viaggi superluminari ?"
La meccanica quantistica è fondata su due principi basilari: il principio di indeterminazione ed il principio di sovrapposizione. In base al primo essa non predice il risultato specifico di una singola misurazione, predice invece vari esiti diversi possibili e ci dice quanto probabile sia ciascuno di essi. La meccanica quantistica introduce un elemento ineliminabile di impredicibilità o di casualità nella fisica. Il principio di sovrapposizione afferma che la somma vettoriale di due stati (lo stato quantistico definisce tutte le grandezze che caratterizzano un sistema fisico, entro il limite del principio di indeterminazione) è ancora uno stato possibile, cosa assolutamente non vera in meccanica classica.Questi due concetti fondamentali dimostrano quanto è profondo il divario tra la fisica quantistica e l'intuizione comune legato alla fisica classica. Se lo stato quantistico di un sistema è la descrizione più completa che si può dare del sistema stesso, allora una grandezza che possieda un valore indefinito in quello stato quantico è oggettivamente indefinita e non "sconosciuta" per l'osservatore. La fisica dei quanti ha poi implicazioni ancora più sorprendenti quando descrive un sistema costituito da due parti correlate. La misurazione delle proprietà di una particella pare influire istantaneamente sul risultato di una misurazione eseguita su un'altra particella, anche se è posta molto lontano dalla prima.
La meccanica quantistica ha tre fondamentali qualità.
1)-È controintuitiva. È molto diversa dal mondo macroscopico della fisica classica che percepiamo ogni giorno. La dualità onda-particella, la presenza di quantità discrete e non continue, l'effetto tunnel, il comportamento della luce di fronte ad una doppia fessura, sono tutti aspetti che hanno portato a sviluppare un nuova intuizione fisica, molto lontana dal cosiddetto senso comune.
2)-Funziona. L'atomo è stato compreso. In base al principio di esclusione di Pauli, le proprietà chimiche della materia sono state chiarite. La teoria quantistica dello stato solido e lo sviluppo dei semiconduttori, hanno portato alla bomba atomica, alla microelettronica ed ai computer. I moderni acceleratori di particelle funzionano in base alla meccanica quantistica. In astrofisica i processi nucleari e stellari producono oggetti esotici come le nane bianche o le stelle di neutroni, che sono descrivibili solo con la meccanica quantistica. La teoria quantistica è diventata uno strumento indispensabile.
3)-Ha aspetti problematici. Lo stato quantico è descritto attraverso la funzione d'onda (che descrive un'onda di probabilità a priori di presenza), ma non si è sicuri su quello che essa veramente rappresenti. Probabilmente la teoria quantistica è incompleta, inoltre esiste una certa ambiguità nella definizione di processo di misura. Non esiste infatti una frontiera netta tra ciò che costituisce l'osservatore e ciò che costituisce il resto del sistema. La mente umana probabilmente sfugge ad una descrizione con il formalismo quantistico. Tenendo in conto queste notevoli qualità della teoria quantistica attuale possiamo esaminare ora più in dettaglio il "paradosso" (EPR) enunciato nella domanda. Nel 1935, Albert Einstein, che manifestò sempre dubbi sulla completezza della teoria quantistica, pubblicò, insieme a due collaboratori, un articolo nel quale si mise in luce, con un esperimento mentale, ideale, il paradosso Einstein-Podolsky-Rosen (EPR). Anche se esso non fece crollare la meccanica quantistica, pose un dubbio, che rimane tuttora, sul carattere completo di tale teoria. Si può considerare un sistema formato da due quanti, da due particelle (ad esempio fotoni), che abbiano appena interagito e si siano poi separati. In base al principio di sovrapposizione, questo sistema può essere considerato un unico stato, nel quale vi siano quantità uguali dello stato di polarizzazione orizzontale e di quella verticale. Per fotoni che hanno spin 1 e sono bosoni (non obbediscono al principio di esclusione), è intuitivo definire una polarizzazione orizzontale o verticale considerando l'analogia del fotone con l'onda elettromagnetica. Per gli elettroni che hanno spin 1/2, e sono fermioni (obbediscono al principio di esclusione), due polarizzazioni distinte corrispondono agli stati up e down, spin "destrorso" e spin "sinistrorso". Lo stato formato dai due quanti viene descritto da una unica funzione d'onda che esprime certe relazioni di conservazione. Ne consegue che essendo le quantità correlate perché definite dallo stesso stato, se si misura la velocità o la polarizzazione di un quanto, si conosce immediatamente anche la velocità o polarizzazione dell'altro, indipendentemente dalla distanza spaziale delle due particelle. Ad esempio, obbedendo al principio di esclusione, se si misura lo spin up per un fermione, il secondo risulterà per forza avere spin down. Come detto sopra la meccanica quantistica ci dice che prima della misurazione, la velocità e la polarizzazione sono oggettivamente indeterminate, ed è solo la misura effettuata sul primo quanto a concretizzare simultaneamente le velocità o polarizzazioni di entrambi. Lo stato è indeterminato. Finché non osservo lo stato dinamico descritto dalla Ψ esso evolve deterministicamente secondo l'equazione d'onda di Schrödinger. Quando si va con l'apparecchiatura sperimentale (che è un apparato macroscopico e quindi descrivibile con la fisica classica) a misurare una proprietà del sistema (solo durante l'atto della misura posso dire di stare facendo della fisica), lo stato quantico collassa in un autostato in cui la grandezza, l'osservabile fisico, ha un certo determinato valore, e la misura da come risultato un ben definito e classicissimo numero. Il principio di continuità fisica di Dirac chiarisce cosa si intende per collasso di uno stato generico Ψ in un autostato Ψ0 : "ripetendo subito la misura di un osservabile, si ottiene ancora lo stesso valore, dato che ormai lo stato è collassato nell'autostato". Se non si avesse questa continuità temporale non si potrebbe neanche fare della fisica, sarebbe il puro caos, invece una misura costringe sempre uno stato a collassare in uno degli autostati possibili, (si dice anche riduzione del pacchetto d'onda del quanto). Se la meccanica quantistica afferma questo, significa che la seconda particella, avendo inizialmente polarizzazione (o spin) indefinita, "sa" istantaneamente all'atto della misura sull'altra, che valore della polarizzazione (o spin) deve assumere, anche se essa si trova ad una distanza molto grande dal punto in cui viene effettuata la prima misura. La misura fissa istantaneamente il valore della polarizzazione di entrambi i quanti. La seconda particella "sa" che polarizzazione deve avere all'istante esatto in cui viene misurata la polarizzazione della sua lontana compagna, anche se nessuna delle due ha un sistema per informare l'altra del suo comportamento. La meccanica quantistica sfida quindi il concetto relativistico di località, in base al quale un evento non può avere effetti che si propaghino più velocemente della luce. L'esperimento ideale implicherebbe una azione a distanza "istantanea e fantasma", ed una velocità dell'informazione infinita.Questo non significa che la meccanica quantistica preveda un modo per far viaggiare le informazioni fisiche più veloci della luce, ma significa che la teoria quantistica manca di qualche parte essenziale. Proprio in base a questo (apparente) "paradosso" Einstein ed i suoi collaboratori, cercarono di falsificare la descrizione dello stato quantico enunciata precedentemente; le particelle avrebbero polarizzazioni definite già prima della misura, e sarebbero determinate da variabili supplementari, le cosiddette variabili nascoste, che la fisica dei quanti non prende in considerazione. Diversi fisici hanno affermano che lo stato quantico non è una descrizione completa di un sistema. Lo stato quantico si limiterebbe a descrivere un insieme di sistemi predisposti in maniera uniforme, cosa che spiega come mai si possono fare previsioni accurate sulla statistica dei risultati di una osservazione condotta su tutti le componenti di tale insieme. Le proprietà dei singoli sistemi non specificate sono le variabili nascoste. Non esisterebbe allora una indeterminazione oggettiva, ma solo la mancanza di conoscenza dei valori di tali variabili nascoste che caratterizzano il sistema. La fisica classica vincerebbe in tal modo anche nel mondo microscopico. Il dibattito tra fisica classica e quantistica segnò però la vittoria di quest'ultima con l'esperimento di Alain Aspect dell'istituto di ottica dell'università di Parigi. L'esperimento conclusosi nel 1982 e che ha richiesto 8 anni di lavoro, è stata la prima applicazione rigorosa e irrefutabile del Teorema di Bell (un test messo a punto dal fisico irlandese John Bell nel 1964). Tale teorema è basato su una ineguaglianza che permetteva di passare dalla discussione teorica alla sperimentazione e quindi finalmente di scegliere tra fisica classica e quantistica. Senza accennare a tale esperimento, per motivi di sintesi, dico solo che la fisica quantistica prevede che questa ineguaglianza possa essere violata in certe condizioni sperimentali. Fu quello che accadde nel 1982, si eliminarono tutte le influenze possibili degli strumenti di misura fra loro o sulla fonte dei fotoni utilizzati, ma l'ineguaglianza di Bell fu violata, e le predizioni della fisica quantistica sono state verificate. Lo stato quantico è in modo intrinseco indeterminato prima di essere misurato. Se i modelli a variabili nascoste locali hanno perso, e la teoria quantistica come è enunciata oggi sembra così solida, significa che torna in favore l'ipotesi di velocità maggiori della luce, per quanto riguarda gli esperimenti di tipo EPR ? Il problema può essere come prima analizzato partendo da un ampliamento dell'interpretazione della fisica quantistica e del problema della misura. Dal punto di vista filosofico due interpretazioni della fisica quantistica si oppongono strenuamente: l'interpretazione idealistica (reale è solo il pensiero, spinta all'estremo questa visione affermerebbe che senza l'osservatore il mondo reale non esisterebbe, è il solipsismo), e l'interpretazione materialistica (reali sono solo le cose, la mente non ha alcuna importanza). Secondo l'interpretazione idealistica al momento in cui un'impressione entra nella nostra coscienza, essa altera la funzione d'onda che descrive lo stato quantico, perché modifica la nostra valutazione delle probabilità, per quanto riguarda le altre impressioni che ci aspettiamo di ricevere in futuro. La coscienza umana entra in modo inevitabile e inalterabile nella teoria. La riduzione del pacchetto d'onda, il collasso dello stato quantico, avviene solo nel momento in cui avviene la presa di coscienza dell'osservazione. Secondo la più votata interpretazione materialistica il mondo subatomico, il mondo dei elettroni, delle particelle e tutto il resto, esistono tranquillamente anche se noi non lo osserviamo, e si comporta esattamente come ci dice la fisica quantistica. A livello quantistico la realtà fisica non può essere definita in termini classici come si era tentato di fare con l'esperimento EPR. La realtà è quantistica, non classica, e deve fornire una spiegazione plausibile dell'apparenza classica. L'esperienza comune nel mondo classico è quindi solo una piccola parte di ciò che è la realtà. In questi termini la riduzione del pacchetto d'onda si spiega come dovuta all'equazione di Schrödinger dell'insieme "quanto + strumento di misura", la quale genera una evoluzione molto veloce che lascia spazio a una sola delle possibilità contenute nella funzione d'onda. Inoltre può essere lo strumento stesso ad operare la riduzione, il collasso nell'autostato, poiché il carattere macroscopico dello strumento favorirebbe la scomparsa degli effetti propriamente quantistici. La fisica essendo una scienza è pragmatica, è una via di mezzo tra le due visioni. Noi abbiamo delle sensazioni e facciamo delle osservazioni, poi costruiamo delle leggi ed esperimenti che le verifichino. Non diciamo che tali leggi fisiche siano la verità, ma solo che spiegano le nostre sensazioni. Detto questo possiamo tornare ai nostri due quanti. L'esperimento di Aspect ha eliminato l'ipotesi di variabili nascoste locali, ed ha segnato la vittoria della meccanica quantistica. Due sistemi quantistici che abbiano interagito sono descritti da un'unica funzione d'onda, quale che sia il loro ulteriore allontanamento reciproco. Questo implica due visioni possibili. Una è la non-località. Sono nuove teorie a variabili nascoste stavolta non locali (esse sono distanti dalla fisica classica quasi quanto la fisica quantistica, specialmente nella loro generalizzazione probabilistica rappresentata dalle “teorie stocastiche”). Queste teorie hanno una matematica più "intricata" di quella della teoria dei quanti e giungono a risultati meno efficaci e sovente a frequenti contraddizioni tra loro. Ma questo non significa che una loro future evoluzione non porti a risultati teorici molto convincenti. Ad esempio la teoria di David Bohm del 1951 afferma che, oltre ai campi di forza riconosciuti dalla fisica classica e dalla fisica quantistica, esiste nello spazio anche un "potenziale quantistico" che non trasporta energia e non è rilevabile sperimentalmente. Le particelle ne subiscono gli effetti e se ne servono per comunicare tra loro. Le due particelle che si allontanano sono legate in permanenza da questo potenziale. La misura effettuata su una di queste modifica istantaneamente il potenziale subito dall'altra: da ciò deriverebbe la correlazione osservata fra i risultati delle due misure. Una versione più convincente di questa teoria chiama in gioco elementi provenienti dalle teorie stocastiche. Si tratta di teorie in grado di descrivere evoluzioni probabilistiche nel tempo. Il vuoto sarebbe in realtà pieno di una miriade di piccoli corpuscoli sub-quantici totalmente inaccessibili ai nostri sensi e ai nostri attuali mezzi d'osservazione, ma in grado di trasmettere un urto in maniera quasi istantanea, o comunque a velocità maggiore di quella della luce. Quando viene misurata la polarizzazione (od equivalentemente lo spin) della prima particella, un'onda d'urto dalla propagazione quasi istantanea percorre questo vuoto pieno in direzione della seconda e ne fissa la polarizzazione in modo da rispettare le leggi della fisica quantistica. Ma c'è una grande obiezione da fare a queste teorie. Una quantità come tale elusivo potenziale che non è osservabile o comunque per ora inaccessibile, NON può essere una quantità fisica ma solo una idea. Non si sta facendo della vera fisica, la scienza deve seguire sempre il principio del "rasoio di Occam", spiegare quante più cose possibili col minor numero di ipotesi ed assunzioni. Queste teorie sembrano invece voler fare le cose in maniera complicata quando si possono fare in maniera più semplice attraverso la meccanica quantistica. Per spiegare l'esperimento di Aspect, esiste una seconda visione possibile: quella di non-separabilità che rimette in discussione, in modo più o meno esplicito, la nozione di spazio o di tempo. Appena si misura la proprietà di un quanto, il risultato ottenuto sullo strumento che ha operato fissa necessariamente (ed istantaneamente) il risultato che verrà trovato sul secondo strumento che misura l'altro quanto, risultato che sarebbe stato altrimenti aleatorio. La nozione di spazio è in questo modo violata, e forse oggi comincia a vacillare l'assunzione dello spazio come categoria a priori. In un esperimento del tipo EPR, si è costretti a considerare l'insieme come indivisibile, anche se comporta effettivamente due strumenti di misura separati nello spazio. Non si è più tanto sicuri di avere oggi la definizione giusta di spazio :-). Lo stesso accade, come afferma qualcuno abbastanza fantasiosamente, per il tempo. Tali tipi di esperimenti permetterebbero almeno concettualmente di risalire il tempo all'indietro, poggiandosi sull'idea dei diagrammi di Feynmann. In tali diagrammi ad esempio un'antiparticella come il positrone (elettrone di carica positiva), sarebbe equivalente ad un elettrone che scorre all'indietro nel tempo. Tale concetto è in linea di principio applicabile al caso degli EPR. Un EPR si può spiegare anche in termini di universi paralleli. L'equazione di Schrödinger ed il principio di sovrapposizione ci dicono che per un elettrone sussistono entrambe le possibilità di spin up e down. Il fatto che lo strumento indichi al momento della misura un solo valore dello spin avverrebbe perché all'atto della misura non ci sarebbe riduzione a una sola possibilità, ma la divisione dell'insieme “quanto + strumento di misura” in due insiemi, quindi la creazione di due universi, uno in cui lo spin dell'elettrone è up, ed uno in cui è down. Questo "sdoppiamento" avverrebbe spontaneamente durante tutte le operazioni di misura realizzate nell'universo e durante tutti i fenomeni naturali che presentano le stesse caratteristiche. È certo che tale sovrabbondanza di universi, se vogliamo adoperare il solito caro rasoio di Occam, è fastidiosa almeno quanto il vuoto pieno di particelle fantasma enunciato precedentemente. Niels Bohr ribadì a proposito che solo gli insiemi "quanti+strumenti" possono essere presi in considerazione dalla fisica, dal momento che è solo su questi insiemi che è possibile definire ed ottenere risultati. Parlare quindi di velocità maggiori della luce o della trasmissione di un segnale tra le due particelle non ha senso fisico. La fisica si occupa di ciò che si concretizza all'atto della misura sui due strumenti, non ci dice cosa succede prima, o cosa succede tra la sorgente ed i rivelatori. Laddove non ci sia fisica non ci può essere applicazione tecnologica, si può solo fare della matematica o della filosofia, ma queste se non si trasformano in fisica, in scienza del mondo reale, raramente hanno delle ricadute tecnologiche. Matematicamente esistono velocità maggiori della luce, la velocità di fase di un'onda ad esempio può essere maggiore di c, ma è improprio chiamarla velocità in senso fisico, infatti tale velocità non trasporta un segnale, non è una velocità dinamica (cioè meccanica, cioè fisica) ma solo cinematica (cioè matematica). I segnali sono trasportati da pacchetti d'onda caratterizzati da una velocità di gruppo che è sempre minore di c. L'onda portante ha velocità di propagazione sempre minore di quella della luce, in accordo con la Relatività. In conclusione a parte la filosofia e le ipotesi esotiche, resta il fatto che il mondo dei quanti è fatto di tanti piccoli elementi che si rivelano poco più che mere astrazioni matematiche, disobbedienti al determinismo, e con connotazione non-locale (il termine non-locale ricordo che è una parola basata sull'ormai vecchio concetto di spazio). Non si può fare un determinismo totale usando la fisica quantistica, ma al più predizioni statistiche. Inoltre i costituenti ultimi dell'universo possono rimanere collegati ignorando le distanze che ai nostri occhi li separano. La meccanica quantistica funziona, e comincia a spiegare anche vari aspetti del mondo macroscopico, come ha spiegato efficacemente quello microscopico. Il mondo dei quanti è reale, la realtà è in essenza quantistica anche se appare spesso ai nostri occhi classica. Non saprei dire se una ridefinizione dello spazio, o dello spazio-tempo, maggiormente in accordo con la fisica quantistica, porterà in futuro al concetto di velocità superluminali, ma sicuramente è anche essa una possibilità.
02.10.2003
Lo specchio di Schroedinger (una
curiosità)
Gli insoliti effetti della fisica quantistica si potranno osservare non solo su particelle atomiche e subatomiche, come è stato finora, ma anche su corpi più grandi composti da cento milioni di miliardi di atomi. Questo promette un articolo apparso su Physical Review Letters il 26 settembre a firma, tra gli altri, di William Marshall e Roger Penrose dell'Università di Oxford. Gli autori propongono un metodo non semplice da realizzare ma alla portata delle attuali conoscenze tecniche. L'idea si basa sul famoso esperimento del "gatto" proposto nel 1935 dal fisico Erwin Schroedinger. L'esperimento prevede di usare un fotone e uno specchio delle dimensioni di un decimillesimo di millimetro quadrato a temperature molto vicine allo zero assoluto (di 60 microKelvin). Il fotone viene poi fatto passare attraverso uno specchio semi-riflettente. In questo modo, a causa delle leggi della meccanica quantistica, seguirà contemporaneamente due percorsi diversi, si "delocalizzerà", comportandosi come un'onda e causerà un fenomeno noto come auto-interferenza. Alla fine di uno dei due percorsi troverà lo specchio, collegato a una molla. Quando il fotone lo colpirà vi trasferirà la sua delocalizzazione. Così l'auto-interferenza del fotone sparirà, mentre sarà lo specchio a trovarsi in due posizioni diverse contemporaneamente. Se la teoria sarà confermata, per la prima volta si osserverà un fenomeno quantistico su un corpo soggetto alla fisica classica, confermando una delle due grandi scoperte fisiche del secolo scorso.
DIGRESSIONE...
Un evento di teletrasporto consiste qualitativamente nel far riapparire o almeno riprodurre esattamente un sistema fisico in un tempo trascurabile in una posizione anche molto distante da quella originaria. Una possibilità, praticabile almeno per sistemi semplici (escludendo perciò dal novero di questa discussione sistemi complessi quali ad esempio organismi biologici, suggeriti dalla letteratura fantascientifica o da serials televisivi come "Star Trek"), consisterebbe nell'ottenere un'informazione completa sull'oggetto del teletrasporto, trasmettere tale informazione alla velocità della luce e ricostruire l'oggetto nel punto di arrivo. In un certo senso si tratta di generalizzare a sistemi materiali ciò che avviene ad esempio per la trasmissione di informazione via fax, con le notevoli differenze che si vuole teletrasportare un sistema fisico e non solo un documento, ricostruendone una copia esatta e non un fac-simile. Tuttavia, anche per sistemi semplici, esistono limiti fondamentali alla acquisizione completa di informazione necessaria per riprodurre una copia esatta di un sistema fisico. La meccanica quantistica infatti limita, attraverso il principio di indeterminazione di Heisenberg, la conoscenza che si pur acquisire su un sistema fisico, introducendo un elemento di intrinseca incertezza nella ricostruzione rigorosa dell'oggetto del teletrasporto, indipendentemente dalle tecnologie adottate, presenti e futuribili. Nonostante ciò, la meccanica quantistica continua a essere fonte di gradite sorprese sebbene sia passato ormai un secolo dalla sua formulazione embrionale a opera di Planck. La teoria, infatti, prevede l'esistenza di una ricca struttura di stati fisici (cioè di possibili configurazioni di un sistema) che hanno la proprietà di essere "intrecciati" (entangled in lingua inglese). Con questo si intende che due o più sistemi fisici siano preparabili in stati fortemente correlati e in nessun modo separabili in stati che vedano emergere le sole proprietà di ogni singolo componente. Utilizzando un'analogia abbastanza antropocentrica, ma efficace, è come se due gemelli mantenessero una correlazione durante tutta la loro vita, correlazione derivante dalla comune origine nella fase di gestazione (l'analogo della preparazione dello stato in meccanica quantistica). Questo intreccio delle due vite potrebbe consentire a uno dei due gemelli di "sentire" un evento che accade all'altro e a comportarsi di conseguenza, pur essendo l'altro geograficamente molto distante. Stati di questo tipo esistono in linea di principio in meccanica quantistica e sono stati introdotti da Albert Einstein, Boris Podolsky e Nathan Rosen (ome è stato visto precedentemente; dalle iniziali dei loro cognomi sono spesso indicati come stati EPR) nel tentativo di evidenziare paradossi nella meccanica quantistica e di proporre interpretazioni a essa alternativa e più in linea con il realismo osservato nel mondo macroscopico alla base della fisica classica. Lo sforzo di Einstein e collaboratori non ha prodotto i risultati da loro aspettati, e anzi esperimenti di ottica hanno confermato l'esistenza degli stati EPR come previsto dalle leggi quantistiche, ma in questo modo si è stimolata la scrittura di un nuovo capitolo della fisica moderna, quello delle comunicazioni quantistiche, che ha tra i suoi principali obiettivi quello di rispondere al seguente quesito: è possibile trasmettere informazione quantistica pur avendo a disposizione solo canali di comunicazione classica (che cioè non trasmettono correlazioni di natura puramente quantistica rivelabili in esperimenti di interferenza) ? Nel 1993 al centro di ricerca dell'IBM di Yorktown, Heights Charles H.Bennett e i suoi collaboratori hanno suggerito che sia possible teletrasportare stati quantistici attraverso canali di comunicazione classici a condizione che non si acquisisca un'informazione completa sul sistema, che il teletrasporto avvenga coinvolgendo stati intrecciati e che lo stato di partenza venga perso nel processo. In sintesi, questi ricercatori hanno escogitato un metodo col quale ottenere parte dell'informazione da un oggetto A che si vuole teletrasportare, mentre la parte restante di informazione non letta viene trasferita in un altro oggetto C che non è mai stato in contatto con A. Successivamente, applicando a C una procedura che dipende dall'informazione acquisita direttamente su A, è possibile completare l'informazione e "guidare" lo stato di C sullo stesso stato di partenza del sistema A prima del processo di teletrasporto. Nel frattempo A è stato contaminato dall'acquisizione di informazione e perciò il processo risultante è un teletrasporto, non una clonazione. Il punto delicato è come trasferire la parte non letta direttamente di informazione all'oggetto C. È qui che intervengono gli stati di tipo EPR, in quanto si prepara C in uno stato intrecciato con un sistema B, dopodiché B viene allontanato da C e viene processato alla stazione di partenza assieme ad A. Il processo di acquisizione diretta di informazione del sistema combinato A+B viene pertanto completato mediante le correlazioni EPR preesistenti tra B e C. In altri termini, l'informazione ottenuta direttamente da A e codificata nello stato di arrivo C (attraverso un canale "classico" di comunicazione) viene completata dalla misura sulla coppia A+B dopo aver preparato lo stato EPR tra B e C. È possibile avere una dimostrazione sperimentale di questa procedura ? Recenti progressi tecnologici in vari settori hanno rivitalizzato il dibattito sulla meccanica quantistica dei suoi padri fondatori e molte domande ora sono suscettibili di verifiche operative in laboratorio. In questo caso un grosso progresso si è realizzato con la produzione di fotoni (i quanti della radiazione elettromagnetica, mediatori della corrispondente forza) in stati intrecciati. Quando la luce ultravioletta incide su alcuni cristalli non lineari il fotone incidente ha una certa probabilità di dividersi in due fotoni A e B di minore energia che possono avere stati di polarizzazione ortogonali, O e V (orizzontale e verticale rispetto ad un fissato sistema di riferimento). In un insieme di particolari direzioni di propagazione i due fotoni "gemelli" così creati hanno una proprietà ancora più singolare: possono coesistere in uno stato che è una combinazione del fotone A in uno stato di polarizzazione O e del fotone B nell'altro stato di polarizzazione V e viceversa. è proprio il "e viceversa" che caratterizza questo stato come intrecciato: in questo stato il fotone A può essere in uno stato di polarizzazione O e in uno stato di polarizzazione V simultaneamente. Se misuriamo il suo stato di polarizzazione otterremo un valore ben definito (O o V) e sicuramente, cioè con una probabilità del 100%, potremo anche dire che il fotone B è nello stato di polarizzazione ortogonale. Avendo questi stati fotonici intrecciati come ingrediente principale e un metodo di analisi interferometrico dello stato di arrivo diversi gruppi di sperimentatori nel mondo, in Innsbruck, Roma, Pasadena, tra i primi, sono riusciti a teletrasportare un fotone nel senso stabilito concettualmente dall'equipe di Charles Bennett (per una lettura divulgativa più approfondita si veda l'articolo di Anton Zeilinger "Il teletrasporto quantistico", apparso sul numero di giugno 2000 della rivista "Le Scienze"). La ovvia domanda, che segue a questo importante risultato, è quanto questo teletrasporto sia scalabile, ovvero estendibile a oggetti ben più complessi dei fotoni, ad esempio atomi o molecole tanto per iniziare (per teletrasportare entità biologiche, come accennato in apertura, si dovrà ottimisticamente aspettare una migliore comprensione della biologia da un punto di vista della fisica dei sistemi complessi, un'altra affascinante frontiera della ricerca attuale). Presso i laboratori di Los Alamos è stato recentemente teletrasportato lo stato codificato nello spin nucleare di un atomo di Carbonio, su una scala di qualche milionesimo di millimetro. Ma indipendentemente dalla complessità dello stato quantistico da teletrasportare un ostacolo da superare consiste nella fragilità intrinseca delle correlazioni EPR. Agenti esterni possono inquinare gli stati EPR rendendo difficile l'esatta fedeltà di riproduzione e limitandone il raggio di trasporto, attraverso meccanismi che prendono il nome generico di decoerenza quantistica, e che sono ritenuti responsabili dell'assenza di stati EPR naturali nel mondo macroscopico nel quale viviamo. È per questa ragione, e per motivazioni connesse al progetto di calcolatori quantistici dalle enormi potenzialità concettuali e applicative, che l'attenzione della ricerca è ora principalmente concentrata sui meccanismi di decoerenza, e sulle collegate tecniche di eliminazione o correzione degli effetti indesiderati da essi indotti sui sistemi quantistici.
[X]-Clicca sulla X per avere la versione integrale del testo scorrevole.
Teletrasporto: un fotone viaggia per 2 chilometri
E' la distanza tra i due
laboratori di Ginevra che hanno partecipato all'esperimento. La particella spedita
dal primo è ricomparsa identica nel secondo. Ma
Star Trek non c'entra: rivoluzione per i Pc.
(30.01.2003)-GINEVRA.
E' stato spedito da un laboratorio di Ginevra ed è ricomparso,
esattamente identico, in un altro a due chilometri di distanza. Il primo esperimento
di teletrasporto di un fotone a questa distanza è perfettamente riuscito
a un’equipe di scienziati svizzeri, secondo quanto riportato dalla rivista
Nature. La fantascientifica scientifica “smaterializzazione”
dei film alla “Star Trek”
però non c'entra: il teletrasporto su cui
si sta lavorando riguarda la trasmissione a distanza delle proprietà
dei fotoni, che sono particelle di luce. Tradotto,
vuol dire che le particelle presenti nei due laboratori restano distinte, ma
identiche in tutte le proprietà fisiche. Il chiarimento
non sminuisce la portata dell’esperimento, che sancisce l'affidabilità
della tecnologia alla quale si sta lavorando: semplicemente significa
che le applicazioni non sono legate al trasporto di cose o persone di ma di
informazioni. La rivoluzione del "teletrasporto"
dei fotoni potrebbe infatti sconvolgere proprio il mondo dell’informatica
e dei computer. I fotoni potrebbero sostituirsi ai bit, le particelle
elementari di cui sono fatte le informazioni che viaggiano sui "Pc".
I bit hanno una struttura molto semplice:
possono comunicare al computer due sole informazione, acceso o spento, cioè
zero o uno. I fotoni sono più complessi
e potrebbero aumentare a dismisura, le capacità di calcolo dei futuri
COMPUTER QUANTISTICI.
INCISO: Credo sia opportuno, per non fare confusione, rimanere ancorati a quella che è la caratteristica fondamentale di questo tipo di fenomeni, la Non località quantistica, secondo la quale ciò che accade ad un preciso istante in una certa regione può influenzare istantaneamente sistemi arbitrariamente lontani. E' questo il caso dei due fotoni correlati che appartengono alla stessa funzione d'onda, all'interno della quale vengono descritti. Questo aspetto cruciale della Meccanica Quantistica non implica però che sia possibile trasmettere informazioni a velocità superluminale. Riferiamoci al caso di A e B, collegati attraverso una comune sorgente che invia loro una coppia di fotoni associati allo stesso stato "entangled". La natura non locale del processo è assolutamente incontrollabile: A, nell'effettuare la sua misura, non può in alcun modo determinarne l'esito. I risultati delle misure effettuati da A e B presentano una perfetta correlazione, ma i due sperimentatori sono in grado di conoscerne la sequenza solo a posteriori, attraverso un canale di comunicazione classico, che quindi viaggia alla velocità della luce.
Il
futuro del PC si chiama Qubit
Il il futuro dei computer sta per essere invaso da significativi rinnovamenti tecnologici, innovazioni fino a poco tempo fa relegate esclusivamente nelle nostre più immaginose fantasie, ma da anni allo studio concreto nei laboratori di tutto il mondo. Computer quantistici e computer basati sul DNA, i probabili candidati a divenire la prossima generazione dei calcolatori ? Alla fine del 2001 ha fatto scalpore la notizia, pubblicata dall'autorevole rivista scientifica Nature, che riportava la recente realizzazione da parte di alcuni ricercatori IBM, del primo - semplice - prototipo di calcolatore quantistico. Il primo prototipo di "quantum computer" avrebbe eseguito la fattorizzazione del numero 15, attraverso l'Algoritmo di Shor (un metodo per la fattorizzazione numerica) sviluppato nel 1994 dallo scienziato Peter Shor proprio per dimostrare le potenzialità del calcolo quantistico nella fattorizzazione di grossi numeri. Per l'attuazione di questo esperimento i ricercatori si sono serviti di quantum bit (o qubit), molecola progettata in maniera tale da funzionare sia come processore che come memoria, composto da 7 atomi. E' dai primi anni Ottanta dello scorso secolo che gli scienziati pensano a un computer che invece di funzionare alternativamente in una serie di 1 e di 0 (acceso/spento, on/off), agisca in base a un sistema fisico assolutamente differente, il sistema quantistico. Piuttosto che ammettere un bit alla volta (un segnale alla volta), seguendo così le leggi della fisica classica, il computer quantistico si basa su aggregazioni di memoria che contengono molti bit (che possono essere nello stato 0 e 1 e in tutti gli stati risultanti dalla loro combinazione), tutti nello stesso momento; e dove il singolo atomo, che si sposta tra diversi stati quantistici riuscirebbe a eseguire contemporaneamente numeri piuttosto elevati di operazioni, raggiungendo così velocità di calcolo esponenzialmente superiori a quelle dei computer tradizionali. Il risultato ottenuto nei laboratori dell'IBM Almaden Research Center di San José, rafforza la crescente consapevolezza che i computer quantici potrebbero (in un prossimo futuro) essere in grado di risolvere incognite così complesse che persino il più potente supercomputer, lavorando per milioni di anni, non arriverebbe a risolvere. E il pensiero che il computer del futuro, probabilmente, sarà frutto della celeberrima metafora del gatto di Schroedinger (che doveva essere necessariamente vivo e morto e tutte e due le cose insieme nei diversi mondi generati dalle diverse situazioni nel quale il gatto si venisse a trovare) e del principio di sovrapposizione degli stati quantici, non può che lasciarci perplessi. Sempre alla fine del 2001 il gruppo di ricerca che afferisce allo Weizmann Institute (www.weizmann.ac.il) di Rehovot in Israele, ha dichiarato di essere riuscito a sviluppare con successo un microscopico computer, in cui le cui sequenze di bit (gli 1 e gli 0 dei computer elettronici) sono rappresentati da sequenze di DNA manipolate da specifici enzimi in grado di effettuare i calcoli. La grande novità, quindi, rispetto ai computer tradizionali è che nei "DNA computer" le informazioni vengono processate e memorizzate all'interno di strutture molecolari, al limite della strutturazione di un organismo vivente. La ricerca sul DNA computing ebbe inizio nel 1994, ad opera dello scienziato Leonard Adelman della University of Southern California, il quale arrivò ad introdurre per primo il concetto dell'utilizzo del DNA (al posto del silicio), risolvendo così i problemi di calcolo e di logica combinatoria, ma che non risolse la sequenza di 0 e di 1 su cui lavorare per ottenere la codificazione di un programma. Il bio-pc realizzato nei laboratori di Rehovot, appare essere proprio un nanocomputer programmabile (le cui biomolecole risultano talmente piccole da risultare inutilizzabili una alla volta) capace di agire in un ambiente biochimico che agisce attraverso input e output molecolari. E mentre in un computer tradizionale risultava essere fondamentale la commistione di 0, di 1 e di silicio, nel futuristico bio-pc elementi fondamentali sono le molecole artificiali di DNA a doppia elica e due enzimi (che interagiscono con il DNA stesso) presenti nel sistema biologico. Fino a qualche tempo fa esistevano dei precisi limiti fisici per la miniaturizzazione infinita dei processori attuali e il mondo del silicio (che da più di trent'anni segue le previsioni di Gordon Moore, secondo il quale il numero di transistor che è possibile concentrare in un chip raddoppia ogni 12-18 mesi e il suo progressivo downsizing) era limitato dalla fisica tradizionale. Applicando le nuove teorie relative al DNA e al Quantum computing, forse riusciremo ad assistere a una contaminazione, sempre più reale, fanta-biologica fino ad ora solo ipotizzata nei racconti di Science Fiction.
05.06.2004 Quantum Teleportation
Teleportation is the name given by science fiction writers to the feat of making an object or person disintegrate in one place while a perfect replica appears somewhere else. How this is accomplished is usually not explained in detail, but the general idea seems to be that the original object is scanned in such a way as to extract all the information from it, then this information is transmitted to the receiving location and used to construct the replica, not necessarily from the actual material of the original, but perhaps from atoms of the same kinds, arranged in exactly the same pattern as the original. A teleportation machine would be like a fax machine, except that it would work on 3-dimensional objects as well as documents, it would produce an exact copy rather than an approximate facsimile, and it would destroy the original in the process of scanning it. A few science fiction writers consider teleporters that preserve the original, and the plot gets complicated when the original and teleported versions of the same person meet; but the more common kind of teleporter destroys the original, functioning as a super transportation device, not as a perfect replicator of souls and bodies. In 1993 an international group of six scientists, including IBM Fellow Charles H. Bennett, confirmed the intuitions of the majority of science fiction writers by showing that perfect teleportation is indeed possible in principle, but only if the original is destroyed. Meanwhile, other scientists are planning experiments to demonstrate teleportation in microscopic objects, such as single atoms or photons, in the next few years. But science fiction fans will be disappointed to learn that no one expects to be able to teleport people or other macroscopic objects in the foreseeable future, for a variety of engineering reasons, even though it would not violate any fundamental law to do so. Until recently, teleportation was not taken seriously by scientists, because it was thought to violate the uncertainty principle of quantum mechanics, which forbids any measuring or scanning process from extracting all the information in an atom or other object. According to the uncertainty principle, the more accurately an object is scanned, the more it is disturbed by the scanning process, until one reaches a point where the object's original state has been completely disrupted, still without having extracted enough information to make a perfect replica. This sounds like a solid argument against teleportation: if one cannot extract enough information from an object to make a perfect copy, it would seem that a perfect copy cannot be made. But the six scientists found a way to make an end-run around this logic, using a celebrated and paradoxical feature of quantum mechanics known as the Einstein-Podolsky-Rosen effect. In brief, they found a way to scan out part of the information from an object A, which one wishes to teleport, while causing the remaining, unscanned, part of the information to pass, via the Einstein-Podolsky-Rosen effect, into another object C which has never been in contact with A. Later, by applying to C a treatment depending on the scanned-out information, it is possible to maneuver C into exactly the same state as A was in before it was scanned. A itself is no longer in that state, having been thoroughly disrupted by the scanning, so what has been achieved is teleportation, not replication. As the figure to the left suggests, the unscanned part of the information is conveyed from A to C by an intermediary object B, which interacts first with C and then with A. What ? Can it really be correct to say "first with C and then with A" ? Surely, in order to convey something from A to C, the delivery vehicle must visit A before C, not the other way around. But there is a subtle, unscannable kind of information that, unlike any material cargo, and even unlike ordinary information, can indeed be delivered in such a backward fashion. This subtle kind of information, also called "Einstein-Podolsky-Rosen (EPR) correlation" or "entanglement", has been at least partly understood since the 1930s when it was discussed in a famous paper by Albert Einstein, Boris Podolsky, and Nathan Rosen. In the 1960s John Bell showed that a pair of entangled particles, which were once in contact but later move too far apart to interact directly, can exhibit individually random behavior that is too strongly correlated to be explained by classical statistics. Experiments on photons and other particles have repeatedly confirmed these correlations, thereby providing strong evidence for the validity of quantum mechanics, which neatly explains them. Another well-known fact about EPR correlations is that they cannot by themselves deliver a meaningful and controllable message. It was thought that their only usefulness was in proving the validity of quantum mechanics. But now it is known that, through the phenomenon of quantum teleportation, they can deliver exactly that part of the information in an object which is too delicate to be scanned out and delivered by conventional methods. This figure compares conventional facsimile transmission with quantum teleportation (see above). In conventional facsimile transmission the original is scanned, extracting partial information about it, but remains more or less intact after the scanning process. The scanned information is sent to the receiving station, where it is imprinted on some raw material to produce an approximate copy of the original. In quantum teleportation two objects B and C are first brought into contact and then separated. Object B is taken to the sending station, while object C is taken to the receiving station. At the sending station object B is scanned together with the original object A which one wishes to teleport, yielding some information and totally disrupting the state of A and B. The scanned information is sent to the receiving station, where it is used to select one of several treatments to be applied to object C, thereby putting C into an exact replica of the former state of A.
18.06.2004 Il teletrasporto di stati atomici
La tecnica potrebbe essere usata nei computer quantistici. I fisici del National Institute of Standards and Technology (NIST) degli Stati Uniti sono riusciti a trasferire alcune caratteristiche fondamentali di un atomo a un altro senza utilizzare alcun collegamento fisico. L'esperimento è stato descritto in un articolo pubblicato sul numero del 17 giugno 2004 della rivista "Nature". Si tratta di un tipo di teletrasporto diverso dal trasferimento fisico di oggetti e di persone reso popolare da libri e film di fantascienza: gli scienziati hanno trasferito "semplicemente" gli "stati quantici" di atomi separati, ovvero proprietà fisiche che descrivono l'energia, il movimento, il campo magnetico e altre caratteristiche. L'esperimento si è basato sulla manipolazione di fasci laser per trasferire gli stati quantici di un atomo di berillio a un altro, posizionato oltre un set di ostacoli su microscala, con un tasso di successo del 78 per cento. La tecnica potrebbe rivelarsi utile per il trasporto di informazioni nei computer quantistici del futuro, che userebbero minuscoli elementi per effettuare calcoli complessi attualmente impossibili.
NOTA-27.06.2004-(prima di argomentare sui cumpputer quantistici): Perché i calcolatori utilizzano la logica binaria ? Non si migliorerebbero le prestazioni utilizzando una logica multilivello (magari a spese di una maggiore complessità) ?
Innanzitutto, come nota la stessa domanda, la realizzazione di circuiti digitali che possano assumere più di due stati risulta assai complessa, ma per di più questo non porterebbe nemmeno ad un aumento delle prestazioni del circuito. Cercherò di giustificare in modo semplice questa affermazione. Nei circuiti digitali lo stato di un elemento viene rappresentato da un particolare livello di tensione: ad esempio convenzionalmente si dice che una linea è allo stato 0 se si trova a 0 volt ed allo stato 1 se si trova a 5 volt. Naturalmente nella pratica occorre tenere presente che ai segnali sono sempre sovrapposti "rumori", oppure che le tensioni di alimentazione possono variare, ecc. Quindi i circuiti vengono costruiti in modo che sia considerato stato 0 una tensione, ad esempio, inferiore a 1.5 volt e stato 1 una tensione superiore a 3.5 volt. In questo modo segnali spuri che si sovrappongono a quello voluto o variazioni di tensione non producono errori purché abbiano effetti che non superino i valori di soglia. Si noti anche che fra lo stato 0 e lo stato 1 c'è una "zona di incertezza" (fra 1.5 e 3.5 volt, nell'esempio considerato) che è priva di significato, ovvero il circuito non dovrebbe mai trovarsi in condizione da avere elementi che si trovano a tensioni comprese fra 1.5 e 3.5 volt. Più precisamente questo avviene soltanto durante la commutazione, ovvero il passaggio fra uno stato e l'altro. Questa zona di incertezza è indispensabile per evitare ambiguità nella identificazione dello stato, che si tradurrebbero in errori. Ciò che stabilisce la velocità di un elemento digitale e di conseguenza le prestazioni di tutto il circuito è il "tempo di commutazione" ovvero il tempo necessario per passare da uno stato 0 ad 1 o viceversa. Qui ci troviamo in presenza di una scelta fra due esigenze contrastanti: infatti facendo più grande la zona di incertezza si ottiene una minore probabilità di errore, ma contemporaneamente si diminusce la velocità di commutazione: un circuito che deve passare da 0 a 1 volt impiega la metà del tempo di uno che deve passare da 0 a 2 volt (cioè, in sostanza, la velocità di commutazione si potrebbe esprimere in "volt al secondo"). In generale, quindi, data una certa tecnologia di realizzazione del circuito digitale che stabilisce la velocità di commutazione, uno dei modi per aumentare le prestazioni complessive consiste nel fare più piccola la zona di incertezza, senza scendere al di sotto del valore che corrisponde alla probabilità di errore che possiamo accettare. Vediamo cosa succede se progettiamo una logica a tre livelli (0, 1 e 2), anziché due. Dato che vogliamo mantenere la stessa probabilità di errore, dovremo mantenere fra i livelli la stessa ampiezza della zona di incertezza, e quindi avremmo, ad esempio, lo stato 0 rappresentato con valori fra 0 ed 1.5 volt, lo stato 1 con valori fra 3.5 e 5 e lo stato 2 con valori fra 7 e 8.5 volt. Il risultato è che i tempi di commutazione non sono più uguali per ogni cambiamento di stato, ma per passare dallo stato 0 al 2 (o viceversa) occorre più tempo che non nella transizione 0/1. In sostanza, anche tenendo conto del fatto che utilizzando logiche a più livelli si potrebbe diminuire il numero di circuiti in cascata (ad esempio un circuito a quattro livelli è equivalente a due circuiti a due livelli in cascata), il risultato che si ottiene è grosso modo uguale, dal punto di vista della velocità e quindi non giustifica l'aumento di complessità necessario per realizzare logiche non binarie.
01.07.2004 Entanglement a cinque
I risultati rendono più vicina la correzione quantistica degli errori. L'entanglement (correlazione quantistica) di tre o quattro particelle è già stato ottenuto sperimentalmente ed è stato usato per dimostrare il cosiddetto "teletrasporto quantistico". Ma l'applicazione di questo bizzarro fenomeno alle esigenze della vita quotidiana, nell'informatica e nelle telecomunicazioni, ha bisogno di compiere un ulteriore passo: per sviluppare un metodo universale di correzione quantistica degli errori -essenziale per computer quantici affidabili- è necessario ottenere l'entanglement di non sole tre o quattro particelle, ma di cinque contemporaneamente. Ora questo obiettivo è stato raggiunto da Jian Wei Pan e colleghi dell'Università di Heidelberg, in Germania, che hanno presentato i loro risultati in un articolo pubblicato sulla rivista "Nature". Un altro processo fondamentale nella correzione degli errori (e nell'elaborazione dell'informazione quantica) è un protocollo di teletrasporto che noi ricercatori chiamano "a destinazione aperta", nel quale uno stato quantico sconosciuto di una singola particella viene trasferito su una sovrapposizione di diverse altre particelle, e può essere letto in seguito da una qualsiasi delle particelle destinatarie. Non soddisfatti dell'aver prodotto l'entaglement di cinque particelle, Pan e colleghi intendono in futuro dimostrare anche questo effetto.
FINE DIGRESSIONE...(Dedicherò un argomento sui COMPUTER Quantistici)
STORIA della SCIENZA: La MECCANICA QUANTISTICA
La meccanica quantistica è una teoria fondamentale della fisica moderna, detta anche teoria dei quanti, perché si basa sul concetto di "quanto" per spiegare sia le proprietà dinamiche delle particelle subatomiche sia le interazioni tra radiazione e materia. Le basi della meccanica quantistica furono poste nel 1900 dal fisico tedesco Max Planck, il quale ipotizzò che l'energia venisse emessa o assorbita dalla materia sotto forma di piccole unità indivisibili, chiamate appunto quanti. Fondamentale per lo sviluppo della teoria è stato inoltre il principio di indeterminazione, formulato nel 1927 dal fisico tedesco Werner Heisenberg, che stabilisce l'impossibilità di determinare simultaneamente con precisione la posizione e il momento di una particella subatomica. Nei secoli XVIII e XIX la meccanica classica, o newtoniana, sembrava essere in grado di spiegare accuratamente tutti i moti dei corpi; ma, tra la fine del XIX e l'inizio del XX secolo, alcuni risultati sperimentali iniziarono a metterne in dubbio la completezza. In particolare, l'insieme delle righe spettrali ottenute dall'analisi della luce emessa da gas incandescenti o da gas sottoposti a scarica elettrica era in disaccordo con il modello atomico di Ernest Rutherford, in base al quale gli scienziati si sarebbero aspettati da parte degli elettroni un'emissione continua di radiazione, e non un insieme linee luminose, prodotte solo a determinate frequenze. Lo studio dello spettro del corpo nero e dell'effetto fotoelettrico suggeriva che la radiazione elettromagnetica avesse un duplice comportamento (ondulatorio e corpuscolare) durante i processi di interazione con la materia.Un altro problema era costituito dall'assenza di una base molecolare per la termodinamica, che rendeva poco comprensibili gli andamenti dei calori specifici, non giustificabili alla luce della teoria classica. Il primo passo verso lo sviluppo della nuova teoria fu l'introduzione da parte di Planck del concetto di quanto, concepito nel corso degli studi sulla radiazione di corpo nero condotti alla fine del XIX secolo (col termine corpo nero si indica un corpo o una superficie ideale, capace di assorbire tutta la radiazione incidente). I grafici sperimentali ottenuti analizzando l'emissione di radiazione elettromagnetica da un corpo incandescente erano infatti in disaccordo con le previsioni teoriche della fisica classica, che non riusciva a spiegare perché questo corpo emettesse il massimo dell'energia a una frequenza determinata, che cambiava con la temperatura a cui era tenuto il corpo e dipendeva strettamente da questa. Planck prima scrisse una relazione matematica per riprodurre correttamente le curve sperimentali, e poi cercò un modello fisico che rispondesse alla espressione trovata. Egli ipotizzò che l'interazione tra radiazione e materia avvenisse per trasferimento di quantità discrete di energia che chiamò quanti, ciascuno di energia pari a h*ν, dove ν rappresenta la frequenza e h il quanto d'azione, oggi noto come costante di Planck. Il passo successivo nello sviluppo della meccanica quantistica si deve ad Albert Einstein. Egli ricorse al concetto di quanto introdotto da Planck per spiegare alcune proprietà dell'effetto fotoelettrico, il fenomeno che descrive il processo dell'emissione di elettroni da parte di una superficie metallica colpita da radiazione elettromagnetica. Contrariamente alle previsioni della teoria classica, che prevedeva la dipendenza dell'energia degli elettroni dall'intensità della radiazione incidente, le osservazioni sperimentali mostrarono che l'intensità della radiazione influiva sul numero di elettroni emessi, ma non sulla loro energia. L'energia degli elettroni emessi risultava invece chiaramente dipendere dalla frequenza della radiazione incidente, e aumentava con essa; inoltre, in corrispondenza di frequenze inferiori a un determinato valore, detto valore critico, non si osservava alcuna emissione di elettroni. Einstein spiegò questi risultati ammettendo che ciascun quanto di energia radiante fosse capace di strappare al metallo un singolo elettrone, trasferendogli nell'urto parte della propria energia. Poiché l'energia del quanto è proporzionale alla frequenza della radiazione, si spiega perché l'energia degli elettroni emessi dipende dalla frequenza della radiazione incidente. Nel 1911 Rutherford, analizzando i risultati sperimentali ottenuti dallo scattering di particelle alfa su atomi di oro, formulò il suo celebre modello atomico; esso prevedeva che in ogni atomo fosse presente un nucleo denso e positivamente carico, intorno a cui ruotassero elettroni di carica negativa, come fanno i pianeti del sistema solare. Tuttavia, secondo la teoria elettromagnetica classica di James Clerk Maxwell, un elettrone orbitante intorno a un nucleo dovrebbe irradiare con continuità, fino a consumare completamente la propria energia e a collassare sul nucleo: l'atomo di Rutherford risultava di conseguenza instabile. Per ovviare a questa difficoltà, due anni dopo Niels Bohr propose un nuovo modello, che permetteva agli elettroni di muoversi solo su determinate orbite fisse: il cambiamento di orbita da parte di un elettrone poteva verificarsi solo tramite l'emissione o l'assorbimento di un quanto di radiazione. La teoria di Bohr diede risultati corretti per l'atomo di idrogeno, ma per atomi con più di un elettrone si rivelò problematica.
NOTA: Quando abbiamo delle transizioni elettroniche all'interno di un atomo, al nucleo non accade quasi nulla, perché gli elettroni non ne fanno parte e le energie che permettono di smuovere il nucleo sono enormemente più grandi di quelle resposabili dei salti energetici degli elettroni. Parlando strettamente degli elettroni, ogni elettrone all'interno dell'atomo si trova in un certo livello energetico, tutti i diversi livelli energetici hanno un energia che è data dalla formula:
dove h è la costante di Planck non ridotta, Z è il numero atomico, m ed e sono rispettivamente la massa e la carica dell'elettrone, n è detto numero quantico principale e individua ogni livello il quale può contenere massimo 2n2 elettroni (quando un livello è pieno inizia a riempirsi quello con n successivo). Aumentando n aumenta l'energia del livello, ma resta sempre negativa, perché sono tutti stati legati. Quando un atomo viene urtato da un fotone, se questo possiede un'energia pari alla differenza di energia tra un livello più energetico con qualche posto libero e un livello meno energetico con almeno un elettrone, può avvenire una transizione: l'elettrone acquista l'energia del fotone e salta ad un livello energetico superiore. Dopo poche frazioni di secondo l'elettrone torna al suo livello iniziale riemettendo un fotone con energia pari al salto. Se l'energia del fotone non corrisponde a nessun salto possibile ma possiede energia maggiore di quella, cambiata di segno, di un livello che contiene almeno un elettrone, allora l'urto può "strappare" un elettrone all'atomo, che emerge come particelle libera con energia pari alla somma tra l'energia del fotone e l'energia (negativa) dello stato iniziale:
dove f è la frequenza dell'onda associata al fotone. In tal caso l'atomo si ionizza e acquista quindi una carica positiva. Se l'energia del fotone non rientra in nessuno dei due valori detti sopra allora si ha un urto tra l'atomo nel suo complesso e il fotone, per cui il fotone "rimbalza" sull'atomo conservando tutta la sua energia. Perchè l'elettrone non cade sul nucleo ? L'elettrone all'interno di un atomo è sottoposto ad un'unica forza che è quella di Coulomb.Classicamente l'elettrone orbiterebbe intorno all'atomo su un'orbita ellittica e quindi sarebbe sottoposto ad un'accelerazione centripeta e quindi, per proprietà stesse della teoria elettromagnetica (ogni carica accelerata emette radiazioni elettromagnetiche perdendo energia) dovrebbe cadere nel nucleo. Per fortuna alle dimensioni intra-atomiche la meccanica classica non è più valida, ma è necessario analizzare il comportamento dei sistemi tramite la meccanica quantistica. Una delle conseguenza fondamentali di questa meccanica è che i sistemi legati (cioè quelli composti da due o più particelle che non possono allontanarsi oltre un certo limite o, per essere più rigorosi, quelli in cui le interazioni danno luogo a stati con energia negativa) possono esistere solo per valori discreti, cioè numerabili, dell'energia. Quali siano questi valori discreti dipende dal sistema in esame e dal tipo di forze che si esplicano tra i suoi componenti. Un'altra conseguenza è che vale il principio di indeterminazione: "non è possibile determinare con precisione assoluta contemporaneamente la posizione e la velocità di una particella". Questo principio ha una conseguenza importante: lo stato fondamentale (cioè quello a energia più bassa) non può corrispondere ad uno stato di particella ferma, altrimenti il principio di indeterminazione sarebbe violato, in quanto la particella sarebbe ferma in un punto e quindi sia velocità che posizione sarebbero determinate con precisione assoluta. Questo comporta che, in un atomo, lo stato fondamentale per gli elettroni non può essere quello che corrisponderebbe all'elettrone collassato nel nucleo. Di conseguenza lo stato fondamentale deve avere energia più alta e quindi corrispondere ad uno stato a distanza finita dal nucleo. Non essendoci stati a energia inferiore, l'elettrone non può cadere nel nucleo.
Le equazioni per l'atomo di elio, risolte fra gli anni Venti e Trenta, diedero risultati in disaccordo con i dati sperimentali. Inoltre, per gli atomi più complessi, erano possibili solo soluzioni approssimate, spesso non in accordo con quanto osservato sperimentalmente. Nel 1924 Louis-Victor de Broglie estese alla materia il concetto del dualismo onda-corpuscolo stabilito per la radiazione elettromagnetica, suggerendo che in determinate situazioni le particelle materiali potessero mostrare un comportamento di tipo ondulatorio. La prova sperimentale di questa affermazione venne dopo pochi anni, quando i fisici americani Clinton Joseph Davisson e Lester Halbert Germer e il fisico britannico George Paget Thomson mostrarono che un fascio di elettroni diffuso da un cristallo produce una figura di diffrazione simile a quella caratteristica della diffrazione di un'onda. L'idea di associare un'onda a ciascuna particella portò il fisico austriaco Erwin Schrödinger a formulare la cosiddetta "equazione d'onda", con cui era possibile descrivere le proprietà ondulatorie della particella e l'evoluzione del suo moto, cosa che fu immediatamente applicata all'elettrone dell'atomo di idrogeno. L'equazione di Schrödinger, a eccezione di pochi casi particolari che meriterebbero una discussione a parte, ammette solo un numero discreto di soluzioni, dette autofunzioni, che corrispondono a regioni definite dello spazio in cui la particella può trovarsi; esse sono espressioni matematiche in cui compaiono i cosiddetti "numeri quantici", ovvero numeri interi che esprimono il valore assunto da determinate grandezze caratteristiche del sistema, quali ad esempio l'energia o il momento angolare. L'equazione Schrödinger per l'atomo di idrogeno diede risultati in sostanziale accordo con quelli di Bohr e l'equazione si applicò con successo anche all'atomo di elio. Inoltre confermò sul piano formale il principio di esclusione, enunciato da Wolfgang Pauli nel 1925 su base empirica: il principio stabilisce che due elettroni non possono possedere lo stesso insieme di numeri quantici, ovvero condividere esattamente lo stesso livello di energia. Parallelamente allo sviluppo della meccanica ondulatoria di Schrödinger, Heisenberg propose, con la collaborazione dei fisici Max Born ed Ernst Pascual Jordan, un nuovo metodo di analisi basato sul calcolo matriciale. Ciascun osservabile fisico associato a una particella corrisponde a una matrice infinita (un insieme infinito di righe e colonne di valori numerici), mentre lo stato e l'evoluzione di un sistema sono determinati dalle soluzioni di equazioni matriciali. Per descrivere il moto dell'elettrone nell'atomo di idrogeno, ad esempio, la meccanica delle matrici associa matrici infinite a posizione e momento, e riesce a prevedere le linee dello spettro di emissione dell'idrogeno. La teoria di Heisenberg fornì gli stessi risultati della meccanica quantistica ordinaria e riuscì a spiegare alcuni fenomeni che prima sfuggivano a una descrizione teorica. Poco tempo dopo Schrödinger dimostrò che la meccanica ondulatoria e la meccanica matriciale erano formulazioni diverse di una medesima teoria, oggi nota come meccanica quantistica. Entrambe sono estremamente "complicate" dal punto di vista algebrico e matematico, anche per un sistema semplice come l'atomo di idrogeno: è comunque quasi sempre possibile calcolare in modo esatto almeno i livelli di energia permessi. Tuttavia accanto alla descrizione formale completa è spesso possibile un'analisi qualitativa soddisfacente capace di fornire, anche se in modo approssimato, le principali informazioni sul sistema. Secondo il punto di vista della meccanica quantistica il nucleo è circondato da una serie di onde stazionarie, dotate di creste e valli, ciascuna rappresentante un'orbita. Il modulo elevato al quadrato dell'ampiezza dell'onda in ogni punto a un dato istante fornisce la probabilità di trovare l'elettrone in quel punto, in quell'istante. Non si parla più quindi di posizione dell'elettrone, ma di probabilità che l'elettrone occupi una determinata regione dello spazio. L'impossibilità di determinare con esattezza la posizione di un elettrone a un certo istante fu analizzata da Werner Heisenberg, che nel 1927 enunciò il principio di indeterminazione. Tale principio afferma l'impossibilità di determinare contemporaneamente con precisione la posizione e il momento di una particella, ovvero queste due grandezze non possono essere misurate simultaneamente. Si dice quindi che la conoscenza della posizione e della velocità di una particella sono complementari; in altre parole, noi fisici non possiamo misurare la posizione di una particella, senza alterarne la velocità. Alla luce del principio di indeterminazione, la natura ondulatoria e particellare della radiazione sono due aspetti complementari del medesimo fenomeno. La meccanica quantistica ha risolto tutti i problemi della fisica dell'inizio del XX secolo, ha accresciuto il livello di conoscenza della struttura della materia e ha fornito una base teorica per la comprensione della struttura dell'atomo e del fenomeno delle righe spettrali: ogni riga spettrale corrisponde all'energia di un fotone emesso o assorbito quando un elettrone compie una transizione da un livello energetico a un altro; anche la conoscenza dei legami chimici è stata completamente rivoluzionata. La fisica dello stato solido, la fisica della materia condensata, la superconduttività, la fisica nucleare e la fisica delle particelle elementari sono fondate sui principi della meccanica quantistica. Dal 1925, nessuna mancanza fondamentale ha intaccato la consistenza della meccanica quantistica, benché siano stati sollevati dubbi se possa essere effettivamente ritenuta una teoria completa. All’inizio degli anni Trenta, il fisico britannico Paul Dirac, utilizzando i risultati della meccanica quantistica, formulò un'equazione per descrivere il moto dell’elettrone e la sua interazione con la radiazione elettromagnetica tenendo conto anche degli effetti della relatività speciale: sulla base di questa equazione, che conteneva anche la variabile di spin dell'elettrone, Dirac fu in grado di prevedere l'esistenza del positrone, l’antiparticella dell'elettrone, che venne osservata sperimentalmente nel 1932 dal fisico statunitense Carl David Anderson. L'applicazione della meccanica quantistica alla radiazione elettromagnetica condusse alla formulazione della Elettrodinamica quantistica, che estese l’applicazione dell’elettromagnetismo rendendo possibile la comprensione di fenomeni fino ad allora inesplicabili in termini della teoria classica, fra i quali la radiazione di Bremsstrahlung (frenamento) – emessa dagli elettroni per frenamento durante la penetrazione nella materia – e la produzione di coppie, la formazione di un positrone e di un elettrone ad opera di radiazione sufficientemente energetica. La teoria però conteneva anche un serio problema, noto come "problema della divergenza": nelle equazioni di Dirac, alcuni parametri, riferiti come la massa e la carica "nude" dell'elettrone, risultano infiniti (i termini massa nuda e carica nuda si riferiscono a elettroni che non interagiscono né con la materia né con la radiazione, anche se in realtà gli elettroni interagiscono sempre con il campo elettrico prodotto da loro stessi). Questo problema è stato parzialmente risolto negli anni 1947-1949 con un programma chiamato di rinormalizzazione (vedi più sopra), sviluppato dal fisico giapponese Sin Itiro Tomonaga, e dai fisici americani Julian S.Schwinger, Richard Feynman e Freeman Dyson. La rinormalizzazione prevede di assegnare un valore infinito a massa e carica nude, di modo che le altre quantità infinite che compaiono nella soluzione dell'equazione possano essere compensate. Con la teoria della rinormalizzazione i calcoli sulla struttura atomica sono stati resi molto più accurati. La meccanica quantistica, che ha permesso la descrizione dei processi caratteristici del mondo microscopico, impossibile per i mezzi forniti dalla meccanica classica, ancora oggi costituisce la base concettuale da cui partono gli sviluppi della fisica moderna, ad esempio la Cromodinamica quantistica o la teoria di unificazione dei campi. Tuttavia esistono problematiche particolari, quali il problema della divergenza – solo parzialmente risolto – o gli effetti dei processi di misurazione, che hanno suscitato animate discussioni sulla completezza della teoria. Proprio come la meccanica newtoniana venne corretta dalla meccanica quantistica e dalla relatività, sono convintoì che anche la teoria quantistica sia destinata a subire profonde modifiche negli anni a venire. Ad esempio, sussistono gravi difficoltà per conciliare la meccanica quantistica e la teoria del caos, nata intorno agli anni Ottanta. Numerosi fisici teorici, fra i quali il britannico Stephen Hawking (e non solo lui :-) ), stanno tuttora cercando di elaborare uno schema generale, che comprenda sia la relatività che la meccanica quantistica.
DIGRESSIONE...
Effetto hall quantico frazionario (tecnico...)
Prendiamo una lamina conduttrice,
ad esempio rettangolare, immersa in un campo magnetico costante B.
Mettiamo una differenza di potenziale tra due lati opposti della lamina. Si
stabilirà una corrente "longitudinale"
(supponendo di chiamare
"lunghezza"
la direzione della corrente).
Classicamente gli elettroni sentono una forza
di Lorentz perpendicolare alla loro velocità dovuta
al campo magnetico. Si misura quindi nel senso della "larghezza"
una differenza di potenziale proporzionale alla corrente longitudinale e al
campo magnetico:
Vy =IxB/(e ne)
Però, per campi abbastanza alti, compaiono dei "plateaux", degli scalini, nel senso che la resistenza "trasversale" Vy/Ix diventa costante in funzione del campo magnetico in vicinanza di certi valori del campo B stesso. Negli stessi intervalli si annulla la conducibilità longitudinale. La formula per il valore della resistenza trasversale in corrispondenza dei "plateaux" è:
RH = h/(k e2)
dove h è la costante di Planck, e
la carica dell'elettrone, e k è un numero razionale.
Questo numero si chiama "filling
fraction", e rappresenta il numero
di elettroni per ogni "quanto di
flusso" di campo magnetico. Il
significato dell'espressione "quanto
di flusso di B" può essere
compreso pensando al problema quantistico di un elettrone in un campo magnetico.
I livelli di energia dell'elettrone sono quantizzati, e valgono:
EN = h e B /(2 Pi m c) (N + 1/2)
ora m è la massa dell'elettrone e c la velocità della luce.
Per ogni livello di energia ci sono infiniti stati con quella energia, se
il piano è infinito. Altrimenti sono in numero proporzionale all'area.
Questi stati con uguale energia si differenziano solo per il momento angolare.
Per ogni unità d'area il numero di stati di un certo livello energetico
è:
numero stati per unità d'area = e
B/(h c)
Quindi il numero di stati in una certa area é proporzionale al flusso del campo magnetico attraverso quell'area. Quando k=1 c'è un elettrone per "flusso elementare" (o quanto di flusso). Si ha allora l'effetto Hall intero (esistono anche casi in cui k=2,3 etc.). Invece nel caso k non intero (esempio k=1/(2p+1), p numero intero) allora ci sono più flussi elementari per ogni elettrone. Questo significa che i livelli energetici non sono completamente riempiti. Si può dare una descrizione più dettagliata del perchè si formano i plateaux nella resistenza Hall (trasversale), in termini del problema a molti corpi. A bassa temperatura (come in genere si fanno queste misure) gli elettroni popolano tutti gli stati a energia inferiore all'impulso di Fermi. Questa è una proprietà generale degli elettroni. Gli elettroni che possono eventualmente partecipare alla conduzione sono quelli con energia vicina a quella di Fermi (che dipende da temperatura e densità). Adesso, un'elettrone, a causa delle impurità, può stare in uno stato localizzato, quindi non partecipa alla conduzione elettrica, oppure in uno stato esteso, cioè non localizzato, e quindi partecipa alla conduzione. Si può calcolare che c'è una specie di struttura a bande, per così dire, perchè gli stati localizzati, e quelli estesi, si organizzano in "bande", cioè ci sono intervalli nei quali cadrà l'energia degli stati estesi, e intervalli in cui ci sono solo stati localizzati. Cambiando il campo magnetico, si può cambiare l'energia di Fermi. Allora se questa si trova in un intervallo in cui ci sono stati localizzati, non cambia il numero di elettroni che possono partecipare alla conduzione. Quindi la resistenza rimane costante. Questo permette l'esistenza dei plateaux. Purtroppo, nonostante l'effetto Hall sia noto da quasi 130 anni, e l'effetto Hall quantistico da almeno 20-25, non c'è una teoria che possa spiegare in maniera unificata tutti i plateaux, soprattutto perchè, mentre nell'effetto intero l'effetto della repulsione di Coulomb tra gli elettroni non contribuisce, in quello frazionario "deve" contribuire. Anche le impurita' hanno un ruolo fondamentale, perche' permettono la creazione di stati localizzati (localizzazione di Anderson). I risultati cardine dello studio in questo campo sono le cosiddette "funzioni d'onda di Laughlin". Queste catturano molto bene le caratteristiche più importanti dell'effetto Hall. Sfortunatamente, sono solo "trial wavefunction", cioè non vengono da una teoria "fondamentale", ma sono "fatte ad hoc". Si stanno ancora cercando descrizioni migliori del problema, in termini di una qualche teoria di campo, che potrebbe anche, secondo recenti proposte, essere una teoria su una geometria non-commutativa, ultima "moda" trasversale a diversi campi della matematica moderna più formale.
Perchè parlare dell'effetto Hall ?
Vediamo...
IL numero 389 di "Nature" ha dato notizia della duplice conferma sperimentale della ultima, rivoluzionaria ipotesi riguardante il quanto "e" della carica elettrica. Due gruppi di ricercatori, uno francese, guidato da Saminadayar, e uno australiano, diretto da R. de Picciotto, sono infatti riusciti, uno indipendentemente dall'altro, a isolare cariche elettriche di valore pari a un terzo di elettrone. Ricordo che risale al 1911 la determinazione del valore dell'unità elementare di carica elettrica "e" ad opera del celebre fisico statunitense Robert Andrews Millikan e che per 87 anni nessuno aveva potuto dimostrare l'esistenza di un quanto di carica elettrica di valore inferiore alla carica dell'elettrone. I due esperimenti accennati hanno avuto come strumento principale un conduttore dotato di una strana proprietà galvanomagnetica chiamata "effetto Hall" dal nome del suo scopritore, il fisico americano Edwin Herbert Hall; la stessa proprietà fu riscoperta in campo quantistico dal tedesco Klitzing von Klaus che lo chiamò "effetto Hall quantico frazionario". In entrambi i casi mancava comunque la conferma sperimentale, che ora è finalmente arrivata. Devo qui chiarire che l'effetto Hall si produce quando gli elettroni di un sottile strato isolato, tenuto a temperature vicine allo zero assoluto, vengono sottoposti all'azione di un campo magnetico portato ad alta intensità con l'aumento della tensione elettrica lungo la perpendicolare al flusso della corrente. Va aggiunto che, per spiegare il verificarsi di questo fenomeno, i fisici teorici avevano avanzato l'ipotesi, allora poco ortodossa, dell'esistenza di subparticelle trasportanti cariche elettriche frazionarie della carica "e"; si ipotizzava inoltre che queste subparticelle potevano esistere solo quali "buchi" in movimento in seno ad una nube elettronica del tipo su accennato. In pratica, il sofisticato esperimento si è svolto portando alla temperatura di 25 millikelvin un sottile strato di elettroni immesso in un semiconduttore di arsenio di gallio e quindi sottoposto all'azione di campi magnetici ad alta induzione. Si è così prodotto l'effetto Hall quantico e il conseguente flusso, lungo i bordi del semiconduttore, di una corrente elettrica attivata da subparticelle. Successivamente, gli opposti bordi dello strato elettronico vennero avvicinati a una distanza inferiore ai 100 nanometri (miliardesimi di metro), provocando con ciò il salto delle subparticelle da un bordo all'altro e conseguente flusso di corrente tra i due bordi. La debolissima intensità di detta corrente risultò dell'ordine di miliardesimi di ampere e fu inoltre constatato che la carica delle subparticelle era eguale a un terzo di quella dell'elettrone, confermando infine che il quanto "e" era frazionabile.
I conduttori metallici si possono considerare costituiti da un reticolo entro il quale si può muovere, pressoché liberamente, un "gas di elettroni" originato dal fatto che più elettroni appartenenti alle orbite più esterne dei singoli atomi, quando questi si avvicinano per costituire un cristallo metallico, si svincolano pressoché totalmente dal proprio atomo originario. A titolo indicativo, nella tabella viene riportata la densità di questo gas di elettroni per alcuni metalli, la corrispondente densità atomica (numero di atomi per unità di volume) e il rapporto fra i due valori. Tale rapporto consente di evidenziare il numero medio di elettroni liberi donati da ciascun atomo al gas elettronico.
Metallo |
Densità elettronica Elettroni/m3 |
Densità atomica Atomi/m3 |
Rapporto |
18.1*2028 5.9 4.6 8.6 5.9 1.34 8.5 2.5 13.2 |
6.0*1028 5.9 4.6 4.3 5.9 1.32 8.4 2.5 6.5 |
3 1 1 2 1 1 1 1 2 |
Che attinenza ha con la cosmologia ?
La distribuzione multiframmentata dell’energia di Fermi e le Transizioni di Fase dei Sistemi Stellari Planetari
Si considera che la costante universale di Fermi nella sua energia efficace abbia una propria struttura fisica composta da una parte elettromagnetica e da una parte gravitazionale. Questa specifica struttura mostra che sono all’opera l’interazione elettrodebole e gravitazionale in modo congiunto. L'unione di questi campi di forze rivela a sua volta la struttura gruppale di Galois che esprime la rottura spontanea della simmetria elettrodebole-gravitazionale e spiega il comparire delle costanti f nella teoria del Modello Standard. E' poi postulata l'esistenza di un nuovo "Campo Cosmologico" e la formazione del sistema multiframmentato delle "Bolle di Fermi", come conseguenza della specifica struttura dell'energia efficace di Fermi. L'Evento Esplosivo Generalizzato (sia nel dominio degli esperimenti delle particelle elementari sia nel dominio macroscopico), che genera le Bolle di Fermi, è elevato al rango di principio di covarianza rispetto a tutti i Sistemi di Coordinate. E' definita l'equazione di stato della densità di energia di Fermi funzione della pressione e il confinamento del volume tramite la curvatura che funge da parete adiabatica. Viene studiata la struttura idrodinamica post-esplosiva d'equilibrio mediante una soluzione a simmetria sferica in regime quasi statico (rispetto ad un osservatore esterno lontano) delle equazioni di campo di Einstein connesse alla formazione ed evoluzione strutturale delle transizioni di fase del sistema termodinamico solare, con le relative nuove esatte soluzioni analitiche.
Il ruolo della densità dell’energia
di Fermi nei processi post-esplosivi
Si dimostra che il rapporto tra un potenziale
elettromagnetico (d'intensità
inversamente proporzionale alla quarta potenza della carica elettrica)
e un potenziale gravitazionale (della
forma di Schwarzchild), rispetto all'unità
di carica e di massa, è sempre costante ed è esattamente uguale
all'energia di Fermi. Le due parti di quest'energia
d'accoppiamento sono presenti in tutto l'Universo e si manifestano
nei processi interattivi come l'inverso di un'energia. E' per questo
motivo che riescono a schermarsi rispetto alla gravità.
Esse entrano in gioco, localmente, nei processi
cosmici, ricorrenti, post-esplosivi di tipo supernova, che
sono i processi termodinamici multiframmentati che la natura adotta per
generare materia ponderabile. Si dimostra che detti processi sono descritti
dalle equazioni di campo idrodinamiche d'Einstein con un
nuovo operatore matematico (della
forma del gruppo di Galois)
di distribuzione quantistica della densità di energia di
Fermi. Sono connesse alla formazione ed evoluzione strutturale
delle transizioni di fase del sistema termodinamico solare, con le relative
nuove esatte soluzioni a simmetria sferica in regime quasi statico (rispetto
ad un osservatore esterno lontano).
FINE DIGRESSIONE
15.10.2003 Einstein was right, experimenters find (Una curiosità !)
UNIVERSITY
OF ARIZONA NEWS RELEASE
Posted: October 15, 2003
Einstein's Special Theory of Relativity states that information cannot travel faster than the speed of light in a vacuum. In some highly specialized "fast-light" media, however, some experimental physicists believe they have seen light travel faster. Meanwhile, theoretical physicists have proposed that while smooth pulses of light may appear to travel faster in fast-light media, they don't carry information. It is the discontinuities in light signals that carry information and these discontinuities will travel no faster than light in a vacuum. But very little experimental work has been done to support this theoretical analysis, and experimental physicists would like to see actual physical proof from the lab that supports the theory. In this week's issue of "Nature" magazine, Mark A. Neifeld, a UA Electrical Engineering and Optical Sciences Professor, and Duke University physicists Michael D. Stenner and Daniel J. Gauthier present the experimental results that experimental physicists have sought and that confirm that Einstein does, in fact, continue to be right. Their experiments show that information is indeed limited to speeds lower than c (Physicists use the letter "c" as a symbol for the speed of light in a vacuum.), and information that appears to travel faster is the result of reading too much into where information is carried on light pulses. A smooth pulse doesn't carry information on its own. These smooth (Gaussian) pulses are called analytic signals. That means that if you look at any small piece of that signal, you can predict what the entire signal will look like for all time. If a signal has enough smoothness in it, it can't carry information, he noted. The UA and Duke researchers devised an experiment in which smooth pulses of light (Gaussian pulses) propagated through a fast-light medium of pumped potassium vapor. These pulses appeared to travel faster than c. Then they added digital information to the pulses in the form of discontinuities. As the pulse got near its peak they either increased or decreased the amplitude, producing two states that could represent binary information (a one or zero, for instance). The research team developed a way to describe the bit-error rate of these pulses as a function of the elapsed observation time. The researchers knew that information was being transmitted when they observed lower bit-error rates. Prior to the arrival of a discontinuity the bit-error rate is 1/2 because no information has been received. After information starts arriving at the detector, the bit-error rate decreases with increasing observation time. A bit-error rate of 1/2 means there is an equal probability that the signal is carrying a one or zero and you might as well toss a coin to decide what was transmitted.When the discontinuities were added to the Gaussian pulses, the researchers watched for the bit-error rate to fall below a threshold value that was less than 1/2. These observations allowed them to conclude that the information traveled at speeds slightly less than c. Stenner and Gauthier at Duke conducted the experimental part of the work and Neifeld designed the encoding system that allowed the researchers to add information to the optical signals. He also helped define the types of detection techniques to use and showed that bit-error rate was the proper way to quantify the transmission of information. So why do some light pulses appear to travel faster than C in fast-light media, but information always travels slower ? The problem comes in treating the peak of a smooth light pulse as an information carrier. Since it does not carry information (it has no discontinuities) it does not violate special relativity by going faster than c. This experiment has shown that the velocities of smooth pulses and of light pulses that carry information are distinct..
29.05.2004 Esserci o NON esserci (Alcune riflessioni...)
Il nostro mondo è popolato di tavoli e di sedie, di gatti e di cani, oggetti macroscopici che si comportano in modo prevedibile, in conformità con le leggi della fisica classica. Ma tutti questi oggetti sono costituiti di particelle elementari che per conto loro si comportano in maniera decisamente bizzarra, secondo le leggi della fisica quantistica. Come si spiega un fatto del genere ? Nuova luce su questo appassionante interrogativo, viene da un recente lavoro sperimentale condotto a Vienna da Anton Zeilinger e colleghi, apparso sul numero di "Nature" del 19 febbraio. Le particelle elementari esibiscono comportamenti singolari che sfidano la nostra capacità di comprendere. Una particella può trovarsi in più posti o in più stati contemporaneamente. Non possiamo sapere, per esempio, quale delle due traiettorie possibili ha percorso un elettrone che è andato da un punto A a un punto B. Non si tratta di una nostra ignoranza o di un problema tecnico, ma di una proprietà intrinseca: ogni elettrone si comporta come se percorresse diverse traiettorie contemporaneamente. Un fascio di elettroni può passare al di là di due fenditure separate e produrre su uno schermo una figura di interferenza, come se per quelle due fenditure fosse passata una famiglia di onde, che per definizione sono non localizzate, invece che di particelle. Quando non è osservata, una particella si trova in una combinazione o, se si preferisce, in una sovrapposizione di stati diversi. Ma non appena si compie una misura l'incantesimo si rompe: il castello di possibilità alternative crolla e una sola di queste appare all'osservatore come quella reale. La misura e l'osservazione hanno conferito realtà a una delle possibili alternative. Nel nostro mondo le cose non si presentano in questo modo. Una freccia o una palla percorrono una sola determinata traiettoria. Dato che un elettrone o un protone si comportano in un modo e un pallone in un altro, a quale livello si ha il passaggio dal comportamento quantistico delle particelle elementari a quello classico degli oggetti quotidiani ? E' chiaro che in questo discorso entrano le dimensioni dell'entità in questione, e per essere più precisi la sua massa: piccola massa uguale comportamento quantistico e sorprendente; grande massa uguale comportamento classico e ordinario. Gli atomi e alcune piccole molecole si comportano in maniera quantistica; le grandi molecole e gli aggregati complessi mostrano già un comportamento classico. I ricercatori austriaci hanno utilizzato molecole di buckminsterfullerene (C60) che si trovano proprio al limite del comportamento quantistico. Attraversando le due fenditure dell'apparecchio di misura, un fascio di queste molecole produce un'immagine di interferenza, come se si trattasse di particelle elementari. Se le molecole vengono riscaldate si osserva un brusco passaggio da un comportamento quantistico a uno classico: la figura d'interferenza scompare. Si passa dal "bizzarro" mondo dei quanti a quello della quotidianità. E' importante quindi la massa, ma evidentemente anche lo stato energetico. Questo è il dato, ma la spiegazione qual è ? L’idea corrente chiama in causa il concetto di decoerenza. Le particelle elementari che costituiscono i corpi macroscopici viaggiano sempre con le loro onde personali, ma queste finiscono presto per non essere più coerenti, cioè in fase fra loro, a causa dell'interazione con il mondo circostante, oltre che fra di loro. La decoerenza, cioè la perdita di coerenza delle varie onde, può spiegare la scomparsa dell'immagine di interferenza e assicura la solidità degli oggetti quotidiani. Un gatto, per fare un classico esempio, potrebbe in teoria essere contemporaneamente vivo e morto, ma in pratica non lo fa. L'esperimento, che avvicina un pò di più il mondo dei quanti al nostro, ci conferma che gli oggetti quotidiani si misurano da soli, e per così dire si autolocalizzano grazie all'alto numero di interazioni delle particelle che li compongono, interazioni che aumentano con l’aumentare del contenuto d'energia.
Quantum
Mechanics JAVA-APPLET...(Tecnici...)
(*)-Time-dependent Superposition and Expectation Values: Infinite Square Well
(*)-Coulomb Potential Well ("Hydrogen" Atom) Wave Functions
(*)-Creating Periodic Potential Energy Wells: Constant Well Width
(*)-Classical/Quantum Probability Distributions for a Particle in a SHO
(*)-A plane wave encounters an increase in potential
(*)-Particella in una buca dalle pareti infinite
(*)-Scattering quantomeccanico
(*)-Evoluzione temporale di un pacchetto
Utenti connessi...:
CHANDRAst