Oltre la teoria standard...(tesi .PDF)
MAPPA della PAGINA: SUPERSIMMETRIA (Bosone di HIGGS)... Agg. 16.06.2004
Un altro programma teorico con molti aspetti interessanti è chiamato supersimmetria e potrebbe costituire un'alternativa al semplice meccanismo di Higgs per spiegare l'origine della massa. In un mondo supersimmetrico ogni particella, compreso il bosone di Higgs, ha un partner identico in tutto e per tutto, eccettuato nello spin. In questo mondo, a ogni fermione comune corrisponde un bosone supersimmetrico privo di spin; per esempio, l'elettrone e il quark, entrambi con spin 1/2, hanno come partner a spin nullo rispettivamente il selettrone e lo squark. Inoltre, a ogni bosone comune corrisponde un fermione supersimmetrico con spin 1/2; per esempio, il partner supersimmetrico del fotone con spin 1 è il fotino con spin 1/2, quello del gluone con spin 1 è il gluino con spin 1/2 e quello del bosone di Higgs con spin nullo è l'higgsino con spin 1/2. Se le particelle supersimmetriche esistessero in natura come copie esatte delle loro controparti, fatta eccezione per lo spin, la maggior parte di esse si sarebbe già dovuta osservare in abbondanza. Nonostante le numerose ricerche eseguite, però, non si è trovata alcuna traccia dei partner supersimmetrici. Si potrebbe perciò supporre che l'interesse per la supersimmetria stia scemando, mentre, in realtà, esso persiste per vari motivi. Uno di questi motivi è che l'esistenza dei partner supersimmetrici risolverebbe il problema delle sensibilità matematiche nell'espressione teorica della massa del bosone di Higgs. Un secondo motivo per non abbandonare la supersimmetria è che essa potrebbe essere, nel nostro mondo, una simmetria rotta, allo stesso modo della simmetria elettrodebole. Una supersimmetria rotta potrebbe dare origine a particelle supersimmetriche che sono notevolmente più pesanti dei loro partner comuni. Nessuno sa esattamente quale sia la sensibilità della massa alla rottura della simmetria. Per esempio, si sa già sperimentalmente che la massa del selettrone, se esiste, deve essere almeno 40.000 volte maggiore di quella dell'elettrone. Questo rapporto implica che la supersimmetria debba rompersi "violentemente" ? Nessuno lo sa. Ciò che si sa è che, se la supersimmetria risultasse vera, anch'essa, come la teoria del technicolor, introdurrebbe un nuovo mondo di particelle, la maggior parte delle quali dovrebbe essere molto pesante; se così non fosse, le particelle sarebbero già state rivelate. Per trovarle saranno indubbiamente indispensabili, invece, nuovi potenti acceleratori. C'è un terzo motivo più generale per non abbandonare la supersimmetria, o qualsiasi altra teoria, quale quella del technicolor, che abbia qualche probabilità di spiegare i misteri della rottura della simmetria elettrodebole e l'origine della massa. Indipendentemente dal fatto che il bosone di Higgs sia una particella composta o elementare, che esso sia o no compreso in una famiglia di particelle supersimmetriche o che esiste o non esista affatto, un principio generale della meccanica quantistica assicura che, a energie di circa 1 TeV, nuovi fenomeni fisici profondamente correlati all'origine della massa dovrebbero cominciare a manifestarsi. Questi fenomeni devono manifestarsi perché, se il modello standard esistente viene estrapolato senza correzioni a tale intervallo energetico, le probabilità calcolate dalla teoria per certe interazioni diventano maggiori di 1. Dal momento che nessuna reale probabilità può essere maggiore di 1, la teoria, nella forma attuale, non è completa. Poichè non si conosce la corretta estensione teorica del modello standard alle altissime energie, non si può descrivere l'esatta natura dei nuovi fenomeni fisici. Se il bosone di Higgs è pesante, una possibilità è che l'interazione elettrodebole diventi forte. Invece, se esso risulta leggero, la sua piccola massa potrebbe essere bene giustificata con la supersimmetria. In questo caso, nell'intervallo energetico di qualche TeV vi sarebbe abbondanza di partner supersimmetrici di particelle note. La capacità di esplorare quell'intervallo energetico costituisce quindi un obiettivo estremamente importante per la conoscenza fondamentale della materia.
Definizione: SUPERSIMMETRIA (Bisogna pure cominciare...)
Non è facile spiegare in "parole povere" la Supersimmetria (SUSY per gli amici), perché si tratta di una simmetria matematica di certe Teorie di Campo. Per "simmetria matematica" intendo qui un'invarianza della teoria (cioè della Lagrangiana che definisce la teoria) sotto una certa legge di trasformazione dei campi. Questa simmetria mette in relazione le particelle bosoniche (spin intero) con le particelle fermioniche (spin semi-intero). In pratica afferma che ad ogni particella con spin intero presente nella teoria deve corrispondere una particella a spin semi-intero con la stessa massa (il così detto "partner" supersimmetrico, o semplicemente "spartner"). Dobbiamo prima di tutto spiegare cosa sia lo "spin" di una particella. Cosa non semplicissima, visto che lo spin è un fenomeno tipicamente quantistico, che non ha corrispondenze classiche. Molto vagamente, si può paragonare lo spin al momento angolare intrinseco di una trottola. Il problema consiste nel fatto che le particelle elementari sono appunto "elementari", cioè non hanno una struttura interna, sono puntiformi, ed è quindi difficile capire come un oggetto puntiforme possa avere un momento angolare intrinseco. Le particelle a spin semi-intero sono chiamate fermioni (da Fermi), e obbediscono alla statistica di Fermi-Dirac, che afferma che non possono esistere due fermioni con gli stessi numeri quantici. Questo equivale al principio di Pauli con il quale si riempiono le shells elettroniche intorno al nucleo. Le particelle a spin intero sono chiamate bosoni (da Bose), e obbediscono alla statistica di Bose-Einstein. In pratica i bosoni non disdegnano la compagnia di altri bosoni (tutto il contrario dei fermioni). L'elettrone, per esempio, è un fermione (spin 1/2), mentre il fotone (il quanto del campo elettromagnetico) è un bosone (spin 1). Tutte le particelle "di materia" (e cioè sostanzialmente elettroni e quark, a energie "ordinarie") sono fermioni: i bosoni trasmettono l'interazione tra i fermioni. I così detti "spartner" non sono mai stati osservati. Cioè, non è mai stato visto il corrispondente bosonico dell'elettrone (chiamato "selettrone"), che dovrebbe essere una particella bosonica con la stessa massa dell'elettrone. Questo significa che la SUSY, se davvero è una simmetria presente in natura, è "rotta". "Rompere una simmetria" significa che la simmetria, per qualche motivo, non è esatta, ma solo approssimata, oppure che la dinamica della teoria porta a fenomeni che rompono la simmetria "spontaneamente" (per esempio creando un termine di massa aggiuntivo per uno dei due spartners). Poiché, come ripeto, gli spartners delle particelle che conosciamo non sono mai stati osservati, dobbiamo assumere che la SUSY sia in qualche modo rotta alle scale di energie alle quali siamo arrivati con i più grandi acceleratori. A energie più grandi la simmetria può essere recuperata, e quindi c'è la possibilità che con i prossimi acceleratori (LHC al CERN) si riusciranno a vedere gli spartners, con masse molto più grandi delle particelle a cui siamo abituati.
NOTA(1): Equazioni di Maxwell e teoria corpuscolare di Newton. La teoria quantistica della radiazione ha mostrato che le onde elettromagnetiche sono composte da quanti di energia, chiamati fotoni. Pertanto si potrebbe sospettare che la teoria di Newton sulla natura corpuscolare della luce sia corretta. In realtà la trattazione quantistica del campo elettromagnetico ha sì reintrodotto il concetto di particella di luce, ma sotto forma di particelle quantistiche, che quindi sono descritte dalla teoria quantistica dei campi, completamente diversa dalla teoria di Newton, che invece si basava sulla trattazione dei corpuscoli di luce come punti materiali sottoposti alla Meccanica Classica di Newton. In definitiva quando è necessario tenere conto del comportamento quantistico (e quindi "parzialmente corpuscolare") delle onde elettromagnetiche si utilizza la teoria di Maxwell nell'ambito della Teoria Quantistica dei Campi. Questa stessa teoria invece va usata semplicemente come una teoria classica (senza integrazioni corpuscolari) quando la quantità di energia coinvolta (cioè il numero di fotoni) è sufficientemente grande da rendere trascurabili gli effetti quantistici. Ciò non toglie che ci sono molti ambiti in cui la teoria di Newton porta a risultati corretti (per esempio, per studiare la riflessione e la rifrazione delle lenti e degli specchi), ma sempre come teoria a sé, non come integrazione di una teoria ondulatoria.
NOTA(2): Il concetto standard di densità. Il concetto standard di densità non è applicabile alle particelle elementari, perché esse devono essere descritte tramite la meccanica quantistica. Le particelle elementari sono ritenute puntiformi perché non hanno struttura interna, o per lo meno, nessuno finora ha ottenuto risultati sperimentali che necessitino di introdurre sottostrutture per descrivere quark e leptoni. In ogni caso ogni oggetto elementare è sempre considerato puntiforme, perché se per descrivere il suo moto fosse necessario introdurre più variabili di quelle necessarie per un punto materiale, questo signficherebbe che il suo moto può essere scomposto come sovrapposizione di moti di diversi oggetti puntiformi e quindi non sarebbe elementare. Tuttavia pensare a queste particelle come a reali punti geometrici è fuorviante, a causa del fatto che nella MQ (Meccanica Quantistica) tutti gli oggetti sono sottoposti al principio di indeterminazione che limita l'individuazione della posizione di un qualsiasi oggetto. Per cui non è corretto calcolare la densità della singola particella, ha senso solo calcolare la densità di un gran numero di particelle confinate in un certo volume. Tra l'altro i buchi neri sono oggetti descritti nell'ambito della Relatività Generale, teoria che non conosce ancora una sistemazione compatibile con la Meccanica Quantistica - si può anche dire il contrario, che la Meccanica Quantistica non possiede una sistemazione compatibile con la Relatività Generale-. Pertanto discutere gli effetti gravitazionali di una singola particella elementare richiede la conoscenza della teoria unificante, che ancora è ignota. Tutte le teorie parziali finora sviluppate indicano comunque che, alle lunghezze cui bisogna scendere per studiare l'interazione gravitazionale delle singole particelle, il comportamento è tanto diverso da quello usuale da rendere il paragone con qualsiasi oggetto macroscopico privo di senso.
DIGRESSIONE....
Breve introduzione....(i più esperti possono andare oltre !)
Il bosone di Higgs è una particella massiva che prende il nome dello scienziato scozzese che per primo, negli anni 60, la introdusse nel contesto di un teoria che verrà poi chiamata "Modello Standard" (MS). Tutti i fenomeni fisici che coinvolgono particelle fondamentali, infatti, sono descritti o meglio sono in accordo, con le previsioni fatte mediante questo modello sviluppato nel corso di 40 anni (!) e adesso, nei limiti tecnici attuali, sperimentalmente verificato. Quello di Higgs è stato un passo verso la costruzione di una teoria unificata e realistica delle interazioni elettrodeboli che ha visto in Schwinger e Glashow i padri fondatori (fine anni '50 inizio '60) e in Salam e Weinberg coloro che ne hanno dato la stesura definitiva. Prima di approfondire il discorso è opportuno ricordare che cosa è un bosone. In natura esistono due tipi essenziali di particelle: i fermioni e i bosoni. I primi sono caratterizzati dal fatto di avere spin semiintero (1/2,3/2...) e di obbedire al principio di esclusione di Pauli, secondo il quale in un sistema di fermioni , due o più particelle (elettroni ad esempio) non possono trovarsi nello stesso stato. I bosoni invece hanno spin intero (0,1,2...) e possono occupare lo stesso stato in maniera arbitraria (solitamente, ed erroneamente, per capire cosa è lo spin, si immagina che ogni particella sia assimilabile ad una piccola trottola che gira dotata quindi di un suo momento angolare). Il bosone che ha spin uguale a zero è chiamato "bosone scalare" e quello di Higgs appartiene a questo gruppo. I bosoni che hanno spin diverso da zero sono detti "bosoni vettoriali". Visto che adesso sappiamo cosa è un bosone possiamo tornare al MS. Come detto, questo è il primo tentativo di teoria unificata delle interazioni elettrodeboli; queste interazioni possono essere interpretate come la manifestazione di una simmetria unica che lega e determina le stesse interazioni tra particelle fondamentali. Purtroppo questa bella simmetria ha un grave difetto visto che non riesce a determinare nè la massa degli elettroni nè degli intermediari delle forze deboli che sono i bosoni vettoriali W+, W-, Z0 (la scoperta sperimentale dei quali ha portato C.Rubbia al premio Nobel). Cosa me ne faccio di una simmetria che non mi dà le masse delle particelle che entrano in gioco nelle interazioni ? Semplice (si fa per dire) ! Si rompe questa simmetria ! Tramite questa incredibile pensata, la teoria è in grado di fornirci i dati da noi richiesti, cioè le masse delle particelle che entrano in gioco in questi processi. Questo meccanismo è chiamato da noi fisici "rottura spontanea di simmetria"; purtroppo la rottura di questa simmetria prevede l'esistenza di una particella che rende la teoria (il MS) un pò meno comprensibile: il famigerato e tanto ricercato bosone di Higgs. A dispetto delle più valide conferme sperimentali che il modello standard "funziona", il bosone di Higgs non è stato ancora trovato; al più è stato dato un limite inferiore per la sua massa. Se il bosone c'è bisogna cercarlo ad energie più grandi di questa soglia; ecco il motivo per cui si cerca di costruire acceleratori sempre più grandi in modo di avere energie sempre maggiori. A questo punto c'è da chiedersi se il MS funziona ancora bene ad energie tanto più grandi di quelle che governano i processi elettrodeboli. Da qui la necessità di nuovi approcci al problema, come le teorie supersimmetriche, che sembrerebbero controllare con più disinvoltura del MS la parte di rottura di simmetria.
FINE Introduzione...
Il Modello Standard (MS). Un breve ripasso...
Breve introduzione....(i più esperti possono andare oltre !)
Negli ultimi TRENT'anni sono stati compiuti notevoli progressi nell'identificazione dei costituenti fondamentali della materia e delle forze fondamentali attraverso le quali questi costituenti interagiscono. Secondo quello che è oggi chiamato modello standard dei processi elementari, tutta la materia è costituita di quark e di leptoni, le cui reciproche interazioni sono mediate dallo scambio delle cosiddette particelle di gauge. Si pensa anche che esistano quattro tipi fondamentali di interazione: elettromagnetica, debole, forte e gravitazionale. Per esempio, l'elettrone è classificato come leptone e le sue interazioni elettromagnetiche con il protone sono mediate da una particella di gauge chiamata fotone. Il decadimento beta, il processo fondamentale delle reazioni nucleari sul Sole, è un risultato dell'interazione debole ed è mediato dallo scambio delle particelle di gauge chiamate bosoni vettori deboli. Il protone, il neutrone e molte altre particelle sono classificati come adroni e sono formati da tre quark con carica frazionaria. I quark sono tenuti assieme da un'interazione forte, l'interazione di colore, mediata dallo scambio di altri otto tipi di particelle di gauge, i gluoni. Per analogia con queste tre interazioni si ipotizza che un'altra particella di gauge, il gravitone, medi l'interazione gravitazionale, ma essa non è ancora stata rivelata. Si ritiene oggi che vi siano complessivamente sei quark con i corrispondenti antiquark ciascuno in tre varietà di "colore", sei leptoni e le loro sei corrispondenti antiparticelle, un fotone, tre bosoni vettori deboli, otto gluoni e forse un gravitone. Il modello standard si basa principalmente sui dati ricavati dai grandi protosincrotroni del Fermilab e del CERN (l'Organizzazione europea per la ricerca nucleare), dallo Stanford Linear Accelerator Center (SLAC), dai collisori per elettroni e positoni della Cornell University, di Amburgo e di Stanford e dal collisore protone-antiprotone del CERN. Anche delicati esperimenti a bassa energia hanno fornito importanti contributi alla conoscenza. I quark sono stati originariamente introdotti come entità puramente teoriche, dopo la scoperta di centinaia di adroni, per poter ripristinare una qualche organizzazione fondamentale nella proliferazione delle particelle "elementari". Essi hanno acquisito una certa vaga realtà in seguito ai risultati ottenuti nel corso di una grande varietà di esperimenti, ma è stato soltanto nel 1974 che la convinzione che i quark esistessero venne saldamente ribadita dalla simultanea scoperta della particella J/psi, prevista sulla base dell'ipotesi dei quark, scoperta che ebbe luogo allo SLAC e a Brookhaven. Una componente di rilievo del modello standard è la teoria elettrodebole. Nelle sue attuali versioni, i sei quark e i sei leptoni sono raggruppati in tre generazioni, a ognuna delle quali viene assegnata una coppia di quark e una di leptoni. Le interazioni elettromagnetica e debole vengono descritte come aspetti diversi di una sola interazione fondamentale, chiamata elletrodebole. La teoria ellettrodebole fornisce esatte previsioni su una gran varietà di fenomeni ed è stata confermata in dettaglio da vari esperimenti. La sua più spettacolare conferma sperimentale si ebbe al CERN nel 1983 con la scoperta dei tre bosoni vettori deboli, le particelle W+ , W- e Z0. La teoria elettrodebole rispetta una tradizione che ha caratterizzato il pensiero scientifico fin dalle sue origini nell'antica Grecia: l'unificazione di fenomeni diversi in un solo insieme di concetti. E per molti fisici si tratta del classico tipo di teoria che dovrebbe un giorno riuscire a dare un'interpretazione unitaria di tutte e quattro le interazioni fondamentali della natura. In base ad essa, l'unificazione delle interazioni debole ed elettromagnetica si manifesta solo a energie estremamente elevate. A queste energie le due interazioni sono equivalenti perchè le masse dei bosoni di gauge che le mediano sono effettivamente nulle e può venire alla luce senza alcun impedimento la loro completa simmetria. L'ipotesi di una simmetria di questo tipo alle alte energie è in netto contrasto con le proprietà delle due interazioni nell'ambiente comune di laboratorio. Qui il raggio d'azione dell'interazione debole è circa 1000 volte minore del diametro del nucleo atomico, mentre il raggio d'azione dell'interazione elettromagnetica è infinito. Secondo la teoria elettrodebole questa differenza è dovuta al fatto che i bosoni di gauge deboli sono particelle molto pesanti, mentre la massa del bosone di gauge elettromagnetico (il fotone) è nulla. Si dice, allora, che la simmetria delle due interazioni si rompe.
12.01.2004 I muoni mettono in crisi il Modello Standard
I nuovi dati deviano ulteriormente dalla teoria.Gli ultimi risultati della collaborazione internazionale di fisici che studia come varia lo spin di un muone quando questa particella si muove attraverso un campo magnetico - un valore noto come "muon g-2" - mostrano una deviazione dalle previsioni teoriche. I dati, presentati l'8 gennaio 2004 al Brookhaven National Laboratory e di prossima pubblicazione sulla rivista "Physical Review Letters", mettono in crisi la validità del Modello Standard della fisica delle particelle, una teoria generale che da trent'anni resiste a ogni verifica sperimentale. Nel febbraio 2001 e nel luglio 2002, la collaborazione "muon g-2" aveva già pubblicato risultati che deviavano in modo significativo dai valori previsti dalla teoria. Questi risultati avevano generato molto interesse nella comunità scientifica, come possibili indicatori del fatto che il Modello Standard potesse essere incompleto. I nuovi risultati, basati sugli ultimi dati raccolti dal gruppo, rappresentano la prima misura del valore di g-2 per muoni carichi negativamente: i dati raccolti in precedenza, infatti, erano relativi a muoni carichi positivamente. La precisione dei nuovi risultati è compatibile con la precisione combinata dei risultati pubblicati in precedenza, e tutti i tre valori sono in accordo fra di loro e con le previsioni teoriche del cosiddetto teorema CPT. Se confrontati con le previsioni del Modello Standard per il valore g-2, i nuovi dati sperimentali differiscono di 2,8 deviazioni standard. La misura dell'anomalo momento magnetico del muone è un test molto indicativo della validità del Modello Standard (MS). L'esperimento è stato condotto da scienziati del laboratorio di Brookhaven e di altre 11 istituzioni di Stati Uniti, Russia, Giappone, Olanda e Germania.
NOTA: Il Modello Standard risponde a molte domande sulla struttura e l'equilibrio della materia grazie ai suoi sei tipi di quark, sei tipi di leptoni, e quattro tipi di interazioni.Ma il Modello Standard non è una teoria completa, perché non è ancora in grado di spiegare pienamente la natura del mondo. Perché ci sono tre generazioni di quark, e tre di leptoni ? I quark e i leptoni sono davvero fondamentali, o sono a loro volta composti di particelle più elementari ? Perché il Modello Standard non è in grado di predire la massa di una particella ? In base agli esperimenti, ci dovrebbero essere uguali quantità di materia e antimateria nell'universo: allora perché, in base alle osservazioni, l'universo risulta composto principalmente di materia ? Come rientra la gravità nel Modello Standard ? Sappiamo che nell'universo ci deve essere molta più materia di quella che possiamo osservare. Questa invisibile materia oscura, che cosa è ? Domande come queste spingono noi fisici delle particelle a costruire e adoperare acceleratori sempre più avanzati e più potenti, in modo che collisioni ad un'energia ancora più alta possano fornire indizi per risolvere i misteri.
30.03.2004 Un decadimento estremamente raro
Sono stati osservati solo tre eventi dal 1997 a oggi. Osservando un decadimento estremamente raro di una particella subatomica, una collaborazione internazionale di fisici ha trovato le prove di un processo che potrebbe indicare l'esistenza di nuove forze oltre a quelle incorporate nel Modello Standard della fisica delle particelle. L'attuale teoria, infatti, prevede con precisione che il tasso di questo decadimento sia la metà di quello da noi osservato, anche se è ancora troppo presto per affermare che ci sia una deviazione significativa. L'innovativo esperimento, che ha sfruttato uno dei più completi rivelatori di particelle mai costruiti, è stato eseguito al Brookhaven National Laboratory del Dipartimento dell’Energia degli Stati Uniti. I risultati sono stati presentati in un colloquio presso il laboratorio e verranno pubblicati sulla rivista "Physical Review Letters". L'esperimento riguarda la disintegrazione di una particella instabile, il mesone K, che può decadere in molti modi differenti. Un particolare decadimento, nel quale il mesone K si trasforma in un pione carico positivamente, un neutrino e un antineutrino, è estremamente raro ma anche importante per i processi subatomici interni coinvolti. I risultati di Brookhaven indicano che questo decadimento avviene una volta su 7 milioni, mentre il Modello Standard prevede che si verifichi una volta su 13 milioni. Tuttavia, con soli 3 eventi osservati dal 1997 a oggi, il risultato è ancora consistente con le previsioni teoriche.
16.01.2004 Un mesone misterioso
X(3872) potrebbe forse essere formato da quattro quark. La collaborazione Belle, composta da circa 300 fisici provenienti da 13 paesi, ha scoperto una nuova particella sub-atomica che potrebbe modificare le attuali teorie sulla struttura dell'universo. La ricerca verrà pubblicata sulla rivista "Physical Review Letters". È possibile che alcune delle teorie standard oggi accettate debbano essere modificate per incorporare le nuove scoperte. Noi scienziati riteniamo che la particella sub-atomica possa essere un mesone, ovvero che sia costituita da quark. Il mesone misterioso pesa quasi come un singolo atomo di elio e ha una vita media di circa un millesimo di miliardesimo di miliardesimo di secondo prima di decadere in altre particelle, più familiari e con vita più lunga. Il team ha scoperto il mesone, chiamato X(3872), grazie al grande collider di elettroni del laboratorio KEK a Tsukuba, in Giappone: una macchina con una circonferenza di tre chilometri. Normalmente i mesoni sono composti da un quark e da un antiquark. La massa e le proprietà di decadimento di X(3872), però, non corrispondono alle previsioni teoriche per ogni possibile coppia di quark-antiquark. Noi fisici teorici siamo alla ricerca di una possibile spiegazione -ci stiamo interrogando; molte notti in bianco :-). Fra queste, una modifica alla teoria dei colori dei quark, oppure la possibilità che X(3872) sia il primo esempio di un nuovo tipo di mesone formato da quattro quark.
Conseguenze
della compattificazione sulla violazione di CP e sulla gerarchia...(Tecnico)
Sapore, CP e Gerarchia nel Modello Standard e Oltre...(alcuni miei recenti studi)
Gli esperimenti hanno mostrato che il Modello Standard (MS) descrive brillantemente la fenomenologia delle particelle in un ampio intervallo di energie attorno alla scala elettrodebole. Molti suoi aspetti appaiono tuttavia misteriosi, in particolare l'origine del sapore (le tre generazioni fermioniche con le loro masse e mescolamenti) e della violazione di CP. Il punto centrale del mio progetto di ricerca consiste precisamente nell'individuare possibili soluzioni a queste problematiche. E' ben noto che il MS è inadeguato nel descrivere la fisica ad energie molto più alte o basse della scala elettrodebole: quando si cerca di applicarlo ad energie molto più grandi, si va incontro al problema della gerarchia, cioè alle divergenze quadratiche nella massa dell'Higgs; d'altra parte, mentre è ormai ben consolidata l'evidenza di masse attorno all'eV per i neutrini, nel MS non è ammesso un termine di massa per questi ultimi. Il MS deve quindi essere visto come il limite di bassa energia di una teoria più fondamentale. Tra le possibili estensioni del MS, il seesaw emerge come il meccanismo più elegante per introdurre masse e mescolamenti per i neutrini ed offre inoltre la possibilità di spiegare l'asimmetria materia-antimateria in termini di una asimmetria leptoni-antileptoni. Il modo più elegante per risolvere il problema della gerarchia rimane tuttora la supersimmetria realizzata a bassa energia, resa ancor più plausibile dalla brillante unificazione delle tre costanti di gauge, che a sua volta suggerisce uno stadio di grandunificazione prima che le interazioni gravitazionali diventino importanti. Nelle estensioni del MS, il problema del sapore e CP non solo non trova spiegazione, ma si arricchisce di nuovi aspetti e/o problemi. Per esempio, processi potenzialmente molto sensibili alla violazione del sapore e CP nel settore supersimmetrico, come i decadimenti ,ed i momenti dipolari elettrici dei fermioni, potrebbero entrare in disaccordo con i limiti sperimentali. Inoltre, rispettare i limiti sperimentali sulla vita media del protone nelle teorie grandunificate è un problema non banale e strettamente legato ad un altro problema di gerarchia, quello della differenza di massa tra doppietti e tripletti.
Soluzioni al Problema del Sapore e CP
Come possibili soluzioni al problema del sapore sono state dapprima suggerite le simmetrie di sapore rotte spontaneamente. Le loro potenzialità sono state ormai ampiamente sviscerate, così come i loro limiti: nonostante i modelli più semplici riproducano bene la struttura gerarchica delle masse e mescolamenti dei fermioni, neutrini compresi, una maggiore predittività si ottiene solo a costo di complicare notevolmente i modelli. Il punto più debole delle simmetrie di sapore è comunque il fatto che esse non offrono alcuna spiegazione al numero tre per le generazioni fermioniche nè all'origine di CP. La chiave d'accesso a questi problemi è probabilmente da ricercare ancora oltre, in una teoria che includa le interazioni gravitazionali. A questo scopo, le teorie di stringhe appaiono il contesto privilegiato: numero delle generazioni fermioniche, masse, mescolamenti e violazione di CP sono tutte conseguenze del meccanismo di compattificazione attraverso il quale le dimensioni supplementari appaiono "nascoste" ad un osservatore di bassa energia. In particolare le tre generazioni del MS potrebbero provenire da un unico spinore multidimensionale. Bisogna però riconoscere che, nonostante gli studi sulle "intersecting branes" come origine del sapore, le lacune e i problemi di calcolabilità presenti nelle teorie di stringhe ne ostacolano notevolmente il contatto con la fenomenologia. Per accedere almeno in parte alle potenzialità offerte dalle teorie di stringhe riguardo al sapore e CP, recentemente si è cercato di partire piuttosto "dal basso", adottando un contesto di teoria di campo con dimensioni supplementari ispirato alle stringhe. Queste teorie sono divergenti nell'ultravioletto ma possono essere utilizzate come descrizioni effettive di bassa energia, scala di compattificazione compresa. Anche in una descrizione di teoria di campo le dimensioni supplementari possono avere profonde conseguenze sul problema del sapore. Per esempio, uno spinore multidimensionale che interagisce con un background di tipo solitonico può dare origine a vari fermioni chirali a massa nulla in quattro dimensioni. Le masse vengono poi introdotte dinamicamente attraverso la convoluzione tra le funzioni d'onda dei fermioni e dell'Higgs. Nelle compattificazioni di tipo orbifold, i solitoni sono simulati da campi scalari con proprietà di trasformazione non banali rispetto ad una data simmetria discreta che agisce sulle coordinate dello spazio interno. Anche in questo caso i modi zero dell'operatore di Dirac su questo background possono essere chirali e localizzati in zone specifiche dello spazio compatto. Vari modelli semi-realistici sono stati proposti, tra cui (vedi ph/0305129). Va inoltre sottolineato come il meccanismo di compattificazione e la proiezione di orbifold siano anche stati usati per rompere la supersimmetria, ingrediente essenziale delle teorie di stringhe, e/o gruppi di gauge di tipo grandunificato, evidenziando una soluzione alternativa ai problemi del doppietto-tripletto e della vita media del protone.
Nell'ambito dei recenti sviluppi appena menzionati, molti aspetti di elevato interesse sono ancora poco capiti e/o esplorati. Innanzitutto non è affatto chiaro quali e quante compattificazioni diano luogo a generazioni fermioniche chirali in numero di tre. L'obiettivo principale del mio progetto di ricerca consiste nello sviluppo di modelli via via pù completi che permettano di individuare quali caratteristiche geometriche dello spazio compatto consentano di ottenere tre generazioni chirali, masse, mescolamenti e violazione di CP in modo elegante ed economico. Mi propongo quindi di approfondire quelle caratteristiche che permettono di validare o confutare un dato modello. Il settore di rottura della supersimmetria, genericamente molto sensibile alla struttura geometrica delle dimensioni compatte, potrebbe rivelarsi il luogo adatto, dovendo soddisfare ai numerosi e forti vincoli sperimentali: momenti dipolari elettrici dei fermioni, decadimenti che violano il sapore, vita media del protone, etc. Poichè, all'interno di un modello specifico, le predizioni per queste osservabili potrebbero risultare legate al meccanismo responsabile per le masse e mescolamenti dei neutrini, intendo sviluppare anche quest'ultimo aspetto.
FINE Introduzione...
Che la teoria non ponga virtualmente alcuna restrizione alla massa della particella di Higgs costituisce un problema. Essa potrebbe plausibilmente avere un valore di soli pochi miliardi di elettronvolt (GeV) o anche di un bilione di elettronvolt (TeV). Se la massa è inferiore a 50 GeV, dovrebbe essere possibile individuarla con i più grandi collisori elettrone-positone attualmente esistenti, lo Stanford Linear Collider (SLC) e il Large Electron-Positron Collider (LEP) del CERN. Se la massa è compresa tra 50 e 200 GeV, il Tevatron dovrebbe essere in grado di produrla, anche se può essere sperimentalmente difficile averne la prova in mezzo al caos di altre particelle in quell'intervallo di masse. Per masse di Higgs molto superiori a 200 GeV diventa meno appropriato descrivere come elementare la particella di Higgs. La meccanica quantistica insegna che quanto minore è la vita di una particella, tanto minore diventa la conoscenza della sua energia o, in modo equivalente, della sua massa. Se la massa della particella di Higgs supera i 200 GeV, la particella decade in due particelle W o in due particelle Z, e la sua vita deve essere talmente breve da produrre una distribuzione della sua massa in un ampio intervallo. E' il caso di meditare quale senso possa avere il considerare particella un'entità priva di una massa definita. Se la massa della particella di Higgs raggiunge 1 TeV, la teoria elettrodebole prevede che, a energie di 1 TeV o superiori, debbano manifestarsi fenomeni del tutto nuovi. In tali circostanze l'interazione elettrodebole diventa forte. Dal momento che la dinamica elettrodebole regola le interazioni dei leptoni e dei quark, queste particelle si possono combinare, a energie di 1 TeV o più, in particelle composte, con nuove sorprendenti proprietà. Molti fisici ritengono che la forma più semplice di meccanismo di Higgs per la rottura della simmetria sia solo un'approssimazione a bassa energia della realtà. Un motivo deriva dal fatto che la particella di Higgs, ammesso che essa esista, non possiede spin. Se l'avesse, anche il campo di Higgs avrebbe uno spin e la massa di una comune particella dipenderebbe dalla sua orientazione nel vuoto. Non è mai stata osservata, invece, una simile dipendenza "rotatoria". Nella meccanica quantistica lo spin di una particella può assumere soltanto valori discreti e le particelle dotate di spin interi (0, 1, 2 e cosi via) sono nettamente distinte da quelle con spin seminteri (1/2, 3/2 e così via). Le particelle con spin interi sono dette bosoni, quindi la particella di Higgs con spin nullo è un bosone, proprio come i bosoni di gauge con spin 1 finora osservati, quale il fotone che media le interazioni fondamentali. Le particelle con spin seminteri sono dette fermioni e comprendono tutti i quark e i leptoni. Per calcolare la massa del bosone di Higgs si devono avanzare certe ipotesi sui processi fisici alle alte energie. Se il bosone di Higgs è una particella elementare, la sua massa calcolata varia notevolmente anche per piccole variazioni nelle suddette ipotesi. Questa sensibilità matematica non ha una giustificazione fisica naturale; inoltre, non è una caratteristica delle espressioni delle masse delle particelle con spin 1/2. Ma ai teorici, mai lasciare spazio alla fantasia !! Infatti è possibile evitare l'ostacolo matematico e mantenere il necessario bosone di Higgs con spin 0 se il bosone è una particella composta anziché elementare, costituita da due fermioni con spin 1/2. Le particelle composte si trovano frequentemente in altri settori della fisica: per esempio, il pione con spin 0 è composto da due quark con spin 1/2. Gli spin si annullano a vicenda per formare una particella composta senza spin dal momento che i due quark ruotano in verso opposto. Un bosone di Higgs composto richiederebbe l'esistenza di una famiglia completamente nuova di particelle pesanti con spin 1/2, i tecniquark. Queste particelle sarebbero soggette a una nuova interazione forte, l'interazione technicolor, che si può spiegare per analogia con l'interazione forte di colore che lega i quark negli adroni. I tecniquark si legherebbero non solo per formare il bosone di Higgs, ma anche per formare una pletora di altre tecniparticelle composte, quali i tecnipioni, i mesoni tecnivettori e così via. Queste nuove particelle sarebbero alquanto pesanti, ma almeno alcune dovrebbero avere masse grosso modo comprese tra 50 e 500 GeV. In acceleratori quali il Tevatron, il numero prodotto di queste particelle dovrebbe essere piccolo ed esse dovrebbero essere difficilmente distinguibili dal fondo anche se le loro masse fossero prossime all'estremità inferiore dell'intervallo previsto. Per verificare la teoria è necessario impiegare un collisore con un'energia del fascio superiore di molti TeV.
FINE DIGRESSIONE
La particella di Higgs: alla sorgente della massa
Il problema, a tutt'oggi non ancora risolto, dell'origine della massa delle particelle elementari era stato posto già negli anni Sessanta dal fisico inglese Peter Higgs. Nel tentativo di trovare una soluzione, egli propose una teoria secondo la quale l'intero spazio cosmico sarebbe occupato da un campo energetico ancora ignoto, simile in un certo senso al campo elettromagnetico. Muovendosi nello spazio, le particelle attraverserebbero questo "campo di Higgs" e dall'interazione con esso si formerebbe la loro massa. Il fisico inglese David Miller ha cercato di rendere comprensibile il "meccanismo di Higgs (illustrato !!)" con un'analogia: " Immaginate una festa di esponenti di un partito politico. A un certo punto il presidente del partito entra nella sala e la attraversa. Tutte le persone nelle sue immediate vicinanze si sentono attratte da lui e gli si radunano intorno. Avanzando, il presidente attrae nuove persone, mentre altre rimangono indietro. A causa del grande numero di persone intorno a lui, egli ha una massa maggiore del solito, acquisisce cioè una quantità di moto maggiore (in fisica, la quantità di moto è il prodotto di massa e velocità) procedendo nella sala a velocità costante. Diventa perciò più difficile fermarlo mentre si muove e, una volta fermato, farà più fatica a rimettersi in movimento, poiché in tal caso ricomincerà il processo di raggruppamento dei presenti attorno a lui". Sarebbe questo, secondo Miller, il meccanismo fondamentale che conferisce alle particelle elementari la loro massa. Se le particelle acquisiscono la loro massa grazie all'interazione con questo "campo di Higgs", dev'esserci una "particella di Higgs" mediatrice di questa interazione. La particella di Higgs è meglio nota come (vedi sopra) "bosone di Higgs": ricordo ancora che i bosoni sono le particelle mediatrici delle forze, di contro ai fermioni, che compongono la materia. Il "bosone di Higgs" sarebbe dunque paragonabile ai gravitoni (la cui esistenza è parimenti ancora da dimostrare), ossia ai presunti responsabili della forza gravitazionale. Essa sarebbe, in tal caso, la chiave per aprire la porta, finora chiusa, che potrebbe condurre a una spiegazione semplice del mondo. Si sarebbe trovata una formula universale per descrivere matematicamente tutti i misteri della natura, compreso il Big Bang. Tale formula universale sarebbe la prova che l'universo segue un unico, semplice, principio matematico. E' l'antichissimo sogno della scienza: trovare un'origine unica per tutto ciò che esiste. Nessuno sa se il "bosone di Higgs" esista davvero. Però lo si cerca, anche se finora senza successo. Ma torniamo ai quark. Essi non sono mai osservabili direttamente, cioè come quark liberi. Ciò dipende dalla forza di intensità immensa che li tiene uniti nei protoni o nei neutroni. Sappiamo già che questa forte coesione è dovuta ai gluoni. La forza con cui questi "incollano" i quark gli uni agli altri è molto superiore a quella che i mesoni generano tra protoni e neutroni. I gluoni non sono mai in quiete. Essi sono particelle estremamente veloci, come gli stessi mesoni. Sfrecciano su e giù tra i quark alla velocità della luce, formando un'entità indistinta chiamata in gergo i "mare di gluoni". Come se tutto questo non fosse già abbastanza complicato, i gluoni possono trasformarsi per breve tempo in quark e antiquark che subito si annichilano reciprocamente. In parole povere, la "colla" normalmente invisibile riesce, per un rapidissimo istante, a materializzarsi in una coppia quark-antiquark, e solo in questo modo può essere individuata. Ciò non significa, però, che i tre quark presenti in un protone o in un neutrone possano essere in qualche modo separati. Al contrario della forza elettromagnetica, che diminuisce all'aumentare della distanza fra le particelle cariche, la forza nucleare forte tra i quark rimane sempre uguale, anche qualora si cerchi di separarli. Il legame tra i quark è così intenso da non consentire la loro liberazione. Per ottenere quark veramente liberi, occorrerebbe produrre collisioni di energia incredibilmente elevata fra i protoni, un'energia irraggiungibile negli acceleratori esistenti. I calcoli ci dicono che solo a temperature di circa mille miliardi di kelvin si potrebbe raggiungere uno stato della materia compatibile con un accumulo di quark liberi. Una condizione del genere dovette regnare un milionesimo di secondo dopo il Big Bang: si tratta del cosiddetto "plasma di quark e gluoni" (QGP = Quark-Gluon Plasma) nel quale i quark posso muoversi liberamente come gli atomi in un gas. Dal 1994 al CERN si sta cercando di produrre un tale plasma di quark e gluoni per mezzo di violente collisioni tra nuclei atomici di piombo. Ai primi di febbraio del 2000 il CERN comunicò di avere finalmente trovato prove convincenti della formazione di questo plasma. Tuttavia anche tali prove erano di tipo indiretto. Nemmeno in quel caso fu possibile osservare quark liberi. Gli scienziati riferirono che, in seguito alle collisioni tra i nuclei atomici di piombo, si erano formate circa 2500 particelle. Il minuscolo globo di fuoco che si creò in quell'occasione aveva una temperatura di parecchie migliaia di milioni di gradi ed era una ventina di volte più denso di un nucleo atomico. Non abbiamo però ancora la certezza che in questo esperimento sia stato prodotto davvero un plasma di quark e gluoni. Gli indizi in proposito sono ancora troppo deboli. Se un protone o un neutrone è composto da tre quark, e questi sono tenuti insieme dai gluoni, ci viene ovvia la domanda di quanti gluoni siano necessari per "incollare" i tre quark. La risposta che noi fisici diamo, si accorda perfettamente allo sconcertante mondo delle particelle elementari: il numero dei gluoni dipende dalla precisione dell'"osservazione", o - si potrebbe anche dire - dalla quantità di energia con cui si fanno urtare i protoni o gli elettroni. Nell'acceleratore tedesco HERA di Amburgo, per esempio, si possono "vedere" circa 30 gluoni. Teoricamente è possibile addirittura che esista un numero infinito di gluoni, il che però porterebbe le particelle a ostacolarsi a vicenda sfrecciando su e giù fra i tre quark. Resta da vedere se una tale "saturazione di gluoni" sarà mai osservabile negli acceleratori.
Why are physicists so sure that it really exists ?
[X]-Clicca sulla X per avere la versione integrale del testo scorrevole.
15.06.2004 Nuove stime per il bosone di Higgs
Il nuovo risultato si basa sugli ultimi dati del Fermilab. I fisici della collaborazione DØ al Fermi National Accelerator Laboratory (Fermilab) hanno ottenuto la misurazione più accurata di sempre della massa del quark top. Il risultato presenta importanti implicazioni per la ricerca del bosone di Higgs, la particella che potrebbe spiegare da dove proviene la massa e che permetterebbe lo studio di una "nuova fisica" oltre il Modello Standard (MS) delle particelle elementari. Il quark top era stato scoperto con il collider protone-antiprotone Tevatron, al Fermilab, nel 1995. Il nuovo risultato è basato sui dati presi prima che il Tevatron venisse chiuso nel 1999. L'analisi dei dati del cosiddetto "primo run" ha fissato il valore della massa del quark top a 178,0 ± 4,3 GeV/c2. Nel Modello Standard (MS), le masse delle particelle vengono generate come risultato dell'interazione con un campo chiamato campo di Higgs. Dovrebbe essere possibile anche rivelare le eccitazioni di questo campo sotto forma di una particella nota come bosone di Higgs. Individuare questo bosone - l'unica particella del Modello Standard (MS) che non è ancora stata osservata sperimentalmente - è uno degli obiettivi più difficili della fisica delle particelle. Tuttavia, le misure delle masse del quark top e dei bosoni W+ e W- consente a noi scienziati di porre dei limiti superiori e inferiori alla possibile massa dell'Higgs. Il nuovo valore della massa del quark top è superiore di circa 5,3 GeV rispetto al valore precedente, e fa sì che la miglior stima della massa del bosone di Higgs aumenti da 96 a 117 GeV. Ma fa salire anche il limite superiore da 219 a 251 GeV, ponendo dunque l'Higgs potenzialmente oltre le capacità degli attuali acceleratori. Lo studio è stato pubblicato sul numero del 10 giugno della rivista "Nature".
Fino a oggi non si sa con certezza se i quark siano effettivamente puntiformi e indivisibili; se siano cioè particelle elementari. O se non siano invece dotati di un'estensione. Probabilmente questi interrogativi non avranno mai una risposta definitiva, dal momento che una soluzione sperimentale sarebbe ottenibile solo con energie "terrificanti". Se non altro si è riusciti a determinare con una certa precisione il limite massimo di grandezza del quark. E' risultato che un quark dev'essere minore di 1,6 milionesimi di miliardo di millimetro: questo valore equivale a un millesimo del diametro di un protone. Purtroppo, però, ciò non ci aiuta a capire meglio i quark. Qualche anno fa, esperimenti condotti presso il Fermilab fecero sospettare che i quark fossero costituiti da unità ancora più piccole, ossia che potessero essere ulteriormente divisibili. Può darsi che anche gli elettroni e altre particelle "leggere", riunite sotto la denominazione di "leptoni", siano ulteriormente divisibili. Sono già vent'anni che si riflette su questa possibilità. Si è ipotizzato addirittura che quark ed elettroni possano essere composti delle stesse particelle elementari. Si era già trovato anche un nome: "leptoquark"; un misto di quark e leptoni che doveva riunire in sé le proprietà di entrambe le famiglie di particelle. I leptoquark avrebbero dovuto possedere una massa di circa 200 GeV. Sarebbero stati quindi ancor più pesanti del quark top. L'idea dei leptoquark sembrava ovvia anche per il fatto che, analogamente ai sei tipi di quark, esistono sei tipi di leptoni: l’elettrone, due tipi di mesone e tre tipi di neutrino. E soltanto un caso ? O non è piuttosto il segno che tra le due famiglie di particelle esiste uno stretto rapporto ? Ogni tipo di materia si compone di questi dodici tipi di particelle, suddivisi in due famiglie di sei membri ciascuna. In tutto questo si manifestava il desiderio di individuare l'unica particella elementare primordiale, veramente divina, con la quale si potesse spiegare l'intero universo, a cominciare dalle sue origini. Frattanto, però, una serie di esperimenti ha fatto supporre che né i quark né i leptoni siano composti da unità più piccole. Non è detta peraltro l'ultima parola, poiché la fisica delle particelle elementari presenta ancora troppe questioni aperte. In particolare, non è ancora sfumato il sogno di trovare la particella primordiale veramente divina della materia, sia essa la "particella di Higgs" o il leptoquark. Per trovare questa particella primordiale sono però necessari acceleratori ancora più grandi di quelli attualmente in funzione nel mondo. Il futuro, in quest'ambito, si profila però piuttosto fosco. Nel 1994, negli Stati Uniti è stato definitivamente accantonato il progetto di un superacceleratore gigantesco, il Superconducting Supercollider, che sarebbe costato 11 miliardi di euro. Ora le speranze di noi astrofisici e soprattutto dei fisici delle particelle sono riposte nel CERN di Ginevra, dove è in costruzione un nuovo acceleratore, il Large Hadron Collider (« grande collisore di adroni ») o LHC. (Gli "adroni" sono le particelle pesanti del nucleo atomico, cioè protoni, neutroni e mesoni. Il termine deriva dal greco hadròs, "forte"). Al progetto partecipano cinquecento istituti di ricerca di trenta Paesi. La costruzione costerà "solo" 5 miliardi di euro. Forse sarà l’ultimo impianto del genere che l’umanità potrà permettersi per indagare sull’enigma ultimo della materia. Non verrà ultimato prima del 2006. Grazie all’LHC sarà forse possibile identificare la particella assoluta - la "particella di Dio"- su cui si fonda tutta la materia. In altri termini, i futuri esperimenti ci permetteranno di avvicinarci alla nascita dell'universo fino a un punto mai raggiunto prima, e di conoscere quale fu il comportamento del plasma di quark e gluoni un miliardesimo di secondo dopo il Big Bang, quando l'universo non aveva ancora raggiunto le dimensioni di un pallone da calcio. Non siamo in grado di prevedere se l'uomo riuscirà un giorno ad avvicinarsi ancora di più al Big Bang per via sperimentale.Nell'LHC i protoni verranno frantumati per mezzo di collisioni a energie di 14.000 miliardi di elettronvolt (14 teraelettronvolt = 14 TeV, o 14.000 GeV), dieci volte superiori all’energia raggiungibile oggi negli acceleratori più grandi. Più di mille magneti giganteschi, lunghi 14 metri ciascuno, verranno usati per incurvare la traiettoria delle particelle in modo che non escano da essa. I magneti saranno raffreddati mediante il più grande impianto di raffreddamento del mondo. Esso utilizzerà elio liquido per mantenere gli elettromagneti a pochi gradi al di sopra dello zero assoluto, in modo che possano condurre la corrente elettrica senza perdita di calore. Apparecchi di misura (rivelatori) alti come un palazzo di venti piani avranno il compito di registrare le collisioni. Per l’elaborazione dei dati occorreranno computer mille volte più potenti di quelli attualmente in uso al centro di calcolo del CERN. Per la sola energia elettrica consumata, l'LHC comporterà una spesa annua di circa 25 milioni di euro. Grazie all'LHC, il CERN non avrà più rivali a livello mondiale.
Dubito ergo SUM !
E se nemmeno l'LHC riuscisse a risolvere quelli che oggi vengono considerati gli ultimi misteri della fisica ? Per quanto tempo ancora i Paesi coinvolti nel progetto continueranno a versare mezzo miliardo di euro all’anno per finanziare l’attività dell’LHC ? Una spesa enorme al solo scopo di trovare la particella che ha preso il nome da "Higgs", della cui esistenza nemmeno si è certi. E tutto per sapere quale sia l'origine della massa dei quark o degli elettroni; come mai ci siano tre famiglie di quark; perché nell'universo operino proprio quattro forze elementari; per quale motivo il protone possegga una carica uguale e contraria a quella dell'elettrone; e infine, quale sia la ragione per cui finora la forza di gravità ha resistito a una descrizione quantistica. I ricercatori del CERN sono convinti che l'LHC ci svelerà il segreto del "bosone di Higgs". Ma anche se così non fosse, non sarebbe un dramma, perché anche la sua mancata scoperta farebbe avanzare la fisica delle particelle suscitando nuove teorie e nuovi interrogativi. Tuttavia, anche ammesso che il "bosone di Higgs" esista, dargli la caccia è come cercare un ago in un pagliaio... un pagliaio di dimensioni immense. Quando i protoni cominceranno a entrare in collisione nell'LHC, si dovranno analizzare un miliardo di eventi al secondo, poiché fra tutti questi solo dieci, o forse venti, saranno rilevanti per la ricerca. Ecco perché sono necessari calcolatori dalle prestazioni straordinarie (un esempio di immediata ricaduta tecnologiaca), in grado di separare fulmineamente il grano dalla pula. Per poter raccogliere quei pochi eventi in grado di indicare con chiarezza l'esistenza di una "particella di Higgs" saranno necessari mesi e mesi di collisioni di protoni. Il fatto che si affronti questa spesa enorme dimostra che in questo ambito sembra ormai profilarsi qualcosa di risolutivo. Tuttavia non mancano gli scettici, fra i quali si annoverano anche alcuni scienziati esterni al CERN. Ma anche se si trovasse il "bosone di Higgs", questo risultato non significherebbe affatto che si è scoperta la particella originaria della materia. Dietro all’"higgsone", come si è chiamata anche questa particella, potrebbe nascondersi un "super-higgsone". Noi fisici parliamo di "superstringhe" (o "supercorde"): minuscole strutture aggrovigliate tra loro, a dieci o a undici dimensioni, la cui presenza non potrebbe essere dimostrata nemmeno da un acceleratore così grande. In teoria possiamo indicare le dimensioni approssimative di un acceleratore in grado di rivelare queste strutture: esso dovrebbe avere dimensioni astronomiche dell'ordine di 1000 anni luce ! Chissà che per risolvere tutti gli enigmi della materia non occorra un acceleratore grande quanto l'universo, nel quale i protoni dovrebbero urtarsi tra loro con tutta l'energia dell'universo. Probabilmente tutto ciò provocherebbe un altro Big Bang, simile a quello avvenuto 13 miliardi di anni fa, dal quale ebbe origine l'universo.
DIGRESSIONE...
19.10.2003
DIAGNOSTICA:
Rilevatori di precisione
Fotografare gli scontri fra particelle all'interno di un acceleratore. Per questo al Centro Europeo per le Ricerche Nucleari (CERN) di Ginevra da anni noi ricercatori lavoriamo alla realizzazione di nuovi rivelatori di altissima tecnologia. Come quelli che servono per l'esperimento LHC (Large Hadron Collider), l'acceleratore di particelle che porta protoni e ioni a scontrarsi a temperature mai raggiunte prima, simulando così le condizioni dei momenti immediatamente successivi al Big Bang. Ora questi rivelatori sofisticati si dimostrano utili non solo per immortalare particelle subatomiche ma anche nella diagnostica, rivelando la presenza di gravi malattie, dai tumori alle patologie cardiovascolari a quelle neurologiche, praticamente al loro esordio. In particolare gli studi condotti nel grande laboratorio svizzero, a cui si è aggiunto l'apporto di alcuni studi condotti dall’Istituto Nazionale di Fisica Nucleare, hanno consentito di migliorare l'efficacia della PET, la tomografia ad emissione di positroni, e di consolidare l'utilizzo della mammografia digitale. La PET è una tecnica diagnostica, non invasiva, in grado di generare immagini piuttosto dettagliate del corpo umano. Fornisce, con grande sensibilità, variazioni anche minime di parametri chimico - metabolici e funzionali. E' proprio per questa sua capacità trova applicazione nella diagnosi precoce di gravi patologie. Tuttavia la PET presenta un limite non indifferente, che gli specialisti chiamano errore di parallasse; uno scarto sistematico nella valutazione della direzione di provenienza dei fotoni dovuto alle dimensioni finite degli elementi sensibili dello strumento. Ma ora la tecnologia sviluppata nei laboratori di fisica del CERN consentirà di superare questo ostacolo. E' già possibile prdurre un nuovo dispositivo denominato HPD (Hybrid Photon Detector), un rivelatore ibrido di fotoni, che migliorerà l’efficienza della PET. Il dispositivo era stato presentato già diversi anni fa dal fisico italiano Riccardo De Salvo, oggi al California Institute of Technology di Pasadena, ma la tecnologia per costruirlo e renderlo disponibile in campo medico-diagnostico è maturata soltanto negli ultimi anni grazie alla ricerca di base condotta al CERN. La PET funziona grazie all'interazione di un positrone (elettrone con carica positiva), emesso da un atomo instabile durante il decadimento radioattivo, con i tessuti organici. Il radio-tracciante impiegato per eseguire l'esame diagnostico, giunto nel punto dove il metabolismo è maggiore, per esempio in prossimità di un tessuto neoplastico, emette una coppia di positroni che, per essere ‘rivelata', deve prima essere convertita in segnale elettrico attraverso un trasduttore. All'INFN di Bari è stato messo a punto proprio il materiale di conversione. La 'lettura' dell'esame invece è affidata alla tecnologia realizzata al CERN di Ginevra. Un analogo dispositivo, anche questo pronto per essere prodotto su base industriale, messo a punto dal CERN di Ginevra e dall'INFN di Pisa, consentirà di migliorare la performance della mammografia digitale, una metodica di indagine ancora sperimentale. Nella mammografia digitale i raggi X che attraversano i tessuti della ghiandola mammaria non vengono impressi su una pellicola, bensì assorbiti da un dispositivo (detettore) che converte l'energia in segnali elettronici. La digitalizzazione rappresenta un salto di qualità: la nuova metodica, infatti, è molto più affidabile di quella tradizionale. La tecnologia messa a punto consentirà, anche per la mammografia digitale, così come nella PET, di migliorare la capacità di scoprire formazioni neoplastiche sempre di dimensioni più piccole. Infatti, oggi uno dei grandi limiti della mammografia è proprio quello dei "falsi negativi", quando cioè l'esame non rileva la presenza di formazioni maligne sebbene esse siano presenti, e dei "falsi positivi", quando cioè sembra che sia accertata la presenza di formazioni maligne che poi risultano non esserlo.
FINE DIGRESSIONE
Il cosmo è un'orchestra sinfonica
Dubito ergo SUM !
"Bosone di Higgs" o "corda" ? E' la domanda che sembra animare attualmente il dibattito nella fisica delle particelle. La teoria delle corde (o stringhe) non tenta di ricondurre la molteplicità delle particelle a un'unica particella puntiforme, come avviene invece nella teoria di Higgs. Essa cerca invece di descrivere tutti i tipi di particelle come stati di oscillazione di corde incredibilmente piccole, composte di energia pura, che vibrano in uno spazio a 10 o a 11 dimensioni. Il mondo di cui noi abbiamo esperienza ha solo tre dimensioni spaziali e una temporale, quindi in tutto quattro dimensioni. Dopo il Big Bang, secondo i sostenitori della teoria delle corde, solo quattro dimensioni si sarebbero dilatate fino ad assumere grandezza cosmica, mentre altre sei o sette sarebbero rimaste celate all'interno della materia, invisibili, arrotolate in modo da formare strutture così piccole da non essere percepibili. In teoria queste sei o sette dimensioni aggiuntive hanno innumerevoli possibilità di annodarsi tra di loro, e per ora nemmeno i "teorici delle corde" sanno (al momento) quali di queste possibilità siano all'opera nel nostro universo. In questa visione, quindi, ogni punto nello spazio avrebbe una struttura supplementare a sei o sette dimensioni, invisibile e a forma di corda. Queste corde in realtà sarebbero incredibilmente corte. Se un atomo fosse grande come una galassia, le corde sarebbero grandi come la lettera “l” che vedete sullo schermo. Le varie particelle elementari non sarebbero altro che diversi tipi di oscillazione di queste corde prive di massa. In un certo senso, tutto il mondo dei quanti sarebbe un concerto sinfonico del microcosmo. Le oscillazioni delle corde non produrrebbero musica, bensì materia nella forma delle particelle elementari note. L'elettrone, il neutrino, il fotone o il quark corrisponderebbero dunque a un tipo ben determinato di oscillazione delle corde. Le corde o stringhe, minuscoli fili di energia pura, possono oscillare in modi diversi. Massa e carica di una particella dipendono dall'intensità dell'oscillazione. Quanto più fortemente oscilla una corda, tanto più grandi sono la massa e la carica della particella elementare generata. A tutt'oggi la teoria delle corde è considerata pura speculazione e nulla più. Molti scienziati la rifiutano (dal canto mio, trovo questa teoria molto affascinante ed elegante anche se assai complessa !). Soprattutto, non si potrà mai dimostrare sperimentalmente la validità di questa teoria (per il momento... forse è per questo che è affascinante e non confutabile !!! :-) ). E' tuttavia possibile, almeno in linea di principio, che essa preannunci fenomeni naturali del tutto nuovi a noi finora sconosciuti, che forse potrebbero essere confermati grazie a esperimenti appropriati. Ma anche questa è pura speculazione. Questa teoria è talmente complicata e sconcertante che in tutto il mondo ci saranno al massimo poche decine di persone che sappiano davvero di che cosa si tratti. Oggi non possiamo dire se questa teoria farà registrare un progresso fondamentale o dovrà essere abbandonata. Saranno decisivi gli sviluppi futuri della matematica. Con gli strumenti che essa offre oggi, è impossibile descrivere le corde in modo soddisfacente. Forse è semplicemente troppo presto per questa teoria. E' un pò come se un genio si fosse posto gli interrogativi di Einstein già nel Settecento, senza disporre della matematica dell'Ottocento. D'altra parte, non sarebbe la prima volta nella storia della scienza che viene concepito qualcosa di nuovo senza avere la possibilità di formularlo con i mezzi matematici a disposizione. Ma si può anche andare oltre e chiedersi se questa ricerca di un'unica teoria che abbracci e spieghi tutto non sia essa stessa una strada sbagliata. Forse la conoscenza assoluta è solo l’idea fissa dell’intelletto umano, che sopravvaluta se stesso. Forse, a essere completamente sbagliato è già il modo di procedere di noi fisici, in particolare dei fisici delle particelle: dividere e analizzare di continuo la materia. Per quanto le condizioni di un esperimento possano essere estreme, vi saranno sempre condizioni ancora più estreme, e quindi la possibilità di risultati non prevedibili. Per quanto la conoscenza umana possa progredire, rimarrà sempre limitata, proprio perché l'uomo stesso è limitato.
Alcune considerazioni di carattere FILOSOFICO
Materia e spirito...
Già nel caso dei quark abbiamo avuto l'impressione di non avere più a che fare con vere particelle, ossia con minuscoli pezzi di materia, bensì solo con "idee di particelle". Quanto alle corde, sarebbero, per così dire, solo "idee di idee": stati di oscillazione di un'entità multidimensionale a noi ignota. Quark, bosoni di Higgs, corde: questi nomi designano in realtà qualcosa di puramente mentale. In essi si cela nientemeno che il principio di tutte le cose. Lo stesso vale in verità anche per gli elettroni o per i neutrini, ma anche per i fotoni, le particelle più frequenti dell'universo. In tutte queste particelle elementari, ha assunto una forma energetica un'idea pura, che è esprimibile matematicamente, ma non ha una forma ben determinata. La materia comincia a sviluppare una forma solo con i protoni e i neutroni, che danno vita agli atomi e alle molecole. Si potrebbe dire quindi che la materia sia solo un prodotto di scarto riciclabile dello spirito, un'idea concentrata, nello stesso modo in cui protoni e neutroni rappresentano solo l'energia condensata dei quark. In questa prospettiva, il confine tra spirito e materia si dissolve definitivamente, così come nella fisica quantistica si fa inconsistente la distinzione tra massa ed energia. Al tempo stesso sfumano anche i confini tra fisica, filosofia e religione. Così, per esempio, l'idea religiosa di uno spirito universale o di un Creatore, non è affatto in contrasto con la fisica moderna. Quest'ultima, in definitiva, non fa altro che cercare l'origine unica, la forza primordiale che permetta di spiegare in che modo l'universo abbia potuto avere origine dal nulla e come sia venuto all'esistenza. Fra le particelle elementari fa la sua comparsa la forza originaria della creazione. Lo volesse o no, la scienza ha dimostrato che c'è stato un atto creativo, anche se questo rimane fuori dall'ambito della conoscenza umana. Se si sia trattato davvero della Creazione, con la C maiuscola, o se prima del Big Bang ci sia stato qualcosa, è una delle domande fondamentali alle quali noi fisici e matematici ci sforziamo oggi di dare una risposta. Ciò non significa naturalmente che la fisica moderna sia in grado di sostituirsi ai contenuti di fede della religione. Né intende sostituirla, dal momento che il suo campo non è ciò in cui si crede, ma ciò che si sa. La scienza moderna tuttavia ci dà l'eccitante sensazione di inoltrarci sempre più in un territorio sconosciuto. Forse essa sarà in grado prima o poi di dare una risposta agli interrogativi su Dio, sull'origine del mondo e sul senso dell'intero Universo e della nostra esistenza, anche se non è questa la sua competenza. Chi può dire oggi come sarà la scienza tra cento o tra mille anni ? Forse si scopriranno cose di cui adesso non abbiamo la minima idea. Chissà quali informazioni si celano nelle profondità infinite dell'Universo! Un giorno l'umanità potrebbe scoprire qualcosa che stravolgerà completamente la sua concezione del mondo. L'enorme crescita del sapere verificatasi negli ultimi centocinquant'anni ha dimostrato che anche la vita è soggetta alle stesse leggi naturali che governano la materia inanimata. Dal punto di vista della fisica e della chimica, alla vita non compete un ruolo speciale nell'universo, né ci sono indizi di un piano segreto della Creazione, nell'origine ed evoluzione della vita. Pare anzi che vi abbiano avuto parte una grande quantità di eventi casuali. Ma potrebbe anche darsi che al momento del Big Bang ogni evento casuale fosse già previsto, vale a dire che il Creatore, nel dare il via al Big Bang, "sapesse" già che questo universo, dopo tredici miliardi di anni, avrebbe prodotto su un piccolissimo pianeta di una stella media in una galassia di medie dimensioni un essere che avrebbe creduto nell'esistenza di un Dio creatore. Molti ricercatori sono ormai convinti che anche il cervello umano obbedisca alle leggi fisiche del mondo dei quanti. (Infatti nuovi e più efficienti calcolatori, ancora in fase di studio, lavoreranno su metastati. Non più cioè sui bit 0 o 1, ma anche su una loro sovrapposizione; saranno i calcolatori quantistici.). Anche i fatti materiali sono sempre in qualche modo collegati con i processi della materia grigia. Anche nel cervello operano atomi. I pensieri si fondano su finissimi impulsi elettromagnetici, veri e propri "lampi di pensiero". Eppure i misteri della vita sono ancora ben lungi dall'essere svelati, né sappiamo se lo spirito possa esistere senza la materia. Senza dubbio l'uomo è anche materia, eppure ciò che lo rende veramente uomo, ossia il suo spirito Umano, la sua anima, è qualcosa di più della connessione dei miliardi di neuroni nel suo cervello. Forse il cervello umano non arriverà mai a risolvere il proprio mistero: la coscienza. Come può avere origine una coscienza da flussi cerebrali elettromagnetici ? E' l'interrogativo intorno al quale ruota la ricerca sul cervello. Il mistero della vita... Ma anche questa è un'altra storia…
Anche la comprensione della terza interazione con cui ha a che vedere la fisica delle particelle elementari, l'interazione debole, ha compiuto progressi. Nel 1933, Enrico Fermi fornì la prima descrizione matematica dell'interazione debole. Successive ricerche hanno rivelato numerose importanti differenze tra le interazioni debole ed elettromagnetica. La forza debole agisce solo a distanze inferiori a 10-16 centimetri (a differenza del lungo raggio di azione dell'elettromagnetismo), ed è intimamente correlata allo spin delle particelle interagenti. Solo le particelle con spin sinistrorso sono soggette a interazioni deboli in cui cambia la carica elettrica, come il decadimento b di un neutrone, mentre non ne sono soggette quelle con spin destrorso. Nonostante queste differenze i teorici hanno esteso l'analogia e hanno proposto che l'interazione debole, come l'elettromagnetismo, sia mediata da un portatore di forza, divenuto noto come bosone vettore intermedio e chiamato anche particella W (da weak, debole). Per mediare i decadimenti nei quali cambia la carica, il bosone W dovrebbe possedere una carica elettrica. Il raggio d'azione di una forza è inversamente proporzionale alla massa della particella che la trasmette; essendo il fotone privo di massa, l'interazione elettromagnetica ha pertanto un raggio di azione infinito. Il brevissimo raggio di azione della forza debole fa pensare a un bosone estremamente massiccio. Molte connessioni evidenti tra elettromagnetismo e interazione debole, e tra esse il fatto che la particella mediatrice delle interazioni deboli è elettricamente carica, hanno incoraggiato alcuni ricercatori a proporre una sintesi. Un risultato immediato della proposta che le due interazioni siano soltanto manifestazioni diverse di un fenomeno fondamentale è stato la stima della massa del bosone W. L'unificazione proposta implicava che, a distanze molto brevi e quindi ad altissime energie, la forza debole fosse uguale a quella elettromagnetica. La sua evidente debolezza in esperimenti eseguiti a energie inferiori conferma semplicemente il suo breve raggio di azione. Quindi la differenza globale che si osserva nelle intensità delle due interazioni deve essere determinata dalla massa del bosone W. In base a questa ipotesi la massa del bosone W si può valutare attorno a un valore pari a circa 100 volte la massa del protone. Il passaggio da una nozione di sintesi a una teoria valida in grado di unificare le interazioni debole ed elettromagnetica ha richiesto mezzo secolo di esperimenti e di indagini teoriche, culminati nella ricerca per la quale, nel 1979, venne assegnato il premio Nobel per la fisica a Sheldon Lee Glashow e a Steven Weinberg, allora alla Harvard University, e ad Abdus Salam dell'Imperial College of Science and Technology di Londra e del Centro Internazionale di fisica teorica di Trieste. Come la teoria unificata, o elettrodebole, è una teoria di gauge ricavata da un principio di simmetria che si manifesta in tutti i raggruppamenti familiari di quark e leptoni. Nella teoria elettrodebole non uno, ma tre bosoni intermedi, insieme con il fotone, fungono da portatori di forza. Si tratta dei bosoni W+ , carico positivamente, e W- , carico negativamente, che mediano rispettivamente lo scambio di carica positiva e di carica negativa nelle interazioni deboli, e della particella Z0 che media una categoria di interazioni deboli chiamate processi a corrente neutra. I processi a corrente neutra, un'interazione debole nella quale non si ha alcuno scambio di carica, erano previsti dalla teoria elettrodebole e furono osservati per la prima volta al CERN nel 1973. Essi rappresentano un ulteriore punto di convergenza tra l'elettromagnetismo e l'interazione debole nel senso che le interazioni elettromagnetiche non modificano la carica delle particelle partecipanti. Per spiegare il fatto che le interazioni elettromagnetica e debole, pur essendo intimamente correlate, si manifestano in modi differenti, la teoria elettrodebole sostiene che la simmetria che le accomuna sia evidente soltanto alle alte energie, mentre è nascosta a energie inferiori. La simmetria delle leggi fondamentali è ora nascosta. L'artefice principale della rottura della simmetria che unifica l'elettromagnetismo e l'interazione debole alle alte energie è un'ipotetica particella, il bosone di Higgs. La massa dei bosoni intermedi che nasconde la simmetria viene prodotta attraverso interazioni con il bosone di Higgs. Il bosone di Higgs è anche ritenuto responsabile del fatto che quark e leptoni all'interno della stessa famiglia abbiano masse differenti. A energie molto elevate si ritiene che tutti i quark e i leptoni siano privi di massa, mentre a energie inferiori le interazioni con la particella di Higgs conferiscono ai quark e ai leptoni le loro masse variabili. Dato che il bosone di Higgs è sfuggente e può essere molto più pesante degli stessi bosoni intermedi, per produrlo saranno probabilmente necessarie energie sperimentali molto più elevate di quelle degli attuali acceleratori. I tre bosoni intermedi richiesti dalla teoria elettrodebole sono però stati osservati. Energie sufficientemente elevate per produrre tali particelle massicce si ottengono soprattutto in collisioni frontali di protoni e di antiprotoni. In una su circa cinque milioni di collisioni, un quark del protone e un antiquark dell'antiprotone si fondono assieme formando un bosone intermedio. Il bosone si disintegra in meno di 10-24 secondi dopo la sua formazione. La sua breve esistenza può essere tuttavia rivelata dai prodotti di decadimento. Nel trionfo dell'arte degli acceleratori, della tecnologia sperimentale e delle argomentazioni teoriche, gruppi internazionali del CERN, guidati da Carlo Rubbia di Harvard e da Pierre Darriulat, hanno progettato esperimenti che nel 1983 hanno rivelato i bosoni W e la particella Z0. Per il loro contributo agli esperimenti, al progetto e alla costruzione del collisore protone-antiprotone e del rivelatore, Rubbia e Simon van der Meer, anch'egli del CERN, hanno ricevuto nel 1984 il premio Nobel per la fisica.
Il paradosso centrale della fisica delle particelle elementari contemporanea è l'apparente incompatibilità delle due teorie che ne costituiscono il fondamento. La prima è la teoria della relatività generale di Einstein, che correla la forza di gravità alla struttura dello spazio e del tempo. Questa interpretazione della gravità ha condotto a modelli di fenomeni su scala cosmica e alla comprensione dell'evoluzione dell'universo. La seconda teoria è la meccanica quantistica, che riguarda il mondo atomico e subatomico. Sono state formulate teorie quantistiche per tre delle quattro forze della natura conosciute: le interazioni forte, debole ed elettromagnetica. Fino a poco tempo fa sembrava che vi fossero poche speranze di poter sposare la teoria della gravitazione di Einstein con le leggi della meccanica quantistica. La difficoltà basilare è che una tale unificazione pare richiedere una formulazione radicalmente nuova delle leggi della fisica su scale di minima distanza; in tale riformulazione si dovrebbe abbandonare l'idea che spazio e tempo siano insiemi continui di punti. Senza una teoria quantistica della gravitazione e senza le revisioni concettuali che una siffatta teoria implica, non si può ottenere una descrizione completa di tutte le forze della natura. Negli ultimi anni gli studiosi di fisica delle particelle sono diventati ottimisti sulla possibilità di superare l'ostacolo teorico. L'ottimismo si basa sui sorprendenti sviluppi di un nuovo tipo di teoria: la teoria delle supercorde. In questa teoria, come in qualsiasi altra teoria delle corde, le particelle elementari si possono considerare come corde. Le teorie delle corde differiscono quindi da tutte le comuni teorie di campo quantomeccanico, come per esempio la teoria quantistica dell'elettromagnetismo, i cui quanti, o particelle costituenti, sono puntiformi. Una corda, avendo una certa estensione, può vibrare come una corda di violino. I modi di vibrazione armonici o naturali sono determinati dalla tensione della corda. Nella meccanica quantistica onde e particelle sono aspetti duali dello stesso fenomeno, e quindi ogni modo vibrazionale di una corda corrisponde a una particella. La frequenza di vibrazione determina l'energia e la massa della particella. Le comuni particelle elementari sono interpretate come modi vibrazionali diversi di una corda. La teoria delle supercorde si combina con la teoria delle corde mediante una struttura matematica detta supersimmetria. La teoria delle supercorde non solo evita i problemi incontrati in precedenza nel combinare la gravitazione con la meccanica quantistica, ma consente anche di trattare le quattro forze fondamentali come diversi aspetti di uno stesso principio fondamentale. Inoltre, l'unificazione delle forze è ottenuta in un modo determinato quasi solo dal requisito logico che la teoria sia intrinsecamente coerente. Questi sviluppi hanno condotto a una straordinaria rivitalizzazione dell'interscambio tra matematica e fisica. Secondo le teorie delle supercorde, le leggi basilari della fisica sono versioni approssimate di una teoria molto più completa che tiene conto della struttura su una scala di distanze impensabilmente piccola. Le corde postulate dalla teoria sono lunghe circa 10-35 metri, cioè sono circa 1020 volte più piccole del diametro del protone. A queste scale le differenze tra le teorie delle supercorde e le teorie più tradizionali sono essenziali per la coerenza e il potere previsionale della teoria. Per esempio, se si trascura la gravità, si può costruire un quadro unificato delle forze forte, debole ed elettromagnetica in una comune teoria dei campi, dotata di quanti puntiformi. Il quadro unificato è il risultato di qualche simmetria fondamentale insita nella teoria, ma esistono in realtà molte possibili simmetrie fondamentali e non si conosce alcun motivo teorico per preferirne una all'altra. Nelle teorie delle supercorde, invece, non si può trascurare la gravità e il tipo di simmetria necessario per poterla inserire nella teoria conduce a una previsione naturale circa la simmetria fondamentale che unifica le altre tre forze. Poiché da molto tempo si aspetta che nuovi concetti di spazio e tempo emergano da una teoria quantistica della gravitazione, vale la pena di ricordare come la teoria delle supercorde potrebbe modificare le nostre idee sulla geometria dell'universo. A rigore, non è corretto considerare le corde come particelle indipendenti in moto entro un qualche spazio fisso di fondo. Nella teoria della gravitazione di Einstein, alla quale la teoria delle supercorde deve approssimarsi, lo spazio e il tempo sono unificati in un continuo tetradimensionale: lo spazio-tempo. L'influenza della forza gravitazionale è determinata dalla curvatura dello spazio-tempo, analoga alla curvatura di una superficie bidimensionale come quella di una sfera. Una particella si muove lungo una geodetica, o cammino minimo, nello spazio-tempo curvo; sulla sfera l'analogo di un tale cammino è il cerchio massimo identificato da due punti. L'influenza che la particella esercita sullo spazio-tempo è reciproca; le onde gravitazionali prodotte dalla particella possono perturbare la stessa geodetica lungo la quale la particella si sta muovendo. Le equazioni della relatività generale determinano non solo le traiettorie delle particelle, ma anche la struttura dello spazio-tempo nel quale esse si muovono. Nella teoria delle supercorde la gravitazione opera in un mondo allargato a dieci dimensioni spaziali e al tempo, per un totale di 11 dimensioni. Il moto procede ancora lungo geodetiche, ma in un sistema a 11 dimensioni le geodetiche sono superfici di area minima. Sette delle 11 dimensioni non sono visibili e si possono osservare soltanto le quattro familiari dimensioni dello spazio-tempo. Le sette dimensioni aggiuntive devono essere arrotolate così da formare una struttura talmente piccola da non poter essere osservata direttamente. Il concetto di dimensione talmente piccola da non poter essere osservata può essere facilmente capito considerando una semplice analogia bidimensionale. Un tubo è una superficie bidimensionale che appare avere una sola dimensione quando venga osservato su scale troppo grossolane per risolverne lo spessore. Nella teoria delle supercorde è probabile che la grandezza delle sette dimensioni arrotolate sia all'incirca la stessa della lunghezza della corda. Il mondo sembra possedere tre dimensioni spaziali allo stesso modo in cui la corda si comporta come una particella puntiforme. L'estensione dei concetti della geometria non si limita ad aggiungere sette dimensioni spaziali. Nella relatività generale tradizionale in ogni punto dello spazio-tempo è definito un campo gravitazionale. L'equivalenza di onde e particelle nella meccanica quantistica richiede che un'onda gravitazionale, o perturbazione di un campo gravitazionale, si identifichi con una particella; la particella è chiamata gravitone. Allo stesso modo, nella teoria delle corde dovrebbe esservi un campo dipendente dalle configurazioni di una corda, cioè un "campo di corda". Il numero delle possibili configurazioni di una corda nello spazio è molto maggiore del numero di punti dello spazio; un campo di corda dovrebbe perciò essere correlato a un nuovo tipo di geometria in un'estensione enorme del concetto di spazio, definito da tutte le possibili configurazioni di una corda. Una particella a forma di corda dovrebbe quindi essere considerata alla stregua di una perturbazione "ondulatoria" in tale enorme spazio, proprio come un gravitone è un'onda nello spazio ordinario.
La teoria delle superstringhe (continua...)
Da qualche tempo si è fatta strada una teoria diversa dal modello standard ed è quella delle superstringhe, (o più precisamente delle superstringhe eterotiche) o meglio la sua attuale evoluzione detta "M". Che sembra un buon candidato per descrivere ogni fenomeno, compresa la gravità. Questa è dunque una proposta di teoria unificata di tutte le particelle elementari e delle loro interazioni, e perciò, di tutte le forze della natura. La teoria delle superstringhe ipotizza che ogni particella e ogni forza della natura derivino dalla "vibrazione" di una limitata entità di base, dette stringa. La parola stringa indica che la teoria può essere considerata una descrizione delle particelle in termini di piccoli "cappi" anziché di punti; la dimensione tipica di ogni cappio è approssimativamente l'unità fondamentale di lunghezza, ossia circa un miliardesimo di bilionesimo di bilionesimo (10-33) di centimetro. Una buona analogia è quella con una corda di violino, che ha un moto di vibrazione minimo e un numero infinito di altri moti (armoniche) di frequenza musicale sempre maggiore. Il prefisso "super" indica che la teoria ha una "supersimmetria", e cioè che, nell'elenco delle particelle, per ogni fermione c'è un corrispondente bosone e viceversa. Se la supersimmetria non fosse approssimativa ma esatta, ogni fermione avrebbe esattamente la stessa massa del bosone ad esso correlato. La supersimmetria riesce a "rompersi" in modo tale che tra le masse dei fermioni e bosoni corrispondenti c'è quella che viene definita "superlacuna". Anche in questa teoria ritroviamo l’operato di Gell-Mann. Infatti, non appena egli seppe, nel 1971, della sua formulazione, invitò nel suo laboratorio al California Institute of Tecnology i due fisici che l’avevano ideata (J. Schwarz e A.Neveu) e, sebbene all’inizio le loro idee non sembrassero tanto ortodosse, Murray li spronò ad andare avanti. Così la teoria delle superstringhe, rispetto a tutte le altre, sembra poter incorporare la teoria della gravitazione di Einstein, che rappresenta sempre l’elemento più difficile da unificare con le altre forze.
(08.08.03)-Dal libro "Perfect Government" di John Hagelin, pag. 44 e seguenti (traduzione libera !)
John Hagelin è un fisico teorico noto per le sue ricerche nelle teorie di unificazione dei campi. In questo scritto propone l'identità tra il "campo unificato", traguardo della fisica teorica contemporanea, e l'esperienza della "pura consapevolezza" sperimentabile direttamente con la pratica della MT.
[...]Gli scienziati si sono sempre meravigliati di come la struttura logica della mente, che prende la sua forma più concreta nei vari formalismi matematici e nelle teorie sviluppate negli ultimi secoli, rispecchi precisamente l'intelligenza evidenziata attraverso tutta la natura. Queste strutture logiche e matematiche, create dalla mente umana, sembrano adattarsi alla natura come un guanto. Il fisico Eugene Wigner, onorato come il "Padre dell'Era Atomica", espresse la sua meraviglia davanti a quella che egli chiamò la "inspiegabile efficacia della matematica nelle scienze fisiche". Secondo Einstein, "l'eterno mistero dell'universo è la sua comprensibilità" da parte della mente. Questo notevole parallelo tra l'intelligenza umana e l'intelligenza della natura è diventata ancora più notevole con l'avvento della teoria della Supercorda o Superstring, in cui i fisici hanno spinto la frontiera dell'investigazione scientifica alle fondazioni ultime dell'universo fisico. Con la superstring, più che con qualsiasi altri teoria fisica precedente, sembra come se ogni costruzione matematica umana - gruppi finiti e continui, geometria differenziale, topologia, teoria degli insiemi, teoria delle categorie, ed altre - giocasse un ruolo naturale nella descrizione della superstring e nella sua ricca e varia dinamica. Per apprezzare pienamente la profonda corrispondenza strutturale tra l'intelligenza umana e l'intelligenza della natura, e la possibilità di ottenere conoscenza pratica e precisa della legge naturale attraverso l'esplorazione interiore della coscienza, è necessario un minimo di comprensione delle ultime scoperte della meccanica quantistica e delle conoscenze più aggiornata sulla mente.
Scoperte
recenti in Fisica Quantistica.
La prima, efficace applicazione della meccanica quantistica ai livelli esterni dell'atomo ispirò ulteriori tentativi per applicare la meccanica quantistica stessa al mondo, più energetico, e che rientra nell'ambito dalla teoria della relatività, del nucleo atomico. Il successo di tali sforzi dipese da una sintesi per niente banale della meccanica quantistica con la relatività speciale di Einstein. La risultante teoria relativistica e quantistica, nota come Teoria Quantistica dei Campi, si stabilì rapidamente come la struttura teorica di maggior successo nella storia della scienza. Essa fornì la possibilità di calcolare, con precisione praticamente illimitata, le proprietà ed il comportamento dei sistemi atomici e sub-atomici. Essa fornì anche la struttura matematica e concettuale necessaria per sondare scale temporali e spaziali ben al di là del nucleo atomico [cioè molto più piccole di quelle sondate fino a quel momento]. Armati con questa struttura teorica di successo, e con acceleratori di particelle sempre più potenti e sofisticati, gli scienziati dal 1950 si sono dedicati a sondare i segreti più profondi della natura. Questa esplorazione sistematica verso l'interno ha rivelato strati progressivamente più unificati del funzionamento della natura, culminando nella recente scoperta delle teorie di campo completamente unificate. Queste teorie identificano un campo singolo ed universale di intelligenza della natura alla base di tutte le forme e i fenomeni dell'universo. Questa unificazione inizia con la forza elettromagnetica e la forza [nucleare] debole a scale di distanze 100 volte più piccole del nucleo atomico (10-16 centimetri). Il profondo successo empirico di questa teoria unificata "elettro-debole" ha ispirato gli scienziati a proporre Teorie di Grande Unificazione (GUT, Grand Unification Theories) delle forze elettromagnetica, [nucleare] debole e [nucleare] forte. Questa grande unificazione di forze, com'è stata proposta, avviene ad una scala di distanze 10 milioni di milioni di volte più piccola (10-29 centimetri). Tali GUT, che attendono ancora conferme sperimentali definitive, forniscono una descrizione altamente compatta ed elegante delle forze e delle particelle elementari, ed offrono spiegazioni naturali per alcune caratteristiche precedentemente inspiegabili dell'universo (per esempio, perché le cariche elettriche dell'elettrone e del protone sono esattamente uguali e di segno opposto; perché il leptone tau ed il quark b hanno masse uguali asintoticamente ad alte energie; e perché nell'universo c'è una preponderanza di materia sull'anti-materia). La costruzione di una teoria di campo veramente unificata che incorpori la gravitazione si è dimostrata più difficile, poiché la forza gravitazionale è di tipo completamente diverso. I suoi stati particellari o "quanti" (chiamati "gravitoni") hanno spin 2 (in unità della costante di Planck), mentre le forze convenzionali [cioè le altre 3 forze, elettromagnetica, nucleare forte e nucleare debole] sono rappresentate da particelle di spin 1. L'unificazione di tali campi così disparati richiede perciò un nuovo potente principio unificante capace di unire spin differenti. Tale profonda simmetria, chiamata "supersimmetria", fu scoperta finalmente negli anni '70. La supersimmetria non solo colmò la differenza di spin tra il gravitone di spin 2 e le forze con spin 1, ma pose anche le basi per un'unificazione perfino più clamorosa. Combinando particelle di spin diverso, la supersimmetria in principio fu capace di riunire categorie di particelle precedentemente inconciliabili: campi di forza (particelle con spin intero, o "bosoni") e campi di materia (particelle con spin semi-intero, o "fermioni", come i quark e i leptoni). La scoperta della supersimmetria così diede inizio ad una ricerca globale per una teoria di campo completamente unificata di tutte le forze e particelle elementari.
La rivoluzione della Supercorda o Superstring.
Sebbene i primi tentativi diretti di costruire teorie supersimmetriche di campo unificato siano fallite, è emersa presto un'implementazione più radicale della supersimmetria, nota come "Supercorda" o "Superstring". Mentre le precedenti teorie di unificazione erano tutte teorie quantistiche di campo di particelle elementari puntiformi, le teorie della supercorda implicano la quantizzazione di anelli chiusi unidimensionali o "corde", in movimento in 10 o 26 dimensioni spazio-temporali. I requisiti della consistenza quantistica impongono su tali teorie costrizioni matematiche così severe che è davvero notevole che esista una teoria delle corde auto-consistente. La sua scoperta causò il recente calderone di attività teorica nota come "la rivoluzione della supercorda". La supercorda non solo fornisce la prima teoria quantistica consistente della gravitazione, ma incorpora nella sua struttura unificata l'intero universo di particelle e forze elementari. Questa struttura potente ed elegante soddisfa tutti i requisiti per la "Teoria del Tutto" tanto sospirata dai fisici, ed il sogno di tutta la vita di Einstein di un campo unificato - una singola fondazione teorica unificata per tutte le leggi della natura. Dentro la struttura di questa teoria, le particelle e forze elementari che riempiono l'universo sono soltanto stati vibrazionali della supercorda. Infatti, l'intero universo, con tutte le sue diverse e multiformi proprietà (carica elettrica, spin, colore, sapore [dei quark], ecc.), non è altro che una sinfonia cosmica - l'insieme degli stati vibrazionali (fondamentali e toni armonici superiori) di un campo singolo, sottostante, universale, unificato di intelligenza della natura. [Questa teoria prevede l'esistenza di] cinque tipi di spin che comprendono l'intero universo fisico. Qualsiasi espressione di materia o di energia all'interno della struttura manifesta dello spazio e del tempo consiste necessariamente di uno di questi tipi. Oltre il campo manifesto della geometria (3+1)dimensionale, oltre la scala di Planck di 10-33 centimetri, si trova la dimora della superstring, la dinamica completamente unificata del campo unificato stesso. Sebbene il formalismo matematico della superstring porta all'esistenza di fino a 26 dimensioni spazio-temporali alla scala superunificata, l'apparizione di micro-buchi neri ed altri forti fenomeni gravitazionali alla scala di Planck suggerisce una probabile transizione di fase ad una struttura totalmente nuova della legge naturale che sfida ogni possibile caratterizzazione nel normale senso spaziale, temporale e causale. Il quadro che emerge è semplice e notevole. All'interno del campo manifesto di spazio e tempo, a scale spaziali più grandi della scala di Planck, l'universo è descritto da una teoria supersimmetrica di particelle elementari, classificate dai loro spin. Oltre la scala di Planck risiede la dinamica puramente astratta, unificata della superstring stessa. Mentre i dettagli della superstring e la sua formulazione matematica precisa restano aree aperte di ricerca e dibattito, vi è poco dissenso tra i teorici riguardo alla veridicità di questo quadro d'insieme.
Sviluppi recenti nella Scienza della Coscienza.
Per procedere ulteriormente con la nostra investigazione delle tecnologie della coscienza, ed col proposito di sperimentare direttamente i livelli più profondi e più vicini alla sorgente di ogni legge fisica, avremo bisogno di un riassunto altrettanto conciso ed aggiornato delle ultime conoscenze scientifiche sulla mente e sulla coscienza. Sfortunatamente, nessuna teoria singola e completa della coscienza, paragonabile alla teoria del campo unificato della fisica, è stata mai disponibile nella storia. Infatti, gli psicologi si sono sempre sentiti male equipaggiati per speculare sulla coscienza nell'ambito della struttura puramente materialistica e nei modelli meccanicistici permessi dalla scienza del 19-esimo secolo. Fortunatamente un rapido progresso verso una teoria fondata della coscienza è stata resa possibile recentemente dall'avvento di nuove procedure empiriche e sperimentali che isolano le più semplici e più fondamentali strutture della coscienza. Nel passato la ricerca psicologica si è focalizzata largamente sullo studio della coscienza di veglia e delle sue numerose patologie. Tuttavia la coscienza di veglia è una forma di consapevolezza altamente complessa che risulta da uno stato eccitato della fisiologia del cervello. Come conseguenza, è stato difficile costruire una teoria semplice e coerente della coscienza basata sull'analisi dell'esperienza di veglia. Questa situazione sarebbe analoga in fisica al poter sviluppare la teoria quantistica attraverso un'analisi di macro-molecole complesse in un ambiente ad alta temperatura. La soluzione in fisica è sostituire la macromolecola complessa con l'atomo di idrogeno. [Hagelin intende dire che è stato possibile sviluppare la meccanica quantistica grazie alla semplicità dell'atomo di idrogeno, che possiede una serie di livelli energetici semplice da rivelare sperimentalmente e da esprimere matematicamente; una volta scoperta i principi base della mecc.quant. nell'atomo di iderogeno e sviluppata la teoria completa, si sono potuti analizzare sistemi più complessi, fino al caso limite di una macro-molecola ad alta temperatura; ma sarebbe stato impossibile, partendo da tale macro-molecola, risalire alle leggi fondamentali della mecc.quant., a causa dell'estrema complessità del problema]. Analogamente in psicologia i passi avanti sono venuti investigando strutture più semplici e più fondamentali di consapevolezza. Le "nuove" metodologie sperimentali impiegate derivano in realtà dalla più antica scienza della coscienza - la tradizione Vedia dell'India. Durante gli ultimi 40 anni, lo scienziato e studioso Vedico, Maharishi Mahesh Yogi, ha rivitalizzato questa antica scienza della coscienza insieme con i metodi pratici che costituiscono la sua base empirica. Oggi, la tecnica di Meditazione Trascendentale è largamente praticata in tutto il mondo, con milioni di soggetti la cui esperienza è compresa tra alcuni mesi a quasi 40 anni. Durante gli ultimi 30 anni, sono stati pubblicati oltre 600 studi scientifici sui benefìci fisiologici, psicologici e perfino sociologici di questa pratica. Questo esteso insieme di ricerche, la vasta e diffusa disponibilità dei soggetti, ed il modo altamente sistematico in cui essa è insegnata, hanno reso questa tecnica uno strumento investigativo ideale per la ricerca psicologica moderna.
Un Campo Unificato della Coscienza.
Mentre la coscienza di veglia rappresenta una forma complessa di consapevolezza
corrispondente ad uno stato complesso del funzionamento neurofisiologico, il
cervello è capace anche di assumere stati più semplici e più
integrati di funzionamento, che soggettivamente corrispondono a stati più
silenti e più unificati di consapevolezza. Secondo quanto risulta dall'esperienza
diretta, e alla scienza Vedica della coscienza dalla quale deriva la meditazione,
l'intelligenza umana, come l'intelligenza della natura, è strutturata
gerarchicamente in strati - dal grossolano al sottile, dall'eccitato al non
eccitato, e dal diversificato all'unificato. Mentre noi generalmente siamo consapevoli
solo dei livelli più attivi e superficiali della mente che sono coinvolti
nel pensiero, nella percezione e nell'azione, l'esperienza rivela che ogni pensiero
subisce una microgenesi "verticale"
da una forma seme o meno eccitata o olistica fino ad una manifestazione più
condensata e articolata concretamente, dove finalmente è disponibile
alla consapevolezza conscia e partecipa nel processo dell'esperienza e dell'azione.
In altre parole, l'esperienza della meditazione rivela un vasto regno di livelli
sottili della mente e del processo cognitivo che tipicamente resta al di fuori
dell'esperienza conscia. Questi livelli più profondi della mente sono
sperimentati come causalmente prioritari, intrinsecamente più dinamici,
e progressivamente più astratti, completi ed unificati - parallelamente
ai livelli più fondamentali di intelligenza riscontrati in natura. Soggettivamente,
questi stati unificati di consapevolezza emergono quando la mente sperimenta
sistematicamente stadi più astratti e fondamentali nello sviluppo del
pensiero. Pertanto, come la mente diviene meno e meno localizzata dai limiti
specifici di un pensiero, la consapevolezza diventa corrispondentemente più
espansa. Quando l'impulso più debole di un pensiero o di una sensazione
viene "trasceso"
in questo modo, la coscienza è lasciata da sola a sperimentare se stessa.
In questo stato di pura coscienza, lo stato più semplice e meno eccitato
della consapevolezza umana, la cosceizna viene sperimentata come un campo puramente
astratto ed illimitato.
Il seguente è un tipico racconto di questa esperienza:
Appena divento consapevole spontaneamente dei livelli più fondamentali ed astratti dell'oggetto dell'attenzione durante la meditazione, i limiti rigidi dell'oggetto iniziano a sfumare. Come l'oggetto diventa sempre meno localizzato ed il fuoco dell'attenzione inizia ad espandersi, la comprensione diventa sempre più illimitata. Quando l'impulso più debole dell'oggetto si dissolve e non vi è un contenuto localizzato dell'esperienza, la mia consapevolezza è completamente illimitata. Rimango con l'esperienza di un campo puro, astratto, universale di coscienza, non localizzato da uno specifico contenuto o da un'attività della mente, soltanto il Sé vigile nella sua stessa natura illimitata. Da un punto di vista strutturale, la coscienza ordinaria di veglia è caratterizzata dalla triplice struttura dell'"osservatore" (campo vivo della soggettività stessa), del "processo di osservazione" (il meccanismo del pensiero e della percezione), e l'"osservato" (il contenuto o oggetto dell'esperienza). Così, nella coscienza di veglia, c'è sempre un oggetto di percezione, che sia un oggetto grossolano dell'esperienza sensoriale, un pensiero, o semplicemente una sensazione astratta. Sebbene l'"oggetto di percezione" fornisca il contenuto sostanziale dell'esperienza di veglia, sia l'osservatore che il processo di osservazione sono necessariamente presenti anch'essi. A livelli più profondi di consapevolezza, l'oggetto della percezione è sperimentato come più intimo al soggetto, ovvero la separazione tra l'"osservatore" e l'"osservato", che è una caratteristica che definisce l'esperienza di veglia, diventa meno distinta. Nello stato meno eccitato della coscienza, i tre componenti essenziali dell'esperienza di veglia - osservatore, processo di osservazione ed osservato - sono unificati in una struttura di pura coscienza auto-interagente. Questo stato di pura coscienza è chiamato samhita [letteralmente: coscienza unificata] nella scienza Vedica di Maharishi Mahesh Yogi. Questo stato unificato di coscienza è caratterizzato dal sorgere di un insieme unico di cambiamenti fisiologici e neurofisiologici indicanti profodna integrazione e coerenza del funzionamento cerebrale. La ricerca fisiologica su questo sato iniziò con il lavoro di R.K.Wallace, che evidenziò dall'elettroencefalogramma (EEG), dalla resistenza elettrica cutanea e da altri indicatori metabolici che un quarto stato di coscienza [oltre i tre noti di veglia, sogno e veglia] avrebbe potuto instaurarsi nel corso della pratica della meditazione. Numerosi studi successivi hanno confermato che il complesso integrato di cambiamenti fisiologici che avvenivano spontaneamente durante la pratica della meditazione è consistente con l'esistenza di un quarto stato basilare di coscienza. Il termine "basilare" è usato per indicare che questo stato di coscienza sembra essere universalmente accessibile e altrettanto naturale degli stati di coscienza di veglia, sogno e sonno profondo. L'esistenza di uno stato di coscienza unificato sottostante e la disponibilità di procedure pratiche sistematiche per investigare questo stato, è stata annunciata da molti ricercatori come una nuova fondazione empirica per una teoria psicologica unificata e la base di una completa scienza della coscienza. Inoltre, queste pratiche meditative largamente disponibili forniscono una base sistematica, riproducibile, scientifica per l'esplorazione dei livelli più profondi della mente e della coscienza, e pertanto permettono un paragone dettagliato della struttura della mente umana e le strutture più profonde dell'intelligenza evidenziate in natura.
Intelligenza Umana e Intelligenza della Natura: Corrispondenza dettagliata.
Come risulta chiaramente, questa corrispondenza
è notevolissima. Come già notato, sia l'intelligenza umana che
l'intelligenza della natura posseggono una struttra gerarchica.
Entrambe hanno alla loro base un campo unificato di intelligenza. E, come in
natura, i livelli più profondi della mente sono più potenti, olistici,
completi ed unificati. Questa corrispondenza qualitativa ha resistito ad uno
stretto esame scientifico. La conclusione più naturale che si può
trarre da tale corrispondenza è che il campo unificato della pura coscienza
auto-interagente ed il campo unificato della moderna fisica teorica sono uno
e lo stesso. In altre parole, il livello più profondo dell'esperienza
umana, la pura coscienza, costituisce l'esperienza diretta soggettiva del campo
unificato che attualmente viene esplorato dalla fisica teorica moderna. Questa
conclusione è sia economica che consistente con il buonsenso comune:
è difficile concepire due distinti campi unificati della legge naturale
- uno alla base dell'esperienza conscia ed uno alla base di ogni altra cosa
nell'universo (infatti questa
conclusione sembra logicamente necessaria; per definizione, il campo unificato
della fisica è puramente auto-interagente - la sorgente
autosufficiente di tutte le cose create; in modo simile, la pura coscienza è
puramente auto-interagente, o "auto-riferente"
- il campo unificato di tutta l'attività mentale; se questi due campi
sono entrambi puramente auto-interagenti, e se essi interagiscono l'uno con
l'altro - come, per esempio, la mente soggettiva ed il corpo materiale devono
in ultima analisi interagire tra di loro -, allora essi devono essere uno e
lo stesso). Mentre sembra quasi
autoevidente agli scienziati convenzionali che la pura coscienza, l'aspetto
più fondamentale dell'esistenza umana, ed il campo unificato, l'aspetto
più fondamentale di ogni altra cosa in natura, siano identici, questa
affermazione risulta sorprendente - o perfino anti-intuitiva - per molti fisici.
La ragione di ciò è che molti scienziati considerano la coscienza
come un epifenomeno - come la risultante macroscopica di numerosi processi elettro-chimici
microscopici nel cervello. Questa visione particolare della coscienza sembrerebbe
precludere qualsiasi relazione fondamentale tra la coscienza stessa ed il campo
unificato. Tuttavia, questa visione meccanicistica della coscienza e l'intero
modello materialistico su cui essa si fonda, è principalmente il prodotto
di tre secoli di ricerca scientifica dedicata all'analisi della materia macroscopica
[superate dalle grandi scoperte della teoria della relatività e della
fisica quantistica]. Va sottolineato che, riguardo alla coscienza, questo punto
di vista non ha alcuna base empirica rigorosa, e non dovrebbe essere formalmente
associata con la scienza. Inoltre, come vedremo, questa visione meccanicistica
della coscienza è in contrasto con un insieme sempre crescente di dati
che riguardano il dominio della coscienza individuale e collettiva, ed è
anche incompatibile con le esperienze dirette di milioni di individui, esperienze
simili a quella citate in precedenza.
Effetti di Campo della Coscienza.
L'evidenza sperimentale più concreta per una descrizione più profonda
della coscienza, basata sulla teoria dei campi, è l'Effetto di
Super-radianza, o Effetto Maharishi, prodotto dalla
pratica collettiva della Meditazione Trascendentale e del programma di MT-Siddhi.
Questi sono dimostrazioni consistenti di effetti di campo estesi della coscienza
che hanno retto alla prova di molte ripetizioni consecutive su una varietà
di scale. Questi studi impiegano misure sociologiche standard, come la statistica
dell'FBI sulla criminalità, per studiare l'influenza
coerente su una popolazione circostante da parte di gruppi di esperti che praticano
collettivamente queste tecniche. Il comportamento fisico osservato di questi
effetti sociologici sono fortemente indicativi di un effetto di campo. Per esempio,
la riscontrata attenuazione dell'effetto con la distanza appoggerebbe fortemente
una interpretazione di questo tipo, basata sulla teoria dei campi. La dipendenza
quadratica dell'intensità dell'effetto rispetto alla grandezza del gruppo
creatore di coerenza è anch'esso caratteristico di un fenomeno di campo
in cui gli elementi irradiatori operano coerentemente (specificatamente,
la sovrapposizione coerente di ampiezze richiesta per produrre un'intensa interferenza
costruttiva [tipica dei fenomeni
ondulatori] suggerisce il comportamento
di un campo di Bose - per esempio un campo quantistico gravitazionale,
elettromagnetico o supersimmetrico).
Nell'ambito del dominio classico dello spazio-tempo (3+1)dimensionale, gli unici
mediatori potenziali per tali interazioni sociologiche di lungo raggio sono
l'elettromagnetismo e la gravitazione. L'interazione gravitazionale tra individui,
tuttavia, è di gran lunga troppo debole per produrre effetti sociologici
rivelabili. C'è un consenso generale tra gli scienziati sul fatto che
anche l'interazione elettromagnetica sia probabilmente troppo debole per spiegare
gli effetti sperimentalmente osservati. Se i meccanismi convenzionali sono incapaci
di rendere conto dei dati della super-radianza, allora è chiaramente
necessario un meccanismo non convenzionale; in particolare, ogni meccanismo
che possa servire a superare le sostanziali barriere di distanza coinvolte.
Più di una spiegazione dettagliata di tale meccanismo può essere
trovata nella letteratura [della
fisica teorica]. Una spiegazione
coinvolte la struttura non-locale della geometria spazio-temporale prodotta
da forti effetti gravitazionali alla scala di super-unificazione. Un'altra spiegazione
coinvolge correlazioni quantistiche di lungo raggio riguardanti una componente
"conscia" del collasso non-locale della funzione d'onda. Entrambi
i meccanismi richiedono che la coscienza operi alla scala della super-unificazione
o vicino ad essa, e che pertanto essa occupi una posizione fondamentale nella
struttura dell'universo fisico. L'abbondantissima evidenza sperimentale dell'Effetto
Maharishi così fornisce un forte sostegno empirico per l'identità
proposta tra la pura coscienza ed il campo unificato.[...]
John Hagelin
La Fisica delle particelle elementari: una sintesi
Lo studio della materia su dimensioni sempre più piccole è in gran parte motivato dall'antica ricerca dei costituenti ultimi del mondo fisico. Fino dalla teoria atomica di Leucippo e Democrito, del quinto secolo a.C., l'idea che tutte le sostanze materiali siano composte da una piccola serie di particelle elementari, legate tra di loro, è stata irresistibilmente attraente. Quelli che oggi noi chiamiamo atomi non sono affatto, come tutti sanno, delle particelle, veramente elementari, ma entità composite con una struttura interna molto complessa. E non tutta la materia che può esistere è organizzata in atomi: con i giganteschi acceleratori di particelle, noi fisici abbiamo prodotto, nelle collisioni ad alta energia, una moltitudine di nuove particelle dalla vita breve. Negli anni sessanta, la fisica delle particelle era nella confusione più completa. Si scoprivano particelle in numero sempre crescente e i fisici erano sempre meno sicuri di che cosa fossero, che relazioni esistessero tra di loro e se sarebbe mai stata possibile una comprensione sistematica delle loro proprietà. Le quattro forze fondamentali della natura che agiscono su queste particelle (elettromagnetismo, gravitazione, e le interazioni nucleari forte e debole) erano capite altrettanto male a livello quantistico (microscopico). L'interazione debole non aveva una descrizione coerente, e vari calcoli dei suoi effetti davano risultati chiaramente privi di senso. La teoria riusciva a predire ben poco. L'interazione forte sembrava non essere affatto una singola forza, ma un intreccio di interazioni enigmatiche, in apparenza non derivabile da una forma più semplice. La gravitazione era considerata irrilevante per la fisica delle particelle, e la maggior parte degli strenui tentativi fatti per cercare di darne una descrizione quantistica davano solo risultati matematicamente privi di senso. Oggi la situazione è completamente diversa. L'origine del cambiamento può essere rintracciata in gran parte in due sviluppi fondamentali, ambedue iniziati negli anni sessanta ma giunti a maturazione solo nel decennio seguente. Il primo di questi sviluppi è la teoria dei quark. L'idea di base è semplice. Le particelle di materia possono essere raggruppate in due classi. Una classe consiste di particelle pesanti soggette all'interazione forte, chiamate adroni, tra le quali il neutrone, il protone e altre. L'altra classe, quella dei cosiddetti leptoni, comprende l'elettrone, il neutrino e altre particelle che di solito sono leggere e interagiscono solo debolmente (cioè non risentono affatto dell'interazione forte). Secondo la teoria dei quark, i leptoni sono elementari, mentre gli adroni sono composti da quark. Questi quark (che sono considerati davvero elementari) si combinano o in gruppi di tre nei cosiddetti barioni, o in coppie a formare i mesoni. Quark e leptoni, dei quali probabilmente esistono solo poche specie differenti, potrebbero essere davvero i costituenti ultimi della materia. Se fosse così, saremmo giunti alla meta di una ricerca durata duemilacinquecento anni. La fisica delle particelle è probabilmente il ramo più spettacolare della nuova fisica, e uno di quelli che il profano può individuare più facilmente. Gli acceleratori di particelle sono macchine ciclopiche, il cui funzionamento richiede l'opera di squadre di scienziati e ingegneri. I laboratori che li gestiscono sono istituzioni di grande prestigio, nei quali la cooperazione internazionale raggiunge spesso un livello non comune nell'ambito scientifico. Un acceleratore di particelle può essere visto come un gigantesco microscopio che scruta nei più segreti recessi della materia, un complemento imponente ai grandi telescopi che guardano verso i limiti dell'universo. Nella maggior parte degli esperimenti che vengono fatti negli acceleratori di particelle si hanno collisioni di adroni ad alta energia, con complicate interazioni di molti quark; per l'interpretazione dei dati sperimentali sono necessarie analisi lunghe e complesse. E' chiaro che la nostra comprensione della materia adronica è ancora a uno stadio iniziale, forse comparabile con la situazione delle conoscenze di fisica atomica e chimica di una cinquantina d'anni fa. Oltre che come ricerca dei costituenti ultimi della materia, la fisica delle particelle subatomiche è importante anche per altre ragioni. E' infatti il grande banco di prova sia per la relatività ristretta sia per la meccanica quantistica. Un'unificazione coerente di queste due teorie porta alla disciplina chiamata teoria quantistica relativistica dei campi, che è il punto di partenza di quasi tutti i tentativi attuali di costruire una descrizione delle particelle subatomiche a livello fondamentale. Applicando la teoria quantistica al campo elettromagnetico nel modo appropriato abbiamo l'elettrodinamica quantistica (QED), una teoria coerente delle interazioni tra elettroni, positroni e fotoni, nella quale è essenziale l'idea che elettroni e positroni interagiscono mediante lo scambio di fotoni. Quindi il fotone può essere visto come una particella "messaggera", che trasporta la forza elettromagnetica tra le particelle di materia. Senza dubbio la QED è quella che ha avuto più successo, dal punto di vista quantitativo, tra tutte le teorie quantistiche relativistiche dei campi. Per mezzo di essa sono stati previsti effetti fisici molto piccoli, confermati sperimentalmente con una precisione di dieci cifre. La chiave del successo della QED risiede nel fatto che il campo elettromagnetico possiede una simmetria astratta ma potente, di un tipo noto come simmetria di gauge (cioè <di calibro>). Il solito potenziale non è di per sé una quantità osservabile, solo la differenza di potenziale lo è. Dunque si può <ricalibrare> lo zero del potenziale elettrico senza cambiare la fisica di un sistema elettrico. Oggi si pensa che tutte le forze fondamentali della natura - la gravità, le interazioni nucleari forti e deboli, così come l'elettromagnetismo - posseggono simmetrie di gauge, sia pure di tipo complicato, e che tutte queste forze siano trasmesse dallo scambio di <particelle di gauge>. A questo punto stiamo toccando il secondo grande sviluppo teorico che ha avuto luogo negli anni '60. Alcuni teorici notarono che il successo della QED si basava in modo essenziale sulla simmetria di gauge, e che anche l'interazione debole poteva possedere una simmetria di tipo simile, ma in una forma nascosta. Abdus Salam e Steven Weinberg, basandosi sulle idee di Sheldon Glashow, individuarono il trucco con il quale la natura ci nasconde la simmetria di gauge dell'interazione debole. Questo permise loro di riformulare la teoria di questa interazione in modo tale che risultasse amalgamata con l'elettromagnetismo, dando luogo a una teoria coerente della forza elettrodebole unificata. Proprio come James Clerk Maxwell aveva dimostrato che elettricità e magnetismo erano in realtà due aspetti di una singola forza elettromagnetica, così Salam e Weinberg dimostrarono che le interazioni deboli ed elettromagnetiche non erano indipendenti, ma parti di uno schema più generale. La nuova teoria elettrodebole fece una previsione molto specifica. Sarebbero dovute esistere in natura tre particelle fino a quel momento mai osservate, chiamate W+ , W- e Z, che trasportano l'interazione debole tra le particelle di materia. Queste nuove particelle sono analoghe al fotone che trasporta la forza elettromagnetica. Il momento magico della teoria giunse nel 1983, quando le W e la Z furono osservate nell'acceleratore protone-antiprotone del CERN, il più grande acceleratore europeo, che si trova a Ginevra. Basandosi sul successo della teoria elettrodebole, i teorici cominciarono a estendere le teorie di gauge in modo da incorporare anche le interazioni forti. Anche se le interazioni forti tra adroni manifestano la grande complessità che abbiamo già descritto, la forza tra i singoli quark all'interno degli adroni è in sostanza molto semplice. Fu dunque sviluppata una teoria delle interazioni tra quark basata sullo scambio di particelle <messaggere> dette gluoni. E' una teoria analoga all'elettrodinamica quantistica, con i gluoni al posto dei fotoni e una nuova qualità - una <carica> di interazione forte - al posto della carica elettrica. Questa qualità, con scelta stravagante, fu chiamata colore, e la teoria fu detta cromodinamica quantistica (QCD). Quando l'interazione forte risultò descrivibile come campo di gauge, si aprì la strada per una sua unificazione con l'interazione elettrodebole, formulata da Salam e Weinberg in maniera simile. Queste cosiddette teorie della grande unificazione (GUT) hanno generato molto interesse, anche perché offrono possibili verifiche sperimentali per mezzo di due fenomeni piuttosto strani. Uno è l'esistenza di monopoli magnetici, l'altro è il rarissimo ma enormemente significativo decadimento del protone. Secondo alcuni sperimentatori sarebbero stati osservati entrambi; per il momento, tuttavia, a questi risultati non viene attribuito pieno credito. Il futuro delle GUT resta dunque una questione aperta. Avendo ormai in vista la possibilità di unificare tre delle quattro forze della natura, è proprio la gravitazione, la prima che abbia ricevuto un'esauriente descrizione matematica (da parte di Newton), a rimanere fuori da questo schema; e tuttavia continua a resistere ai tentativi di inserirla in una descrizione quantistica, nonostante la sua natura di teoria di gauge. I tentativi diretti di quantizzare la gravità in analogia con la QED incontrarono presto problemi matematici insormontabili legati alla comparsa di termini infiniti nelle equazioni. Queste <divergenze> hanno sempre infestato tutte le teorie quantistiche dei campi, ma la natura di gauge delle altre forze permette di aggirare questo problema nelle rispettive teorie. Fino a che la gravità rimane una forza non quantizzata, c'è un'incongruenza devastante nel cuore stesso della fisica. Anche se è improbabile che gli effetti quantistici della gravitazione abbiano conseguenze rilevabili in fisica delle particelle (e in qualunque altro campo, salvo forse che nella cosmologia dell'universo primevo), è importantissimo riuscire a trovarne una descrizione quantistica, altrimenti non potrà mai essere armonizzata in modo coerente con il resto della fisica. Al giorno d'oggi la maggior parte di noi teorici punta le sue speranze su una teoria superunificata che dovrebbe riunire la gravitazione con le altre tre forze, fornendo una coerente descrizione quantistica di tutte e quattro. Queste Teorie di Tutto Quanto stanno occupando le menti di un piccolo esercito di fisici. Al momento, la teoria più promettente è la cosiddetta teoria delle superstringhe. Il punto di partenza è l'idea che il mondo sia costituito non di particelle, ma di stringhe chiuse a formare occhielli, che abiterebbero un universo di dimensione dieci.
14.11.2003 Scoperto forse un nuovo mesone ?
CDF's J/psi pi pi mass distribution
revealing a mystery particle X(3872) by the small bump on the
right; the sharp peak at left is a well-known charmonium landmark called psi(2S).
Il suo nome è X(3872). Ed è una nuova particella scoperta alla High Energy Accelerator Research Organization di Tsukuba, in Giappone. Un risultato importante, a giudicare dalle caratteristiche anomale esibite da X(3872): pesa quanto un singolo atomo di elio e la sua esistenza è limitata al periodo di 10-20 secondi, una vita straordinariamente lunga alla luce della "stazza" che può vantare. La ricerca, pubblicata nelle Physical Review Letters, è stata condotta nell'ambito della "Bell collaboration", un team internazionale di ricercatori provenienti da undici paesi, che concentra le proprie attenzioni sui cosiddetti "mesoni bellezza". La nuova particella è stata proprio individuata tra i prodotti del decadimento di questo tipo di mesoni. Ma non sembra rispettare, come evidenziano la massa e altre proprietà, le previsioni teoriche possibili per le composizioni di quark e antiquark "bellezza" che costituiscono i mesoni. Tra le ipotesi che potrebbero spiegare queste anomalie, noi fisici pensiamo a possibili modificazioni della teoria della forza forte, che tiene insieme quark e antiquark, oppure a una composizione di due quark e due antiquark, o semplicemente a un nuovo tipo di mesone. L'esistenza della particella è stata recentemente confermata anche al Fermi National Accelerator Laboratory statunitense, sede dell'acceleratore di particelle attualmente più potente al mondo.
20.11.2003
Scoperta una nuova particella
X(3872) ha una massa superiore alle previsioni e decade quasi immediatamente. La collaborazione Belle al laboratorio KEK in Giappone ha scoperto una nuova particella subatomica, chiamata "X(3872)". La particella non rientra in alcuno schema di particelle noto e i fisici teorici ritengono che possa trattarsi di un tipo di mesone mai osservato prima, contenente quattro quark. La scoperta è stata confermata dalla collaborazione CDF al Fermilab negli Stati Uniti, dove la nuova particella è stata battezzata "il mesone misterioso". I mesoni sono particelle che contengono un quark e un antiquark, tenuti insieme dalla forza nucleare forte. Poiché esistono sei differenti "sapori" di quark - up, down, strange, charm, bottom e top - è possibile formare un gran numero di mesoni differenti. Il team di Belle ha misurato il decadimento dei mesoni B, che contengono un quark bottom, prodotti in collisioni elettrone-positrone alla B-factory KEK in Giappone. I fisici hanno messo in grafico il numero di eventi candidati per i mesoni B in funzione della massa, osservando nella distribuzione un picco significativo a un valore di 0,775 GeV, corrispondente a una massa di circa 3872 MeV. La particella è decaduta quasi immediatamente dando origine ad altre particelle dalla vita più lunga. Secondo i ricercatori, la massa di questo nuovo mesone è più alta delle previsioni teoriche. Inoltre, anche il modo in cui decade si discosta dalla teoria. Una possibile spiegazione è che gli attuali modelli della forza forte debbano essere modificati. In alternativa, è possibile che X(3872) sia il primo esempio di un mesone di "stato molecolare" che contiene due quark e due antiquark. Un articolo verrà presto pubblicato sulla rivista "Physical Review Letters". Fino a poco tempo fa, noi fisici avevamo osservato solo particelle che contenevano due o tre quark. Tuttavia, nello scorso anno sono emerse prove dell'esistenza di una particella a quattro quark, la Ds(2317), e di una particella a cinque quark, nota come pentaquark.
Tratto da: Le Scienze
Dalle ALTE alle BASSE energie (che attinenza ha il BEC con la cosmologia ?)
21.11.2003 Un condensato molecolare di Bose-Einstein
S. Jochim et al., Bose-Einstein
condensation of molecules. Science, pubblicato online, (2003).
M. Greiner, C. A. Regal, D. S. Jin,
A molecular Bose-Einstein
condensate emerges from a Fermi sea. Preprint
(2003).
16.12.2003 L'effetto Unruh-Davies in laboratorio
L'energia potenziale del vuoto può influenzare la geometria dello spazio-tempo. Le misurazioni quantistiche cambiano se l'osservatore è in movimento ? Per esempio, il conteggio del numero di fotoni in un fascio luminoso può dipendere dalla posizione del rivelatore in un campo gravitazionale ? Queste idee, da tempo oggetto di studio da parte di noi fisici, potrebbero ora essere verificabili in laboratorio grazie a una nuova teoria nella quale un condensato di Bose-Einstein (BEC) di atomi freddi agisce come "controfigura" per il vuoto universale. Nello stesso modo si potrebbe verificare la validità del concetto secondo cui l'energia potenziale residente nel vuoto può influenzare la geometria dello spazio-tempo e dunque l'espansione del cosmo. Il fenomeno dietro queste ipotesi è chiamato effetto Unruh-Davies, nel quale un rivelatore in moto accelerato attraverso il vuoto incontrerà effettivamente fotoni che fuoriescono dal vuoto (un fenomeno simile all'effetto Gibbons-Hawking, nel quale è possibile rivelare la presenza di fotoni nella regione ad alta intensità gravitazionale di un buco nero). Nell'effetto Unruh, l'energia necessaria per trasformare fotoni virtuali in fotoni reali verrebbe fornita dallo stesso rivelatore che accelera. Il rivelatore vedrebbe il vuoto come un bagno termico di fotoni, la cui "temperatura" sarebbe proporzionale all'accelerazione del rivelatore. Osservare effettivamente un bagno termico di questo tipo (equivalente a una temperatura di circa 10-15 °K per un'accelerazione centomila volte superiore a quella della superficie terrestre) è praticamente impossibile per qualsiasi rivelatore costruito dall'uomo. Ma Petr Fedichev e Uwe Fischer dell'Università di Innsbruck, in Austria, ritengono che l'effetto possa essere studiato grazie al modo in cui le onde sonore si increspano attraverso i BEC. Il condensato superfluido di atomi simulerebbe il vuoto, mentre i fononi si comporterebbero in modo analogo ai fotoni in moto attraverso uno spazio-tempo ricurvo. In un articolo pubblicato sulla rivista "Physical Review Letters", Fedichev e Fischer spiegano però che per effettuare l'esperimento saranno necessari BEC più grandi di quelli creati finora.
17.01.2004 Un nuovo stato di materia
In condizioni estreme, l'elio solido acquisisce le caratteristiche di un superfluido. In un articolo pubblicato sul numero del 15 gennaio della rivista "Nature", due fisici della Pennsylvania State University annunciano la scoperta di una nuova fase di materia, una forma "supersolida" di elio-4 che presenta le straordinarie caratteristiche di un superfluido privo di attrito. E' stato scoperto - in sostanza - che l'elio-4 solido sembra comportarsi come un superfluido quando è così freddo che il suo comportamento è regolato dalle leggi della meccanica quantistica. Si è forse osservato per la prima volta un materiale solido con le caratteristiche di un superfluido. Chan e il collega Eun-Seoung Kim hanno usato un apparato che consente di comprimere un gas di elio-4 in un disco di vetro simile a una spugna, con pori miniaturizzati su scala atomica, mentre lo si raffredda a una temperatura vicina allo zero assoluto (-273,15 °C). Il vetro poroso era all'interno di una capsula a chiusura stagna, e il gas elio è diventato un solido quando la pressione dentro la capsula ha raggiunto 40 volte la normale pressione atmosferica. Chan e Kim hanno continuato ad aumentare la pressione a 62 atmosfere, facendo ruotare avanti e indietro la capsula e misurandone il tasso di oscillazione mentre la raffreddavano il più possibile. Quando la temperatura ha raggiunto un decimo di grado sopra lo zero assoluto, è accaduto qualcosa di insolito. Il tasso di oscillazione è diventato leggermente più rapido, come se parte dell'elio fosse scomparso. In effetti l'elio non era fuoriuscito dalla capsula, perché una volta riscaldata il suo tasso di oscillazione è tornato normale. Chan e Kim hanno dunque concluso che in condizioni estreme l'elio-4 solido aveva probabilmente acquisito le caratteristiche di un superfluido.
Quantum Vacuum Inertia Hypothesis (Molto Tecnico...)
The following is a simplified description of the analysis underlying the quantum vacuum inertia hypothesis. This is an XHTML document. The equations should appear properly if you are using Internet Explorer 5 or Netscape 6.
BASIC CONCEPT: In an accelerating reference frame, the random electromagnetic zero-point fluctuations of the quantum vacuum acquire a Rindler-horizon asymmetry resulting in a non-zero energy and momentum flux in a direction opposite to the acceleration, call this the Rindler energy-momentum flux (see Rueda and Haisch 1998a, 1998b.). This is related to, but not identical with, the well-known Unruh-Davies effect -- investigated in the context of Hawking radiation from black holes -- in which an accelerating detector experiences a pseudo-thermal radiation spectrum whose "temperature" is proportional to acceleration. An interaction of the Rindler energy-momentum flux with the quarks and electrons comprising an accelerating object would generate a reaction force which is found to be proportional to and opposing the acceleration. This suggests a quantum vacuum basis for, or at least contribution to, the inertia of matter.
Ezp(r,t) = ∑λ=1,2 ∫ d3k (hω/4π3)1/2 ε (k,λ) cos[k·r - ωt - θ (k,λ)]
Bzp(r,t) = ∑λ=1,2 ∫ d3k (hω/4π3)1/2 [k × ε (k,λ)]/k cos[k·r - ωt - θ (k,λ)]
Since the Ezp and Bzp field fluctuations are entirely random, there is no net energy flux across any surface, or in other words the value of the time-averaged Poynting vector must be zero:
Nzp= (c /4π) 〈 Ezp × Bzp 〉 = 0
It is straightforward to transform the Ezp and Bzp field fluctuations from a stationary frame to one undergoing constant acceleration, customarily called a Rindler frame. Such a frame will have an asymmetric event horizon leading to a non-zero electromagnetic energy and momentum flux. The velocity, β(=v/c) and the Lorentz factor for such a frame are (where τ is the proper time):
βτ= tanh (aτ/c)
γτ= cosh (aτ/c)
The Lorentz transformation of electromagnetic fields is (cf. eqn. 11.149 in "Classical Electrodynamics" by Jackson, 1999)
B′= γ(B - β × E) - (γ2/γ+1) β (β · B)
Transforming Ezp and Bzp to the Rindler frame we find (where x, y, z and k all designate unit vectors since XHTML has no unit vector "hats"):
Ezp(0,τ) = ∑λ=1,2 ∫ d3k (hω/4π3)1/2 { x εx + ycosh(aτ/c) [ εy - tanh(aτ/c) (k × ε)z ] + zcosh(aτ/c) [ εz + tanh(aτ/c) (k × ε)y ] } cos [ kx(c2/a) cosh(aτ/c) - (ωc /a) sinh(aτ/c) - θ (k,λ)]
Bzp(0,τ) = ∑λ=1,2 ∫ d3k (hω/4π3)1/2 { x (k × ε)x + ycosh(aτ/c) [ (k × ε)y + tanh(aτ/c) εz ] + z cosh(aτ/c) [ (k × ε)z - tanh(aτ/c) εy ] } cos [ kx(c2/a) cosh(aτ/c) - (ωc /a) sinh(aτ/c) - θ (k,λ)]
The Poynting vector is no longer zero in this accelerating frame. This has to do with the fact that there is now an asymmetry in the Rindler horizon. For uniform acceleration in the x-direction, the Poynting vector is
Nzp =-x(2c /3) sinh(2aτ/c)∫ (hω3/4π3c3) dω =-x(2c /3) sinh(2aτ/c)∫ ρ(ω) dω
where ρ(ω) is the well-known spectral energy density of the zero-point fluctuations. An accelerating observer will see a non-zero energy and momentum flux arising out of the electromagnetic zero-point fluctuations. If some fraction of the Rindler energy-momentum flux interacts (via scattering, for example) with the quarks and electrons in an accelerating object, a reaction force will be generated. We parametrize that interaction via a dimensionless parameter, η(ω), which can be interpreted as the fraction of the electromagnetic zero-point momentum flux transiting an object which interacts with the particles constituting the object and the strength of that interaction. The time rate of change of the transiting momentum flux can be calculated from the Poynting vector, and this results in a force which turns out to be proportional to acceleration:
f = -fzp= [V0/c2 ∫ η(ω) ρ(ω) dω] a
Which is strongly suggestive that inertial mass is
mi=V0/c2 ∫ η(ω) ρ(ω) dω
One possible interpretation of this equation is that the inertial mass of an object of volume V0 can be traced back to the energy density of electromagnetic zero-point flux instantaneously transiting through and interacting with that object. Inertial mass of this sort would in reality be a reaction force that arises upon acceleration as a result of the Rindler energy-momentum flux. We suspect that η(ω) involves some kind of resonance at the Compton frequency (ωC=2πmc2/h), since this suggests a close connection between the origin of mass and the de Broglie wavelength, both stemming from interactions of matter with the quantum vacuum (see Haisch and Rueda 2000.)
20.04.2004 Prove di superfluidità
Le vibrazioni durano più a lungo di quelle di un normale gas idrodinamico. Per la prima volta alcuni ricercatori hanno osservato un comportamento superfluido in un gas di Fermi costituito da atomi. Per la precisione, John Thomas e colleghi della Duke University hanno osservato un gas ultrafreddo di atomi di litio-6 comportarsi come se si trattasse di un'unica "gelatina" vibrante. Anche se un simile comportamento "idrodinamico" può sorgere anche in versioni ordinarie di gas di litio ultrafreddo, i ricercatori hanno dimostrato che il loro gas era in effetti un superfluido: dopo essere stato scosso era in grado di vibrare per un tempo molto più lungo di un ordinario gas idrodinamico, le cui oscillazioni si attenuano o cessano abbastanza rapidamente. Le caratteristiche del superfluido atomico possono fornire informazioni su sistemi superfluidi molto più piccoli (come un plasma quark-gluoni) oppure molto più grandi (come le stelle di neutroni). Il comportamento della "gelatina" potrebbe persino aiutare a determinare se sia fisicamente possibile creare superconduttori che operano molto al di sopra della temperatura ambiente. Tutti questi sistemi, infatti, condividono il fatto di essere costituiti da coppie di particelle con spin in direzioni opposte fortemente interagenti. Per produrre il comportamento osservato, i ricercatori ritengono che il meccanismo di interazione fra gli atomi di litio-6 abbia raggiunto uno strano "regime a cross-over", una condizione dove le coppie di atomi non sono né molecole (nel qual caso formerebbero un condensato molecolare di Bose-Einstein) né il tipo di coppie di Cooper debolmente legate che si trova nei superconduttori convenzionali. Lo studio è stato descritto in un articolo (di Kinast et al.) pubblicato sul numero del 16 aprile 2004 della rivista "Physical Review Letters".
PROF. ANTONINO ZICHICHI
Galilei, convinto che non siamo figli del caos, studia le pietre per cercare di scoprire le prime leggi fondamentali della Natura che lui considera "impronte del Creatore". Questo ci ha portato, in appena quattro secoli, a concepire l'esistenza del "supermondo": la più alta vetta delle conoscenze scientifiche galileiane quindi del sapere rigoroso, dell'Immanente. La pagina seguente è la sintesi dell'enorme salto concettuale che, partendo dal battito del nostro cuore, come misura del tempo, ci ha portato ai circuiti elettronici in grado di misurare millesimi di miliardesimi di secondo. Sono invenzioni tecnologiche di questo tipo che ci hanno permesso di capire le leggi di simmetria - operanti nello spazio, nel tempo, nelle Cariche e Anticariche, nella Materia e nell'Antimateria, nello spin (moto a trottola) - da cui nascono anche le Leggi Fondamentali. Siamo pur tuttavia ancora lungi dal poter dire di aver capito il GRANDE DISEGNO.
Una quantità di straordinaria importanza: lo spin
C'è una quantità di straordinaria importanza nella struttura della materia: essa è la "quantità di moto a trottola" (cui si dà il nome di "spin" che in inglese vuol dire proprio "trottola"). Lo "spin" di un elettrone ha il valore minimo che possa esistere. Nelle unità di Planck esso vale 1/2. Le particelle con spin-semintero si chiamano Fermioni. Ecco perché si dice che l'elettrone è un Fermione. Lo "spin" di un fotone (quanto di luce) è il doppio di quello dell'elettrone. Le particelle con "spin-intero" si chiamano Bosoni. Ecco perché si dice che il fotone è un Bosone.
Com'è fatto il mondo
Un fiore, il mare, l'aria che respiriamo, la Luna, le Stelle, lo stesso Sole, tutto ciò che chiamiamo Mondo è fatto con Fermioni e Bosoni.
a)-Fermioni: (spin "semintero" come quello dell'elettrone). Queste particelle - dette quark e lentoni - sono i "mattoni", più esattamente, le "trottoline" della nostra esistenza materiale.
b)-Bosoni: (spin "intero" come quello del fotone). Le particelle con questo valore di "spin" sono le "colle" delle Forze Fondamentali che agiscono tra i "mattoni". Anche le "colle" sono "trottoline".
La legge di Supersimmetria da cui nasce il Supermondo
È il sogno di noi fisici cercare nuove Leggi di Simmetria. Esse permettono di aprire nuovi spazi e nuove strade nello studio di ciò che chiamimao il mondo. Alla Legge di simmetria tra Fermioni (F) e Bosoni (B) si dà il nome di Supersimmetria. Dal valore dello spin (intero o semintero) dipende la legge di statistica cui obbediscono gli insiemi fatti con tanti Bosoni e quelli fatti con tanti Fermioni. I fotoni (spin-intero, quindi Bosoni) obbediscono alla legge "in uno stesso posto più ce n'è, meglio è". Gli elettroni (spin-semintero, quindi Fermioni) invece obbediscono alla legge "non più di un elettrone nello stesso posto". Se fossimo fatti di fotoni potremmo mettere un miliardo di persone in un teatro da mille posti. Non potremmo però essere così come siamo. Il principio di impenetrabilità dei corpi nasce dal fatto che noi siamo fatti con trottoline (protoni, neutroni ed elettroni) che hanno spin-semintero. Dalla nuova Legge di Simmetria tra Fermioni e Bosoni (F≡B) nasce il Supermondo.
Il fascino del Supermondo
Il fascino del Supermondo sta nel fatto che il nostro Mondo avrebbe le sue radici in una realtà con 43 dimensioni, di cui una, e una sola, dedicata al "Tempo". Il Mondo a noi familiare ha appena 3 dimensioni di Spazio (lunghezza, larghezza, altezza) e una di Tempo: totale 4. Dove sono le altre dimensioni ? Risposta: sono rimaste incapsulate - entro minuscole frazioni di miliardesimi di miliardesimi di centimetro - senza possibilità di espandersi. Le 4 dimensioni a noi familiari si sono "espanse". Ecco perché possiamo vivere avendo a nostra disposizione enormi quantità di Spazio e di Tempo. E le dimensioni rimaste incapsulate come si manifestano ? Risposta: tramite le cariche subnucleari e le regolarità che ci portano alle Tre Colonne e alle Tre Forze. Insomma, se è vero che esiste il supermondo, potremmo finalmente sperare di capire perché il nostro mondo è fatto con Tre Colonne e Tre Forze. L'esistenza del Supermondo non è descritta a parole ma tramite strutture rigorosamente matematiche fondate sulla Simmetria (F≡B) tra particelle con spin-semintero (Fermioni) e particelle con spin-intero (Bosoni). Il Supermondo mette su basi di pari dignità esistenziale i Fermioni e i Bosoni. Se fossero vere le nostre formulazioni matematiche di questa nuova e formidabile Legge di simmetria (detta Supersimmetria), tutto dovrebbe nascere come "Supermondo", e poi una parte diventare Mondo. Purtroppo manca la prova sperimentale per dire che il Supermondo è la Scienza galileiana di primo livello. C'è il rigore matematico; manca la prova. Siamo impegnati a cercarla. E continueremo.
Dove potrebbe essere la prova che veniamo dal Supermondo
La cenere del Supermondo (i cosiddetti neutralini) potrebbero spiegare la compattezza della nostra Galassia. I neutralini non possono aggregarsi in Stelle in quanto essendo neutri perdono poca energia. Questo permetterebbe ai neutralini di restare in una sfera concentrica al nostro centro galattico. Anche se si aggregassero in Stelle, i neutralini, non potrebbero accendere alcun tipo di fuoco come invece fa il plasma di protoni ed elettroni. Ecco perché non possono esistere Superstelle.
Perché è necessario il Supermondo
Ci sono motivi fondamentali che rendono necessario il Supermondo.
1)-Bisogna tenere separate le due scale d'Energia: 1019 GeV (Planck) e 102 GeV (Fermi).
2)-Bisogna evitare che l'attrazione gravitazionale della luce sua infinita. Se così fosse non potremmo vedere la luce delle Stelle. È anche la nostra luce. Il "gravitino" (Supergravità) permette di rendere finita l'attrazione gravitazionale della luce.
3)-L'attrazione gravitazionale è potente ma non può essere infinita. Noi saremmo appiccicati al Sole. Non potrebbe esistere lo Spazio tra le Stelle e tra le Galassie. Non potrebbe esistere l'espansione del Cosmo. Per avere un'attrazione gravitazionale finita sono necessarie le teorie in cui si abbandona il concetto euclideo di Punto. Il Punto viene sostituito con una "cordicella" (string). Niente più Teorie Puntiformi bensì Superstring Theory.
4)-La Supersimmetria non vale alla nostra scala d'Energia (no-Scale-Supergavity = Infrared Solution of Superstring Theory).
Senza nuovi progetti non possono esserci nuove scoperte
I cinque progetti che hanno permesso le cinque grandi conquiste nella comprensione della natura. I cinque passi fondamentali nella nostra comprensione della natura:
1)-Le Equazioni del Gruppo di Rinormalizzazione (RGE) le quali implicano la dipendenza delle cariche fondamentali e delle masse dell'energia. È proprio tale dipendenza che conduce alla Grande Unificazione (GUT), alla Supersimmetria (SUSY), alla descrizione tramite stringhe dei processi fisici (RQST) e alla gravitazione quantistica;
2)-Il principio di gauge dal quale hanno origine tutte le forze;
3)-Le masse immaginarie che rivestono un ruolo centrale nella descrizione della Natura;
4)-Il miscelamento degli autostati di massa con violazione di Leggi di Simmetria;
5)-L'esistenza di effetti dovuti a forze di gauge non-abeliane.
Conclusione
Le frontiere del Supermondo ci inducono a una semplice riflessione: siamo l'unica forma di materia vivente dotata di Ragione. Grazie ad essa abbiamo scoperto la Memoria Collettiva (linguaggio scritto), la Logica rigorosa (Matematica) e la Scienza che, tra tutte le logiche possibili, è quella scelta per fare il mondo così come noi lo possiamo oggi vedere e studiare. Alla frontiera estrema di questa Logica, il Supermondo, siamo arrivati in appena quattro secoli, grazie all'atto di umiltà galileiano. Atto che si traduce nella realizzazione di esperimenti riproducibili alla fine di ottenere risposte rigorose ai quesiti sulla struttura logica della realtà in cui viviamo e di cui siamo fatti. Logica che ci è permesso di studiare e capire ma che nessuno saprà mai - anche minimamente - alterare.
ANTONINO ZICHICHI
22.01.2004 Orologi elettronici (APPROPOSITO DI spin)
Un nuovo oscillatore potrebbe avere importanti applicazioni commerciali. Le diverse parti di un sistema elettronico devono essere perfettamente sincronizzate per coordinare i propri compiti in maniera efficace. Recentemente, alcuni ricercatori avevano sfruttato gli spin degli elettroni per creare oscillazioni da usare come una sorta di "orologio elettronico". Ora uno studio pubblicato sul numero del 9 gennaio della rivista "Physical Review Letters" ne descrive una versione migliorata con oscillazioni di qualità maggiore. Secondo gli esperti, la ricerca mette in luce il potenziale commerciale dell'apparecchio, un minuscolo orologio versatile per chip elettronici. Il processore e la memoria di un personal computer, ma anche i telefoni cellulari e le stazioni di base, devono essere perfettamente sincronizzati, altrimenti i dati trasmessi possono venire persi. Gli oscillatori di cristallo di quarzo, come quelli negli orologi, possono fornire impulsi regolari per mantenere in comunicazione questi dispositivi. Ma un cristallo ha tipicamente una dimensione di qualche millimetro, troppo grande per gli standard moderni. Nel 2003, un team della Cornell University aveva generato oscillazioni ad alta frequenza sfruttando le proprietà magnetiche degli elettroni e l'allineamento degli spin. Per migliorare la tecnica e creare oscillazioni più adatte a scopi commerciali, Bill Rippard e colleghi del National Institute of Standards and Technology (NIST) degli Stati Uniti hanno ora progettato un oscillatore con un fattore di qualità Q molto superiore a quello ottenuto dai ricercatori della Cornell. Variando il campo magnetico, è possibile modificare la frequenza di oscillazione fra 5 e 40 gigahertz.
W. H. Rippard, M. R. Pufall, S. Kaka, S. E. Russek, T. J. Silva, Direct-Current Induced Dynamics in Co90Fe10/Ni80Fe20 Point Contacts. Phys. Rev. Lett. 92, 027201 (16 gennaio 2004).
|
|
|
|
|
|
|
|
|
elettronico |
|
muonico |
|
tauonico |
|
|
|
|
|
|
|
|
|
e "colore" |
|
e "colore" |
|
e "colore" |
|
|
up |
|
charm |
|
top |
|
|
down |
|
strange |
|
beauty |
|
|
elettro-debole |
|
|
|
|
"forte" |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Energia |
elettrica |
"Sapore" |
"colore" |
|
|
|
e Leptoni |
e Gluoni |
|
|
|
|
|
(particelle e ricadute tecnologiche in campo MEDICO)
Si chiama terapia per cattura neutronica
(Neutron
Capture Therapy - Nct)
e promette di essere un valido strumento per la cura di alcuni tipi di tumore
altrimenti inguaribili. Malattie che portano al
decesso nel giro di pochi mesi, come nel caso dei glioblastomi,
tumori del cervello detti anche 'octopus',
perché si infiltrano fra le cellule sane, rendendo sostanzialmente impossibile
l'eliminazione delle cellule tumorali sia per via chirurgica, che con la radioterapia
convenzionale. E lo stesso si può dire dei tumori metastatici del fegato,
che non si riesce a estirpare chirurgicamente, e il cui trattamento convenzionale
porta a cirrosi epatica e quindi alla morte del paziente. Notizia appresa da
Marino Mazzini, docente presso il dipartimento di Ingegneria
meccanica nucleare, e della produzione della facoltà di Ingegneria
dell'Università di Pisa nell'ambito del Workshop Internazionale
della Nct da lui organizzato in collaborazione con l'Ifc
- Cnr, Istituto di fisiologia
clinica del Consiglio nazionale delle ricerche che si è
tenuto dal 28 novembre al 2 dicembre scorsi a Pisa. La
Nct sfrutta una caratteristica
dell'atomo di Boro-10, la
proprietà di assorbire un neutrone termico e rompersi in frammenti a
elevata energia. In un tessuto biologico ciò produce
un danno all'interno di un volume molto ridotto, che corrisponde a quello di
un diametro cellulare. Questo significa che se
si riesce a concentrare il Boro-10 all'interno
delle cellule tumorali, queste vengono distrutte senza che siano contemporaneamente
danneggiate le cellule sane circostanti. Da qui
il principio di funzionamento della Nct che
si articola in due fasi: nella
prima si inietta al paziente una soluzione contenente un farmaco
che si accumula prevalentemente nelle cellule tumorali, presentando una concentrazione
molto bassa nei tessuti sani, insieme ad atomi di Boro 10.
Nella seconda fase, quando il
farmaco ha raggiunto una distribuzione ottimale nei tessuti,
si procede a irraggiamento con un fascio di neutroni, opportunamente modulato:
i neutroni del fascio vengono catturati dal Boro 10 all'interno
delle cellule tumorali, che possono venire danneggiate fino alla eliminazione.Condizioni
indispensabili quindi per la realizzabilità della terapia, oltre alla
perizia di scienziati e medici che la applichino, sono la produzione
e il controllo del fascio di neutroni, che avviene tramite acceleratore nucleare
o reattore, e la disponibilità del farmaco borotrasportatore.
Su questi temi si sono confrontati le decine di ricercatori provenienti da tutto
il mondo riuniti a Pisa. Sul fronte della tecnica di irraggiamento le prospettive
sono assolutamente incoraggianti: diversi ospedali e istituti di ricerca, fra
cui la sezione di Padova dell'Istituto Nazionale
di Fisica Nucleare (INFN)
e l'ospedale San Giovanni Battista- Molinette
di Torino, dispongono di tali infrastrutture, e da tempo svolgono progetti di
ricerca su questo aspetto. Diversa la musica sul fronte dei farmaci: senza una
casa farmaceutica disposta a investire nella ricerca e produzione del farmaco,
la Nct diventa, se non un miraggio, un impresa quantomeno difficoltosa.
Trattandosi infatti di una terapia ancora in fase
di sperimentazione, e quindi non di un mercato sicuro, nessuna azienda ha finora
deciso di investire in questa direzione. Ma allo stesso tempo,
fintanto che non si potrà fare sperimentazione della terapia secondo
i protocolli tradizionali, questa non potrà divenire, se di successo,
una terapia standard nella cura dei tumori, e quindi andare a creare un mercato
per il nuovo farmaco. Insomma, un cane che si
morde la coda.Occorre comunque andare avanti. I diversi gruppi
di ricerca italiani che da oltre cinque anni lavorano per la BNCT
dei glomi e dei glioblastomi hanno oramai raggiunto un livello di primo ordine
nel panorama internazionale e quindi sono certamente pronti a iniziare anche
in Italia il trattamento sperimentale di BNCT sui pazienti
affetti da tali patologie. Fra i successi finora
conseguiti e che incoraggiano tale sperimentazione, l'esperimento condotto da
Aris Zonta dell'Università di Pavia,
che poco meno di due anni fa ha espiantato il fegato a un paziente con tumore
epatico, sottoposto l'organo a questo tipo di irraggiamento, e poi reimpiantato
l'organo, conseguendo un risultato di rilevanza mondiale.
Resta da capire come questo tipo di cura potrà progredire e quale
ostacolo potrà costituire l'assenza di finanziamenti per la ricerca sul
farmaco, sia da parte dei privati sia da parte delle istituzioni pubbliche.
La Fisica delle particelle elementari
[A][B][C][D][E][F][G][H][I][L][M][N][O][P][Q][R][S][T][U][V][Z]
Acceleratore Gli acceleratori sono macchine che usano campi elettrici per accelerare ad alte energie particelle dotate di carica elettrica (elettroni, protoni e le loro antiparticelle). Se gli acceleratori sono lineari, per impartire alle particelle le energie desiderate devono essere molto lunghi, cosicché si è optato per lo più per la forma circolare, e si usano magneti per chiudere in cerchio la traiettoria delle particelle e riportarle al punto di partenza, conferendo loro altra energia a ogni passaggio.
Adrone Le proprietà della forza di colore e le regole della teoria quantistica permettono a quark (e antiquark) e gluoni di legarsi insieme in certe combinazioni a formare una particella; tutte le particelle così formate si chiamano adroni. La particella formata da tre quark si chiama <barione>; quella formata da quark e antiquark si chiama <mesone>, e quella formata da soli gluoni glueball (gluopalla). Gli adroni hanno tutti un diametro di circa 10-13 cm. I barioni più familiari sono il protone e il neutrone. I pioni sono i più leggeri fra i mesoni, e sono quindi quelli che si producono con la maggiore frequenza nelle collisioni. I kaoni sono gli adroni più leggeri dopo i pioni, e hanno proprietà che li rendono utili in molti studi.
Antiparticella A ogni particella è associata un'antiparticella, ossia una particella con la stessa massa ma con tutte le cariche opposte. Una particella priva di cariche, per esempio il fotone, è l'antiparticella di se stessa. Spesso l'antiparticella viene denotata con un trattino scritto sopra il simbolo della particella: per esempio e (e soprassegnato) è l'antiparticella dell'elettrone (chiamata anche positrone).
Barione Un barione è una particella composta, formata da tre quark, presi a piacere su sei. Protoni e neutroni sono barioni.
Bosone Sono bosoni tutte le particelle portatrici di un'unità intera di spin (0,1,...). Essi hanno proprietà diverse rispetto alle particelle con spin semintero (fermioni). In fisica delle particelle il <bosone> ha anche un uso più specifico: i bosoni (fotoni, gluoni, particelle W e Z) sono i quanti dei campi elettromagnetico, forte e debole. Essi trasmetto gli effetti delle forze fra quark, leptoni e se stessi. I bosoni di Higgs o higgsoni sono i quanti di un ipotetico campo di Higgs; essi non sono ancora stati scoperti.
Bosone vettore intermedio Nome generico dei bosoni W e Z, che mediano l'interazione debole.
Camera a bolle Apparecchio costituito essenzialmente da un recipiente contenente un liquido (per esempio propano) sottoposto a notevoli pressioni e portato, con opportune precauzioni, a una temperatura superiore a quella di ebollizione senza che questa avvenga. Lo stato del liquido è quindi di equilibrio instabile. Se una particella carica attraversa la camera, gli atomi o le molecole ionizzati in seguito all'urto con la particella provocano l'ebollizione di piccolissime quantità di liquido. Queste minuscole bollicine di vapore, se illuminate opportunamente, possono dare una immagine su una pellicola fotografica sufficientemente sensibile. Il cammino della particella viene così individuato grazie alla catena di parziali e locali ebollizioni del liquido avvenute attorno alla traiettoria della particella stessa.
Camera di Wilson Apparecchio costituito essenzialmente da un recipiente contenente un vapore (per esempio, vapor d'acqua e alcool) soprassaturo, tenuto cioè a una temperatura superiore a quella di condensazione. Come nella camera a bolle, l'equilibrio è instabile ed è sufficiente che, in seguito al passaggio della particella, si formino degli ioni perché su di essi si condensi del vapore. anche in questo caso la scia di goccioline viene fotografata, previo intenso illuminamento, e permette l'individuazione della particella. A parità di condizioni, lo spessore, la lunghezza e il raggio di curvatura (in un campo magnetico) della traccia permettono di risalire al tipo di particella, oltre che alla sua energia e alle sue proprietà cinematiche.
Campo Ogni particella è l'origine di vari campi, uno per ogni carica non nulla di cui essa è portatrice. Si hanno interazioni quando una particella sente il campo di un'altra particella. Ci sono campi elettromagnetici, campi deboli e campi di colore (o forti). Qualsiasi particella dotata di energia (compresa la massa) crea un campo gravitazionale. Nella teoria standard le particelle acquistano massa interagendo con un campo di Higgs, ma l'origine di un tale campo non è ancora compresa.
Campo di Higgs Nella teoria standard si pensa che le particelle (bosoni e fermioni) ottengano una massa interagendo col campo di Higgs. Questo deve avere proprietà molto speciali perché le masse possano essere incluse nella teoria in un modo coerente. Gli altri campi che conosciamo derivano da particelle portatrici di cariche, ma noi non comprendiamo in che modo potrebbe avere origine il campo di Higgs; ecco perché i fisici considerano con tanta apprensione la fisica di Higgs e non concordano ancora fra loro sull'esistenza o meno del bosone di Higgs.
Colore Proprietà posseduta da quark e gluoni. E' una sorta di carica <triplice>, analoga alla carica elettrica, che si pensa essere la sorgente dell'interazione forte tra quark descritta dalla cromodinamica quantistica.
Conservazione dell'energia Principio assoluto secondo cui in un sistema isolato, quali che siano le sue trasformazioni interne, l'energia totale è costante nel tempo. I suoi limiti di validità sono gli stessi della conservazione della quantità di moto.
Costante di Planck E' universalmente indicata con h e vale 6,6256 x 10-27 erg x s. La sua presenza è responsabile della natura ondulatoria della materia, come si vede subito dalla relazione di de Broglie, secondo la quale a ogni particella è associata una vibrazione la cui lunghezza d'onda si ottiene dividendo h per la quantità di moto della particella. Il suo valore estremamente piccolo spiega perché, dalle osservazioni del mondo macroscopico, non è emersa la meccanica quantistica ma la meccanica di Newton che si può considerare come il limite della prima quando si fa tendere formalmente h a zero.
Costante di struttura fine Costante fisica fondamentale, che caratterizza l'intensità dell'interazione elettromagnetica. Essa è definita come il quadrato della carica elettrica dell'elettrone, diviso per il prodotto della costante di Planck per la velocità della luce. E' spesso contrassegnata dal simbolo a Il suo valore numerico è 1/137,04.
Decadimento I quark, i leptoni e i bosoni, che sono le particelle della teoria standard, hanno interazioni che permettono loro di compiere transizioni l'uno nell'altro. Ogni volta che uno di essi può trasformarsi in particelle più leggere, la transizione avverrà con una certa probabilità, e noi diciamo che la particella più pesante è instabile ed è decaduta in quelle più leggere. Nella teoria standard il quark su, l'elettrone e i neutrini non decadono; decadono invece gli altri fermioni e le particelle W e Z.
Effetto fotoelettrico Se la superficie di certi materiali viene colpita da luce di opportuna frequenza, essa emette degli elettroni. L'energia degli elettroni dipende unicamente dalla frequenza e non dall'intensità della luce incidente. Inoltre, al di sotto di una certa frequenza, detta frequenza di soglia, non viene emesso alcun elettrone. Queste caratteristiche del fenomeno, non spiegabili mediante la teoria dell'elettromagnetismo classico di Maxwell, condussero Einstein all'ipotesi, rivelatasi in seguito esatta ed estremamente fruttuosa, della natura discreta della radiazione e alla famosa equazione E = h f che stabilisce l'energia posseduta da ciascun granulo di energia, macroscopicamente osservata come radiazione continua di frequenza f.
Elettronvolt (eV) Unità di misura per l'energia, definita come l'energia acquistata da un elettrone accelerato da una differenza di potenziale di un volt.
Fermione I fermioni sono particelle con spin semintero. Essi hanno proprietà diverse rispetto alle particelle con unità di spin intera (i bosoni). quark e leptoni, le particelle che compongono la materia, sono fermioni.
Feynman, diagramma di Le regole di qualsiasi teoria quantistica dei campi possono essere formulate in modo tale che sia possibile disegnare un insieme di diagrammi che rappresentino tutti i processi che possono verificarsi, e assegnare una probabilità di occorrenza al processo rappresentato da ogni diagramma.
Fissione Certi nuclei molto pesanti possono catturare una particella di tipo opportuno e trasformarsi in uno stato eccitato dello stesso nucleo o di un altro così instabile da spezzarsi dopo un tempo brevissimo in due nuclei più leggeri, approssimativamente della stessa grandezza. Per esempio, un nucleo di uranio 235 può assorbire facilmente un neutrone di bassa energia (neutrone lento o termico) e spezzarsi quindi in un nucleo di lantanio 147 e in uno di bromo 87 (frammenti della fissione), liberando inoltre due neutroni piuttosto veloci. I modi di decadimento sono numerosissimi, oltre 30 per l'uranio 235. Normalmente i prodotti della fissione sono radioattivi. I neutroni emessi vengono rallentati dagli urti contro gli altri atomi e alla fine vengono assorbiti da altri nuclei di uranio 235 (nel nostro caso) inducendo altre fissioni, e così via, e danno origine a un processo a catena (bomba atomica e reattori nucleari).
Forza Tutti i fenomeni che conosciamo in natura possono essere descritti da quattro forze: gravitazionale, debole, elettromagnetica e forte. Benché le forze debole ed elettromagnetica ci sembrino diverse, possono essere descritte in un modo più fondamentale come unificate in una forza (elettrodebole); ci sono prove che ci sia un'unificazione simile di tale forza elettrodebole con la forza forte. Il tentativo di unificare tutte le quattro forze è un'area attiva di ricerca. Nella fisica delle particelle le parole <forza> e <interazione> significano essenzialmente la stessa cosa.
Forza debole Una delle forze fondamentali della natura. La sua manifestazione più nota è il decadimento beta; è implicata in alcuni decadimenti di nuclei radioattivi e nei processi neutrinici.
Forza elettrodebole Le descrizioni della forza elettromagnetica e della forza debole sono state unificate in una descrizione singola, quella della forza elettrodebole. La forza elettromagnetica e quella debole appaiono diverse perché i bosoni W e Z che mediano la forza debole sono dotati di massa, mentre il fotone che media la forza elettromagnetica ne è privo; la descrizione teorica unificata elettrodebole tratta tutti i bosoni nello stesso modo.
Forza forte La forza dominante che agisce tra adroni; per esempio, la forza che tiene uniti protoni e neutroni nei nuclei. Oggi sappiamo che l'interazione tra adroni è un residuo di quella, ancora più potente, che agisce tra i quark all'interno degli adroni medesimi. La forza forte, mediata dallo scambio di gluoni, è descritta dalla teoria detta cromodinamica quantistica (QCD)
Fotone E' la particella che compone la luce. Esso trasmette la forza elettromagnetica.
Funzione d'onda In un sistema è una funzione che descrive le proprietà del sistema dipendenti dal tempo (posizione, velocità, ecc.). Essa non possiede un significato fisico diretto: a tal fine occorre considerare il suo quadrato il quale esprime la probabilità che si ha di trovare il sistema in un particolare stato (per esempio, in un certo luogo o con una certa velocità). Il fatto che si consideri anche la funzione d'onda di per sé, e non soltanto il suo quadrato, ha a che vedere con un principio fondamentale della meccanica quantistica: il principio di sovrapposizione, secondo il quale se Y1 e Y2 sono due funzioni d'onda corrispondenti a due stati diversi di uno stesso sistema, allora ogni loro combinazione lineare aY1 + bY2 corrisponde ancora a uno stato fisicamente possibile del sistema. Ciò non sarebbe più vero se si combinassero i quadrati delle funzioni d'onda.
Gauge, teoria di E' una teoria quantistica dei campi nella quale le interazioni hanno luogo fra particelle portatrici di cariche, con intensità proporzionali alla grandezza delle cariche stesse, e sono trasmesse da bosoni, che sono i quanti dei campi creati dalle cariche.
Gluone E' la particella che trasmette la forza forte, il quanto del campo forte.
Gluoni come getto di adroni La forza di colore o forza forte è così forte che particelle dotate di colore (quark e gluoni), colpite o prodotte in una collisione, possono separarsi da altre particelle dotate di colore solo legandosi ad altre particelle colorate per formare adroni privi di colore. Cos' un gluone o un quark carico di energia diventa nel suo movimento uno stretto <getto> di adroni, trasformando la sua energia nella massa e nel moto di vari adroni. Un quark o un gluone appare in un rivelatore come un getto composto di norma da cinque-quindici adroni.
Grande unificazione (GUT) Schema che consente una descrizione unificata e coerente delle interazioni elettromagnetiche, deboli e forti.
Gravitone E' il quanto del campo gravitazionale, e media la forza gravitazionale.
Heisenberg, relazione di indeterminazione di In meccanica quantistica la posizione x e la quantità di moto p di una particella non possono avere simultaneamente valori ben definiti. L'indeterminazione (o dispersione statistica) dei valori di queste grandezze soddisfano la relazione DxDp > h/2.
Interazione Si ha, tra due oggetti, interazione, se essi s'influenzano reciprocamente (ad esempio mediante forze).
Leptone I leptoni sono una classe di particelle definite da certe proprietà: sono fermioni, con spin semintero, e non hanno carica di colore; hanno inoltre un'altra proprietà, il cosiddetto numero leptonico, che è diverso per ogni famiglia. I leptoni noti sono l'elettrone, il muone, il tauone e i loro rispettivi neutrini.
Libertà asintotica In generale, tra i quark si esercitano intense forze cromodinamiche dovute allo scambio di gluoni. La libertà asintotica è il principio secondo il quale queste forze diventano tanto più deboli quanto più i quark sono vicini, per cui a distanze molto piccole diventano quasi <liberi>. Nelle collisioni ad alta energia, in effetti, i quark possono avvicinarsi molto, e grazie alla libertà asintotica non è difficile calcolarne il comportamento.
Mesone Particella costituita da un quark e un antiquark.
Muone Un leptone carico, simile all'elettrone ma appartenente alla seconda generazione di particelle. Un muone decade, formando un elettrone e un paio di neutrini, entro un milionesimo di secondo circa. I muoni hanno origine in collisioni negli acceleratori, nel decadimento di altre particelle prodotte negli acceleratori e nelle collisioni delle particelle dei raggi cosmici.
Neutrino Leptone elettricamente neutro e privo di massa. Ce ne sono tre varietà, una per ciascuna generazione di particelle, associate all'elettrone, al muone e al leptone tau. Le uniche interazioni alle quali prende parte sono quelle deboli.
Neutrone Vedi Adrone. Un neutrone libero ha una durata di vita di circa 15 minuti, dopo di che decade in un protone, un elettrone e un antineutrino; quando i neutroni sono legati in nuclei il decadimento non è più possibile a causa di sottili effetti spiegati dalla teoria quantistica, cosicché all'interno dei nuclei i neutroni sono stabili come i protoni.
Numero barionico Quantità assegnata a tutte le particelle elementari: i quark hanno numero barionico 1/3, gli antiquark -1/3; protoni e neutroni, così come molte particelle instabili, sono costituiti da tre quark e hanno numero barionico 1, mentre antiprotoni e antineutroni hanno numero barionico -1; le particelle che non contengono quark, come l'elettrone e il fotone, hanno numero barionico 0. Il numero barionico si conserva in tutti i processi osservati, ma secondo alcune teorie (per esempio quelle della grande unificazione) potrebbe non conservarsi, soprattutto quando entrano in gioco energie molto elevate come quelle dell'universo primevo.
Parità L'operazione di simmetria consistente nel far riflettere un sistema, o una successione di eventi, in uno specchio.
Particella virtuale Particella quantistica che esiste solo per un tempo molto breve, per esempio mentre viene scambiata tra altre particelle. A causa del principio di indeterminazione di Heisenberg, una particella virtuale non deve necessariamente soddisfare la relazione usuale tra energia, quantità di moto e massa.
Particella X Particella ipotetica, dalla massa gigantesca, che secondo le teorie unificate dovrebbe mediare un'interazione a raggio molto corto tra quark e leptoni. Cambierebbe un quark in un leptone o in un antiquark.
Pauli, principio di esclusione di Principio della teoria dei quanti enunciato per la prima volta da Wolfgang Pauli. Si applica alle particelle di spin 1/2, come quark e leptoni, e stabilisce che un dato insieme di numeri quantici può appartenere a non più di una sola di esse. E' alla base della struttura dei gusci elettronici degli atomi, e della struttura degli adroni in termini di quark.
Pione (mesone p) Il più leggero dei mesoni. La sua esistenza fu predetta da Yukawa per spiegare la forza di legame nucleare. Ce ne sono tre varietà, contraddistinte dalla carica: +1, 0, -1, indicate rispettivamente con p+, p0, p-.
Planck, costante h di Nella teoria quantistica molte cose sono quantizzate, come per esempio i livelli di energia dell'atomo. La costante di Planck h fissa la scala della quantizzazione: i vari livelli di energia sono separati da quantità proporzionali a h; la quantità di spin che una particella può avere è un multiplo di h e via dicendo.
Positrone (antielettrone) Antiparticella dell'elettrone, dunque con carica positiva. L'annichilazione elettrone-positrone dà luogo alla produzione di energia e a nuove varietà di adroni e quark.
Protone, decadimento del Se la teoria standard fosse la descrizione completa e definitiva della natura, i protoni sarebbero stabili, non decadendo mai. se invece la teoria standard è una parte di una teoria più generale che unifica quark e leptoni, probabilmente i protoni sono instabili, pur avendo una durata di vita estremamente lunga. Gli esperimenti che cercano di rivelare il decadimento del protone sono molto importanti perché, se noi sapessimo con certezza che si è già verificato (e in che cosa il protone decade), disporremmo di informazioni preziose su come estendere la teoria standard.
Quark Costituente fondamentale degli adroni. Se ne conoscono sei varietà (<sapori>), che si combinano in coppie o in terne a formare particelle come i mesoni, i protoni e i neutroni.
Quark, come getto di adroni Poiché i quark possono esistere solo all'interno di adroni, quelli che emergono da collisioni o che sono prodotti appaiono nei rivelatori nella forma di un sottile getto di adroni, per lo più pioni.
Raggi cosmici Particelle ad alta energia, di origine extraterrestre, che possono essere rivelate mediante osservazioni al di sopra dell'atmosfera. Se l'energia delle particelle è molto grande, possono dar luogo a cascate nell'alta atmosfera che vengono rivelate anche al livello del suolo. I raggi cosmici sono soprattutto protoni, elettroni e nuclei di elio, con una piccola percentuale di elementi pesanti, e sono presenti in tutto il disco della nostra Galassia.
Rinormalizzazione Alcune quantità che dovrebbero essere calcolabili nelle teorie quantistico-relativistiche dei campi sembrano avere valori infiniti. In passato questo è stato un problema grave nella comprensione delle teorie. Lentamente, nel corso di sessant'anni, si è imparato che una formulazione appropriata della teoria non ha quantità infinite, e oggi si sa come evitare che esse facciano la loro apparizione nelle formule. Il procedimento usato per formulare la teoria in modo da evitare la difficoltà dei valori infiniti si chiama <rinormalizzazione>.
Sapore Nome di fantasia assegnato alla qualità che distingue le sei varietà note di quark. I nomi dei sapori sono: up (su), down (giù), strange (strano), charm (incanto, fascino), top o truth (sommità o verità) e bottom o beauty (fondo o bellezza). Talvolta si parla di sapore anche riguardo alla distinzione tra i sei differenti leptoni.
Simmetria, rottura spontanea di In molti casi lo stato assunto effettivamente da un sistema fisico non riflette le simmetrie sottogiacenti delle leggi dinamiche, in quanto lo stato manifestamente simmetrico è instabile. Il sistema dunque rinuncia alla simmetria per ottenere stabilità. In tal caso si dice che la rottura di simmetria è spontanea.
Spin Momento angolare intrinseco delle particelle elementari, definito dalla rotazione della particella attorno al proprio asse. In base alle leggi della meccanica quantistica, lo spin di una particella può essere solo un multiplo intero o semintero della costante di Planck. Nella fisica delle particelle quest'ultima funge da unità, sicché lo spin è dato semplicemente da un numero. Così, ad esempio, gli elettroni e i protoni hanno spin 1/2, i fotoni spin 1 e i pioni spin 0.
Stranezza Proprietà posseduta da ogni particella che contiene un quark strano (strange). Questo quark ha carica elettrica -1/3, e appartiene alla seconda generazione di particelle insieme al charm.
Stringhe, teoria delle L'ultima teoria della fisica fondamentale nella quale l'entità basilare è un oggetto unidimensionale, invece del punto di <dimensione zero> della fisica delle particelle usuale.
Supersimmetria Principio di invarianza che tenta di porre fermioni e bosoni sullo stesso piano.
Utenti connessi...:
CHANDRAst (midi by CHANDRAst 2004)