[X]-Salta NOTA. (Vai subito alla MAPPA della PAGINA)...
NOTA inportante (27.09.2004): Per navigare nel sito, sono richiesti i seguenti requisiti: Quick Time come lettore multimediale predefinito. [Se nel riquadro a sinistra vedete una Q su uno sfondo bianco e poi un Pinguino, allora avete QuicK Time come lettore multimediale predefinito; altrimenti sarete re-indirizzati al sito www.apple.com per il DOWNLOAD del plug-in -sperando che la FACILITY introdotta, funzioni. Avvolte -in casi rarissimi- si può verificare un errore di caricamento del plug-in. L'utente viene avvisato per mezzo di un [ALLERT: ERRORE PLUG-IN: I dati richiesti dal plugin non sono stati scaricati con successo. -- Se si dispone di Windows Xp, invece dell'ALLERT, si osserverà -nella finestra del plugin-, una pellicola spezzata -35 mm- su sfondo bianco --]. Questo "errore", è causato da un alto traffico dei SERVER nei quali l'intero sito è DISTRIBUITO. Il tempo massimo di ripristino del problema -sul quale stiamo lavorando affinchè non si verifichi-, non supera quasi mai le 3 ore [Il problema pare risolto !! Stiamo svolgendo ulteriori TEST !!]-. Mi auguro che il filmato sia di vostro gradimento !!]. Qualche volta alcuni filmati saranno visibili in RealPlayer. Questo può causare una automatica imposizione gerarchica del lettore multimediale RealPlayer sul lettore di default. Si passa cioè da Quick Time a RealPlayer super-ordinato. Se ciò dovesse succedere, ripristinare Quick Time come lettore multimediale predefinito. Come si fa ? Semplice. E' QuickTime che, in background, si accorge che alcuni file associati ad esso, sono stati associati ad un altro lettore multimediale. In virtù di ciò, comparirà un ALLERT [Configurazione di tipo MIME] con il seguente messaggio: "Alcuni MIME precedentemente associati al plugin QuickTime sono attualmente associati ad altre applicazioni. Si desidera ripristinare queste associazioni dei tipi MIME con QuickTime ?". Alla domanda, si DEVE rispondere: "SI". -- In poche parole, fare attenzione di abilitare la lettura di file MPEG ed AVI su Quick Time player e disattivarli su RealOne player ---. Se l'operazione di ripristino del lettore multimediale di default avviene a pagina già aperta, tutti i plug-in Quick Time non possono essere visti -sarebbe meglio dire: "letti". Si consiglia di chiudere il browser e ricaricare la pagina--; >>ATTENZIONE<<... alla fine del download di QuickTime player, viene chiesto un CODICE. Nella versione gratuita questo codice non è necessario. Cliccare su avanti e proseguire l'installazione. Per quanto riguarda il download di Real Player --chiamato realONE Player-- fare attenzione di non scaricare la versione Premium in prova per 14 gg. Il LINK per il download di realONE Player si trova in alto a destra del sito real.com. Se vi dovesse essere difficoltà, cliccare [QUI]. Essendo real.com un sito commerciale, alla fine del download, viene riproposto all'utente un prospetto per scaricare... la versione Premium. Scegliere "INSTALLAZIONE di BASE"-gratuita-. Una volta installato realONE, disattivare l'abilitazione alla lettura dei file MPEG ed AVI... [riprendere da: "Sono richiesti..."]; JAVA JIT attivato o eventualmente JAVA Sun .-- Se uno dei due compilatori JAVA fosse stato disattivato, una sua riattivazione richiede un riavvio del sistema. --. Macromedia ActiveX FLASH player+SHOCKWAVE player. Alcuni LINK, fanno riferimento a file con estensione .PDF o .PS. Dunque, per poterli leggere, è necessario scaricare Adobe-Acrobat Reader -per i file .PDF- e GSview -per i file .PS- Sono molto pochi i LINK a file di tipo Microsoft PowerPoint. Per poterli leggere è necessario disporre del programma OFFICE Microsoft. Se si dispone di un Firewall, configurarlo secondo i valori di default, cercando di non innalzare troppo la protezione. [Cosa significa; Firewall: Un firewall (letteralmente: parete antincendio o muro di fuoco) è un sistema per prevenire un accesso non autorizzato a/da una rete privata. I firewall possono essere implementati sia in hardware che software. Generalmente si mette un firewall tra la macchina o la rete da proteggere e la rete esterna. Esistono diversi tecniche di firewall. Filtro dei pacchetti: Controlla ogni singolo pacchetto e applica le regole di filtraggio definite dall'utente, che in genere sono del tipo: "blocca tutti i pacchetti provenienti da qualsiasi indirizzo, destinati a una particolare macchina o range di indirizzi sulla porta xxxx". A livello di applicazione: Vengono controllati solo determinate applicazioni come i server FTP, Telnet, etc. A livello di connessione: Vengono testate solo le connessioni e una volta stabilite, non vengono più effettuati altri controlli. Server proxy: Simile al filtro dei pacchetti, ma nasconde gli indirizzi delle macchine da proteggere, e non è trasparente come il primo. In altre parole necessita di configurazioni particolari delle applicazioni come il browser o client ftp, che per comunicare con l'esterno devono indirizzare le richieste al proxy.]. Se è stato installato un AntiSpam -normalmente uno dei più diffusi è Norton-, è conveniente disattivarlo. Infatti il filtro antispam -nella navigazione WEB-, non solo rallenta il DOWNLOAD delle pagine, ma può determinare una non corretta visualizzazione delle .GIF -molto spesso quelle animate- e una non visualizzazione di alcune immagini .JPG di grandi dimensioni. L'operazione non è copmlessa; bastano alcuni click per disattivare o riattivare l'AntiSpam. La scheda grafica deve essere almeno 64 Mb -- infatti, se si dispone di una connessione veloce ma una scheda grafica inferiore a 64 Mb -ciò implica anche una minore velocità della CPU ad essa dedicata ed altre cose tecniche nelle quali non mi addentro- si ha, come principale sintomo, un rallentamento dello scrolling [alto-basso] di pagina rischiando, nella peggiore delle ipotesi, il blocco del sistema. La cache memory del sistema deve esserere almeno 512 Mb. Può andar bene anche una cache memory di 256 Mb, ma in questo caso, si consiglia -vivamente- di chiudere alcuni programmi che girano in back-ground e di cercare di aprire -se è possibile- il minor numero di finestre del browser -o di applicazioni [applicazione = finalità specifica a cui è dedicato un programma o un sistema di elaborazione]-, durante la navigazione; infatti, una apertura forsennata di applicazioni può verificare -in condizioni particolari, sulle quali non mi dilungo ulteriormente- un over-flow di memoria anche nel caso in cui la R.A.M. -in uso- sia molto robusta. Potete usare questa pagina, come TEST per valutare se il vostro sistema ha le caratteristiche richieste per poter continuare nella navigazione.--. Si consiglia di aggiornare DirectX all'ultima realise. Si consiglia, inoltre, di aggiornare -se possibile- il DRIVER della scheda grafica in uso. La cache dell'Internet temporary file deve essere configurata almeno a qualche Giga, se la velocità di connessione è bassa. Questo serve per non continuare a ricaricare immagini, filmati, FLASH ecc. rivisitando una stessa pagina.. La velocità di connessione minima, deve essere: ISDN 64+64 = 128 Kb/s o, --ottimale--, ADSL a 640 Kb/s o superiore. La memoria RAM del sistema deve essere almeno 128 Mb (DDRAM). Sarebbe meglio disporre di un programma di RAM defrag -per farlo girare in background, con campionamento risorse a bassa frequenza e possibilità di defrag manuale over xxx Mb RAM-. Una FACILITY molto interessante per la didattica --mi riferisco alla fase di apprendimento-- è la seguente; la possibilità di disporre di un PLUG-IN per la sintesi VOCALE. In altre parole, la lettura di un TESTO, con voce sintetica, usufruendo della semplice procedura copia+incolla. Il PLUG-IN al quale mi riferisco è MyVoice. Per scaricare questo "ausilio didattico", cliccare [QUI]. Una volta installato il PLUG-IN, per poter effettuare la lettura dei testi -in lingua italiana- selezionati nel sito, cliccare [QUI]. Fatto il copia+incolla sulla finestra di "dialogo", cliccare su "Leggi". Il programma di sintesi VOCALE è molto intuitivo. Per quanto riguarda i collegamenti alle pagine del sito, questi sono strutturati in LINK+(argomento)+New+. L'argomento, tra parentesi tonda, descrive l'ultimo argomento trattato nella pagina a cui ci si vuol linK-are. Se l'argomento è di nuova stesura, vi è la parola New -dopo la parentesi-. New permane per circa una settimana --nella pagina principale del sito; pagina di index--; poi viene cancellato. New, però, rimane nella sotto-pagina di contesto, fino a nuovo argomento di stesura. Se il collegamento alla pagina a cui ci si vuol linK-are è seguito da , vuol dire che, pur restando i contenuti della stessa invariati, c'è stata una mia revisione; correzione di alcuni errori di battitura, creazione di nuovi LINK -- ancoraggi nella pagina, in altre pagine del sito o extra-sito [i LINK extra-sito, vengono controllati ogni 6 mesi per verificare la loro esistenza nel WEB]-- o aggiunta di qualche FACILITY ecc.. E' ovvio che in questo caso non compare New sul LINK. -- In sostanza vi è stata una revisione della pagina; permane per circa una settimana.-- Ogni pagina è munita di un comando di [RELOAD], per permettere di ricaricarla, nel caso in cui alcune immagini non siano state visualizzate correttamente. La non visulizzazione di tali immagini, è determinata da una velocità di connessione, non compatibile con alcune pagine WEB, di grandi dimensioni. L'impostazione del sito è di tipo classico -un enorme contenitore iper-testuale con un grado molto alto in multimedialità-. Non si è data molta importanza alla veste grafica, ma ai contenuti. La bella veste grafica è lasciata ai siti .com. E' in preparazione la MAPPA LOGICA del sito. Probabilmente, con essa, sarà compresa la finalità del sito stesso -che ha come punto di partenza l'Asimmetria materia ed antimateria- Dai vari argomenti trattati -e che verranno trattati in futuro- si può già intravvedere come la COSMOLOGIA sia per sua natura multi-disciplinare. -- 200 Mb di spazio WEB penso possa bastare, per il momento. Se non dovesse essere sufficiente -in futuro-, amplierò ulteriormente -a 25 Mb per volta- tale spazio. --. Il WEBMASTER alias CHANDRAst... [Memoranda per configurazione Esecuzione Automatica: FreeMempro, SpySwepper, QuickTime Task, ScanRegistry, TaskMonitor, PCHealth, Zone Labs Client, VirusScan Online, VSOCheck Task, MCAgentExe, MCUpdateEXE, MPFExe, MPSExe, McVsRte, TrueVector, ccRegVfy, ccEvtMgr, Nisum, ccPxySvc, SchedulingAgent. Host I.P.: 127.0.0.1, HacKers Shield]. Il sito è in OPEN-SOURCE; qualsiasi parte può venire copiata e/o pubblicata e diffusa con qualsiasi Mass Media. -fermo restando che se vi è diffusione di immagini, filmati o parti scritte protette da copyright, queste DEVONO essere necessariamente diffuse citando la fonte di provenienza e avvisando che vi è copyright !!- . Per maggiori dettagli, contattatemi al cell.: 3473027865 (Vodafone)... AVVISO: La maggior parte degli utenti sa destreggiarsi bene con concetti come freeware, shareware, cookies, lettori multimediali, contenuti interattivi e condivisione di file. Ciò che forse non tutti sanno però è che alcuni di questi elementi possono contenere codici o componenti che consentono agli sviluppatori di questi strumenti e applicazioni di raccogliere e diffondere informazioni relative ai loro utilizzatori -- non è il caso di questo sito --. Essi possono infatti registrare le preferenze dei siti visitati dall'utente e inviare queste informazioni a terzi, nonché prendere nota delle preferenze relative ai suoi acquisti online, ridefinire la pagina iniziale del suo browser, alterare importanti file di sistema; tutto questo, senza che l'utente se ne accorga. Le implicazioni di questo tipo di operazioni sul piano della sicurezza e della privacy sono ovvie e certamente indesiderate per qualsiasi sistema o rete. Non sarebbe male disporre di uno SPY per eliminare tali problemi. Consiglio di scaricare la versione free di Ad-Aware Se Personal >>[Software Publisher's Description: With the ability to scan your RAM, registry, hard drives, and external storage devices for known data-mining, advertising, and tracking components, Ad-aware SE easily can clean your system, allowing you to maintain a higher degree of privacy while you surf the Web. Ad-Aware SE Personal Edition boasts a number of improvements. Extended memory scanning now scans all modules loaded by a process. Scanning uses the all- new CSI (Code Sequence Identification) technology to identify new and unknown variants of known targets. Extended registry scanning now scans registry branches of multiple-user accounts and performs additional smart checks to detect dynamically created references. Scanning speed is noticeably faster, and this version offers an Extended Scanning mode for known and unknown/possible browser hijackers.]<<
IMPORTANTE: Il sito è stato progettato per una risoluzione grafica 1152 x 864 pixel. Tutte le pagine sono visibili -correttamente- anche con risoluzione 1024 x 768 pixel.
ALCUNE VISITE ECCELLENTI...
[X]-Salta presentazione. (Vai subito alla MAPPA della PAGINA)...
About my job... The subjects: I have been working on aree: Cosmology; statistics of the cosmic microwave background fluctuations, in particular I am part of the WMAP science team; use of higher order correlations in cosmology; nature of the primordial fluctuations: the initial conditions for cosmological structure formation; clusters scaling relations; statistical analysis of large-scale structure; relationship between the clustering properties of visible matter and of the dark matter; problems for CDM: galaxy cusps and dwarf galaxies. I have been working on BOREXino experiment at "Laboratori Nazionali del GranSasso" (LNGS), in particular to study the Solar neutrino problem, neutrino magnetic moment, double beta decay, cosmological implications, etc.; Today, I'm working on AURIGA experiment at Legnaro -INFN Padova- and Elettra -Trieste-. I'm a part of the IRA science team (Istituto di RadioAstronomia) -Stazione di Medicina- Bologna - CNR- to study H2O MASER sources....[COSMIC MASER: Some nebular regions and stellar atmospheres emit intensely in the microwaves. Such cancellation is generated from effect maser, that it is the equivalent for the microwaves of the effect laser for the visible one.]. Currently I am interested in the following fields of research: astrophysical and computational fluid mechanics, in particular; radio galaxies, galaxy clusters, cooling flows [Cooling flows: The gas permeating clusters of galaxies often shows a peak in the X-ray surface brightness which is interpreted as evidence for a cooling flow. In the picture of a cooling flow radiative cooling in the central regions of a cluster causes a slow subsonic inflow of gas which deposits mass at a rate of 10-1000 solar masses/yr. However, searches in all wavebands for the cooled material have revealed significantly less gas than predicted. The X-ray observatories Chandra and XMM have shown that the spectra from cooling flow regions show a remarkable lack of emission lines from gas with a temperature below about 1 keV. At the same time it has been noted that cooling flow clusters often host strong radio sources at their centres. These radio sources inflate large bubbles of hot plasma that subsequently rise through the cluster atmosphere, thus mixing and stirring the cluster atmosphere.], radio relics [Radio Relics: The jets of powerful radio galaxies inflate large cavities in the IGM that are filled with relativistic particles and magnetic fields. Synchrotron emission at radio frequencies reveals the presence of electrons with energies of the order of GeVs. These electrons have radiative lifetimes of the order of 100 Myr before radiative losses cause their radio emission to fade until they can no longer be observed. The remnants of radio galaxies and quasars are called 'fossil radio plasma' or a 'radio ghosts'. For some years now, astronomers have observed faint, extended radioemission that cannot be linked to any nearby galaxy. Several ofthese mysterious objects have been observed and they have been called radio relics. The so-called cluster radio relics are typically located near the periphery of the cluster; they often exhibit sharp emission edges and many of them show strong radio polarisation. It has also been noted that the location of some radio relics coincide with the location of shock waves that are produced by collisions between clusters of galaxies.], helioseismology [Helioseismology: Another very important area of research is developing techniques to analyse solar oscillations. Helioseismology investigates the internal structure of the Sun by studying the oscillations of the solar surface. Using theories for wave propagation in turbulent media, I have studied the interaction of sound waves with the turbulence in the solar convection zone. The sound waves are scattered by the turbulent eddies in the solar convection region causing temporal fluctuations of the cross-correlation signal between two points on the solar surface. Hence one could probe, both, the strength and the scaling of the convection by measuring the variation in the correlation. By examining wave paths of different lengths, fluctuations on several different scales can be addressed. By using wavepaths that penetrate to greater and greater depths the spatial variation of turbulence can be studied and one can search for latitudinal variations of the convection. The ultimate goal would be to invert the scintillation of the correlation function for the structure of the turbulence beneath the solar surface. A related research area which I am actively involved in is time-distance seismology of sunspots. Only recently, with the advent of new instruments allowing observations of high spatial resolution, has it become possible to study oscillations locally. When two distinct points on the solar surface are cross-correlated it is found that the cross-correlation is maximal for a certain time lag which is identified with the time a disturbance takes to travel from the one point to the other. Subsurface flows and active regions such as sunspots alter the travel time of waves with respect to the quiet sun and could thus be detected seismically. I am developing an asymptotic theory on how to interpret the seismic signatures of these active regions.] ,space plasma research. I am developing algorithms that will efficiently and accurately group similar images in a database. We are using over 150 ROSAT X-ray images of galaxy clusters as the “test bed”. X-ray images of galaxy clusters have a variety of morphologies that reflect the specific evolutionary point in the formation of the cluster. For example, a bimodal system in which two cluster components have nearly equal luminosity, separation of less than 3 million light years, and nearly circular shape represents a distinct pre-merger epoch of cluster evolution that is seen in Cold Dark Matter and related hydrodynamic [Hydrodynamical Simulations: With the advent of powerful computers and more accurate algorithms, simulations of astrophysical fluids have become increasingly useful. Most fields of astrophysics, such as solar physics, star formation, stellar evolution and cosmology have benefitted greatly from hydrodynamical simulations and hopes for further advances are high. Essentially, there are two main approaches to the numerical solution of the equations of hydrodynamics: Finite-grid simulations and Smoothed Particle Hydrodynamics (SPH). In the former approach the equations are discretised on a computational mesh before they are solved. The latter method avoids the notion of a mesh and employs particles to track the fluid. Both methods have different strengths and weaknesses but we are mostly concerned with grid-based codes. These have proven especially useful for discontinuous flows where shock-capturing advection schemes yield much greater accuracy than SPH codes. Moreover, it is generally easier to add more physics such as magnetic fields or radiation to the grid-based codes than to SPH codes. One of the main challenges in the simulation of astrophysical fluids is to bridge the gap between the simulation of the mascroscopic flow and different microphysical processes, such as nuclear reactions, X-ray and radio emission, just to name a few. The scales of the macroscopic flow and the microphysical processes are separated by many orders of magnitude, yet both 'worlds' are tightly interlinked. Many problems in numerical hydrodynamics require a high resolution in order to describe the evolution of the system accurately enough. In turn, the use of large grids implies high demands in terms of both, computer memory and CPU time. One numerical technique which has been developed to increase the efficiency of these finite-difference simulations is the method of adaptive mesh refinement (AMR). In these codes the computational grid is continually adapted to the flow and resolution elements are only placed where they are needed. One of the most challenging problems in computational science to which AMR is being applied is numerical modeling of combustion. Calculations of combustion processes often include a well-defined flame front; focusing the computing power on the flame, where hundreds or thousands of chemical reactions may be taking place, results in large savings in computing time and memory. As the flame develops and moves through the domain, the finer meshes automatically move with it, allowing researchers to achieve unprecedented temporal and spatial resolution of the internal flame structure.], n-body simulations of the Universe. I investigate the nature of the point-like optical nuclei that have been found in the centres of the host galaxies of a majority of radio galaxies by the Hubble Space Telescope. I examine the evidence that these optical nuclei are relativistically beamed, and look for differences in the behaviour of the nuclei found in radio galaxies of the two Fanaroff-Riley types. I also attempt to relate this behaviour to the properties of the optical nuclei in their highly beamed counterparts (the BL Lac objects and radio-loud quasars) as hypothesized by the simple Unified Scheme. Simple model-fitting of the data suggests that the emission may be coming from a non-thermal relativistic jet. It is also suggestive that the contribution from an accretion disk is not significant for the FRI objects and for the narrow-line radio galaxies of FRII type, while it may be significant for the Broad-line objects, and consistent with the idea that the FRII optical nuclei seem to suffer from extinction due to an obscuring torus while the FRI optical nuclei do not. These results are broadly in agreement with the Unified Scheme for radio-loud AGNs. The life is strange... my surname is collected and placed on the STARDUST spacecraft, which visited Comet Wild 2 in January 2, 2004... It is nice ;-) In fact a relative of mine has fought in Vietnam. He died on the battlefield with honor. Let me remeber a Irish song: "[...] I wait here in this hole Playing poker with my soul. I hold the rifle close to me, It lights the way to keep me free. If I die in a combat zone, Box me up and ship me home. If I die and still come home, Lay me where the rose is sown. Sons of men who stand like gods, We give life to feed the cause, And run to ground our heathen foe, Our name will never die. This time will be forever.[...]". The chip name, placed and collected, never die. [Stardust has traveled about 3.22 billion kilometers (2 billion miles) since its launch on February 7, 1999. As it closed the final gap with its cometary quarry, it endured a bombardment of particles surrounding the nucleus of comet Wild 2.]
clicca sui collegamenti per osservare la posizione della cometa WILD-2. |
Before the Stardust spacecraft's successful encounter with comet Wild 2 on January 2, JPL mission navigator Dr. Shyam Bhaskaran gave a preview of the navigation know-how required for such a mission.
WMAP Overview |
The WMAP (Wilkinson Microwave Anisotropy Probe) mission is designed to determine the geometry, content, and evolution of the universe via a 13 arcminute FWHM resolution full sky map of the temperature anisotropy of the cosmic microwave background radiation. The choice of orbit, sky-scanning strategy and instrument/spacecraft design were driven by the goals of uncorrelated pixel noise, minimal systematic errors, multifrequency observations, and accurate calibration. The skymap data products derived from the WMAP observations have 45 times the sensitivity and 33 times the angular resolution of the COBE DMR mission. The WMAP mission characteristics are summarized in the table below.
WMAP Mission Characteristics: | |||||
K-Banda | Ka-Banda | Q-Banda | V-Banda | W-Banda | |
Wavelength (mm)b | 13 | 9.1 | 7.3 | 4.9 | 3.2 |
Frequency (GHz)b | 23 | 33 | 41 | 61 | 94 |
Bandwidth (GHz)b, c | 5.5 | 7.0 | 8.3 | 14.0 | 20.5 |
Number of Differencing Assemblies | 1 | 1 | 2 | 2 | 4 |
Number of Radiometers | 2 | 2 | 4 | 4 | 8 |
Number of Channels | 4 | 4 | 8 | 8 | 16 |
Beam size (deg)b, d | 0.88 | 0.66 | 0.51 | 0.35 | 0.22 |
System temperature, Tsys (K)b, e | 29 | 39 | 59 | 92 | 145 |
Sensitivity (mK sec½ )b | 0.8 | 0.8 | 1.0 | 1.2 | 1.6 |
Sky coverage | Full sky |
Optical system | Back-to-Back Gregorian, 1.4 x 1.6 m primaries |
Radiometric system | differential polarization sensitive receivers |
Detection | HEMT amplifiers |
Radiometer Modulation | 2.5 kHz phase switch |
Spin Modulation | 0.464 rpm = ~ 7.57 mHz spacecraft spin |
precession Modulation | 1 rev hr -1 = ~ 0.3 mHz spacecraft precession |
Calibration | In-flight: amplitude from dipole modulation, beam from Jupiter |
Cooling system | passively cooled to ~ 90 K |
Attitude control | 3-axis controlled, 3 wheels, gyros, star trackers, sun sensors |
Propulsion | blow-down hydrazine with 8 thrusters |
RF communication | 2 GHz transponders, 667 kbps down-link to 70 m DSN |
Power | 419 Watts |
Mass | 840 kg |
Launch | Delta II 7425-10 on June 30, 2001 at 3:46:46.183 EDT |
Orbit | 1° - 10° Lissajous orbit about second Lagrange point, L2 |
Trajectory | 3 Earth-Moon phasing loops, lunar gravity assist to L2 |
Design Lifetime | 27 months = 3 month trajectory + 2 yrs at L2 |
a
Commercial waveguide band designations used for the five MAP
frequency bands |
||
b Typical values
for a radiometer are given. |
||
c Effective signal
bandwidth. |
||
d The beam patterns are not Gaussian, and thus are not simply specified. The size given here is the square- root of the beam solid angle. | ||
e Effective system temperature of the entire system. |
L'antenna per onde gravitazionali AURIGA |
Una attività sviluppata presso i Laboratori Nazionali di Legnaro, di argomento non legato alla fisica del nucleo, è la ricerca di onde gravitazionali con l'apparato AURIGA (Antenna Ultracriogenica Risonante per l'Indagine Gravitazionale Astronomica). AURIGA è un'antenna gravitazionale installata nei Laboratori, e appartiene all'ultima generazione di antenne ultracriogeniche raffreddate a circa un decimo di grado Kelvin. Il criostato è composto da contenitori concentrici via via più freddi dall'esterno all'interno, dove si trova l'antenna cilindrica di alluminio, del peso di 3 tonnellate. I contenitori sono appesi l'uno all'altro con cavi in modo da isolare l'antenna dalle vibrazioni meccaniche dell'ambiente esterno. Un trasduttore elettromeccanico converte l'energia vibrazionale meccanica in un segnale elettrico, a sua volta accoppiato ad uno SQUID, che funziona da preamplificatore. L'antenna, può rivelare il tempo di arrivo dell'impulso energetico gravitazionale con una risoluzione di meno di 100 µs, rivelelando impulsi di onde gravitazionali come quelle originate da supernove di tipo II, o dalla fase finale della coalescenza di sistemi binari di stelle di neutroni.
NOTA: L'attività di ricerca è principalmente focalizzata su esperimenti volti alla rivelazione delle onde gravitazionali. Il Gruppo contribuisce allo sviluppo, alla realizzazione a al funzionamento di rivelatori di onde gravitazionali, sia basati a terra che spaziali: disegno dell'interferometro LISA, missione congiunta ESA/NASA, e sviluppo della tecnologia rilevante (sensori inerziali), disegno del dimostratore in volo della tecnologia di LISA (LTP) che volerà a bordo della missione spaziale SMART-2, per il quale il gruppo ha responsabilità di Principal Investigator (LISA technology package architect sotto contratto ESA). Funzionamento e miglioramento del rivelatore criogenico a barra risonante AURIGA e ricerca e sviluppo su rivelatori acustici innovativi a larghissima banda. Lo sviluppo di sistemi quali sensori ed amplificatori a bassissimo rumore è connesso con studi sulle fluttuazioni termodinamiche e quantistiche in sistemi di materia condensata e con le limitazioni che questi fenomeni impongono ad esperimenti di fisica fondamentale.
MAPPA della PAGINA: Asimmetria materia-antimateria... Agg. 22.06.2004
ASIMMETRIA MATERIA-ANTIMATERIA
[X]-Clicca sulla X per avere la versione intergrale del testo scorrevole.
E' noto che nel brodo primordiale particelle ed antiparticelle esistessero in uno stesso numero, senza che ce ne fosse un tipo privilegiato. Ma quando la temperatura a cominciato a scendere cos'è stato a privilegiare la materia sull'antimateria ?
Questa domanda coinvolge direttamente uno dei campi di ricerca più attivi, attuali ed interessanti della fisica moderna. Premettendo che non esiste a tuttoggi una risposta completa ed esaustiva al quesito, cercherò di fare una breve ed "incompleta" panoramica: un'analisi accurata richiederebbe conoscenze di fisica delle alte energie e cosmologia che esulano (per il momento -al 16.07.2004- questa chiarificazione, può essere omessa, dato che il sito ha superato, di molto, le aspettative tecnico-divulgative poste in essere ne primi giorni del secolo corso -2000 a.D. -.) dagli obbiettivi del sito.
1)-Asimmetria Barionica. Asimmetria di materia su antimateria significa preponderanza di barioni su antibarioni. Quella dei barioni è la famiglia delle particelle di cui fanno parte protoni e neutroni. Occorre sottolineare che non è dato per scontato che ci sia più materia che antimateria nell' universo. Nelle vicinanze della Terra non ci sono dubbi: la materia domina. La Luna ed il sistema solare sono fatti di (quella che noi chiamiamo) materia, infatti uomini e sonde mandate in esplorazione di questi astri non sono spariti per annichilazione. La nostra GALASSIA è quasi certamente fatta di materia, come inficiamo dalla composizione dei raggi cosmici di origine galattica. Per galassie lontane non c'è prova diretta. L'osservazione della radiazione emessa non dice nulla: i fotoni sono esattamente uguali agli antifotoni (il fotone è l'antiparticella di se stesso). Quindi l'uso del telescopio spaziale non aiuta a capire se l'universo lontano o parti di esso siano costituiti da materia o antimateria. Tuttavia, ci sono vari elementi che, più o meno indirettamente, portano ad escludere lo scenario in cui esistono parti di universo dominate da materia e parti dominate da antimateria. Per esempio, dovremmo osservare i lampi emessi dall'occasionale annichilazione di materia ed antimateria. Inoltre, è improbabile che grandi porzioni di materia si siano separate abbastanza velocemente da analoghe porzioni di antimateria in seguito al Big Bang. Tutto sembra corroborare l'ipotesi che l'Universo attuale sia dominato da materia. Occorre sottolineare che, per generare l'attuale asimmetria, è sufficiente uno sbilancio incredibilmente piccolo. Sarebbe bastato che per ogni 30 milioni di antibarioni ci fossero stati 30 milioni ed 1 barione nel primo microsecondo dell'universo.
INCISO: I barioni sono una famiglia di particelle subatomiche che comprende i protoni, i neutroni (collettivamente chiamati nucleoni), e una serie di particelle pesanti e instabili (chiamate iperioni). Il termine "barione" deriva dal greco barys, che significa "pesante", in quanto sono più pesanti degli altri gruppi di particelle. I barioni sono fermioni ad interazione forte, ovvero, sono soggetti alla forza nucleare forte e sono descritti dalla statistica di Fermi-Dirac , che si applica a tutte le particelle che obbediscono al principio di esclusione di Pauli. Questo, in contrasto con i bosoni, che invece non rispettano il principio di esclusione. I barioni, assieme ai mesoni, appartengono alla famiglia delle particelle note come adroni, ovvero le particelle composte da quark. I barioni hanno tre quark, mentre i mesoni hanno un quark e un anti-quark e quindi sono bosoni. In aggiunta ai nucleoni (protoni e neutroni), altri membri della famiglia dei barioni sono le particelle lambda, sigma, delta, xi, e N.
I raggi cosmici e l'ANTIMATERIA
L'equazione del comportamento delle particelle cariche relativistiche, descritta da Dirac, presuppone l'esistenza di uno stato a energia negativa: ad esempio l'anti-elettrone (o positrone) è una particella avente le stesse caratteristiche dell'elettrone in massa, ma carica opposta. Attualmente si ritiene che il mondo e tutti i fenomeni che in esso avvengono siano composti a partire da alcuni mattoni fondamentali, i quark leggeri u, d e gli elettroni. Quantità minime delle rispettive antiparticelle, antiquark e antielettroni si trovano in particolari intervalli di tempo e in poche località terrestri, prodotte in laboratori, quali per esempio il CERN (Ginevra), il FermiLab (Chicago), SLAC (Stanford), LNF (Frascati) e a Novosibirsk (Russia). I raggi cosmici della Galassia contengono una frazione di antiprotoni e positroni, rispettivamente in quantità circa un decimillesimo ed un decimo rispetto alle corrispondenti particelle. Questa quantità ragguardevole di antimateria è, entro le incertezze dei dati sperimentali, compatibile con la produzione di antimateria negli urti dei protoni primari dei raggi cosmici con gli atomi di idrogeno negli spazi interstellari della Via Lattea. Lo studio degli antiprotoni richiede esperimenti fuori dell'atmosfera e con strumentazione abbastanza sofisticata. I primi esperimenti significativi sono stati intrapresi con palloni stratosferici, seguendo i suggerimenti di Luis Alvarez. Ottimi risultati sugli antiprotoni sono stati ottenuti dalla collaborazione Wizard in particolare con la missione CAPRICE, nella quale l'INFN ha partecipato con un elevato numero di afferenti, e dalla collaborazione BESS, che ha invece coinvolto il Giappone e gli Stati Uniti. Se nella ricerca di antimateria cosmica si trovasse una traccia di antielio, superiore a 10-12 rispetto all'elio, non sarebbe possibile darne spiegazione utilizzando la produzione secondaria, il che ci porta inevitabilmente a concludere che in qualche parte dell'universo esisterebbe, allora, una componente macroscopica di antimateria. Gli esperimenti su pallone ed il volo ingegneristico della missione AMS sullo Shuttle nel 1998 hanno prodotto, finora, un limite sul rapporto tra elio e antielio pari a 10-6. La missione AMS, la cui installazione sulla Stazione spaziale internazionale è fissata per il 2004, sarà in grado di misurare il rapporto antielio/elio fino a un fattore dell'ordine di 10-9. Anche in questo caso l'INFN ha investito le sue risorse culturali e tecnologiche. Prima che AMS giunga in orbita, il gruppo Wizard ha lanciato nello spazio PAMELA, un satellite in grado di osservare l'antimateria protonica, elettronica e dell'elio in un intervallo di energia molto ampio, con l'intento di osservare la componente più energetica dell'antielio, l'unica in grado di pervenire da eventuali anti-galassie lontane.
INCISO: Raggi cosmici dal Sistema solare. I raggi cosmici anomali sono costituiti da particelle che il vento solare riesce a accelerare a altissima velocità. Recentemente, un team di astronomi del Southwest Research Institute di San Antonio, in Texas, ha scoperto che una fetta di questi raggi proviene dai corpi celesti vaganti nella Fascia di Kuiper.
Con questa scoperta, si è potuto osservare come la polvere cosmica mantiene un ruolo preponderante nel generare particelle energetiche. Inoltre, sono le collisioni fra gli oggetti della Fascia di Kuiper a produrre i grani di polvere. Quando il moto di questi grani si orienta verso il Sole, essi ricevono un bombardamento da parte delle particelle che compongono il vento solare e vengono ionizzati dalle radiazioni. La ricerca è stata divulgata dalla rivista "Geophysical Research Letters".
NOTA: La Fascia di Kuiper è una regione del Sistema Solare che si estende dall'orbita di Nettuno (alla distanza di 30 UA) fino a 50 UA dal Sole. Si tratta di una fascia di asteroidi esterna rispetto all'orbita dei pianeti maggiori. Nella fascia sono stati scoperti più di 800 oggetti (Kuiper belt objects, o KBOs). Il più grande è in realtà il pianeta "ordinario" Plutone, assieme al suo satellite Caronte, ma a partire dall'anno 2000 sono stati trovati altri oggetti di dimensioni ragguardevoli: Quaoar, scoperto nel 2002, è grande la metà di Plutone, e quindi è più grande del maggiore degli asteroidi tradizionali, 1 Ceres. Gli altri KBOs sono progressivamente più piccoli. L'esatta classificazione di questi oggetti non è chiara, perché sono probabilmente molto differenti dagli asteroidi più interni. La maggior parte dei KBOs, come si è visto usando la spettroscopia, sono pezzi di ghiaccio con del materiale organico (contenente carbonio). Hanno la stessa composizione delle comete, e molti astronomi pensano che siano appunto comete che, non avvicinandosi mai al Sole, non emettono la loro coda. La distinzione tra cometa e asteroide non è molto chiara e le incertezze abbondano, come mostrato dal caso dell'asteroide 2060 Chirone. Simulazioni al computer hanno mostrato che la fascia di Kuiper si è formata sia a causa di Giove (all'inizio della storia del Sistema Solare, la considerevole gravità del pianeta ha fatto sì che molti piccoli oggetti fossero espulsi dalle regioni interne del sistema, ma non completamente), sia spontaneamente. Le stesse simulazioni e altre teorie predicono che nella fascia dovrebbero trovarsi anche oggetti di massa considerevole, paragonabili a Marte o alla Terra. Alcuni KBOs hanno orbite eccentriche e intersecano quella di Nettuno. Questi oggetti si trovano in risonanza orbitale, in vari rapporti: 1:2, 2:3 (questo è il caso di Plutone, e di oggetti simili chiamati plutini), 2:5, 3:4, 3:5, 4:5, 4:7. Questa fascia non deve essere confusa con la nube di Oort, che non si trova solo sul piano generale del Sistema Solare, ed è molto più distante. I primi astronomi a suggerire l'esistenza di questa fascia furono Frederick C. Leonard nel 1930 e Kenneth E. Edgeworth nel 1943. Nel 1951, Gerard Kuiper suggerì che gli oggetti non si trovavano più nella fascia. Congetture più dettagliate furono esposte da Al G. W. Cameron nel 1962, Fred L. Whipple nel 1964, e Julio Fernandez nel 1980. La fascia e gli oggetti in essa contenuti furono chiamati col nome di Kuiper dopo la scoperta di 1992 QB1, il primo oggetto conosciuto. È difficile stimare il diametro dei KBOs. Per oggetti di cui si conoscono molto bene gli elementi orbitali (in pratica, solo Plutone e Caronte), i diametri possono essere misurati con precisione dall'occultazione delle stelle. Per altri KBOs di grandi dimensioni, il diametro può essere stimato da misure termiche nell'infrarosse. Se un corpo ha un alto albedo, finisce con l'essere freddo, e quindi non produce molta radiazione nell'infrarosso. Al contrario, un albedo basso produce più radiazione infrarossa. I KBOs sono così lontani dal sole da essere molto freddi, e producono una radiazione con una lunghezza d'onda attorno ai 60 micrometri. Questa radiazione è assorbita dall'atmosfera terrestre, e quindi non può essere osservata: gli astronomi devono quindi osservare la radiazione residua nel lontano infrarosso, e il diametro stimato è affetto da una grossa incertezza. Inoltre, la radiazione emessa è molto debole e solo i più grandi KBOs possono essere osservati con questo metodo.
Cenni storici... (alla scoperta dei Raggi Cosmici)
L'invisibile pioggia di particelle che arriva a terra in ogni istante è un messaggio che l'universo regala A noi scienziati per parlare di sé. Raggi cosmici, questo è il loro nome, ed evoca la loro provenienza, ma non la loro origine, ricorda i raggi del Sole, ma non si tratta solo di fotoni. Quando furono scoperti era il 1912. Allora l’unica particella nota era l'elettrone, Niels Bohr non aveva ancora presentato la sua teoria atomica e la descrizione quantistica del microcosmo era ancora lontana. In quel periodo si indagava sull’origine dei fenomeni radioattivi, che risultavano onnipresenti ed ineliminabili anche con schermature. L'austriaco Victor Hess iniziò una serie sistematica di esperimenti salendo in quota con dei palloni, per individuare la sorgente della radioattività. Misure dettagliate permisero ad Hess di dichiarare con certezza: "I risultati delle presenti osservazioni possono essere spiegati ammettendo la presenza di una radiazione estremamente energetica che penetra l'atmosfera e, interagendo, provoca la ionizzazione dell'aria così come essa viene osservata". Per Hess si trattava di raggi gamma, gli stessi osservati nel decadimento radioattivo naturale; della stessa idea era Robert Millikan, che nel 1925 li chiamò, appunto, cosmic radiation o cosmic rays. Questa analogia accompagnò da subito gli scienziati, che, in quegli anni, stavano cercando di comprendere la natura dell'atomo. Si era ancora lontani dalla costruzione di grandi acceleratori, esistevano allora solamente pionieristici rivelatori costituiti da camere a nebbia, dove le particelle lasciavano la loro traccia a goccioline, passando attraverso un gas in sovrapressione, e contatori Geiger, in cui le particelle producono una scarica elettrica. Impilando contatori Geiger a formare “telescopi”, Walther Bothe e Werner Kolhörster nel 1928 provarono la natura corpuscolare dei raggi cosmici; il loro risultato venne confermato ed approfondito a Firenze da Bruno Rossi, che sviluppò dei circuiti elettronici per studi sistematici dei raggi cosmici. Fino agli anni ‘50, i raggi cosmici rimasero la sola sorgente naturale di particelle di alta energia, in grado di produrre nuove specie materiali. Permisero così la prima osservazione sperimentale di due fondamentali scoperte nel campo della fisica delle particelle: l'antimateria e il processo di decadimento del pione. Nel 1932 Carl Anderson osservò delle particelle cariche positivamente, che lasciavano nella camera a nebbia la stessa traccia degli elettroni. I suoi risultati furono convalidati nel 1933 da Patrick Blackett e Giuseppe Occhialini che riconobbero in esse l’antielettrone o positrone proposto teoricamente da Paul Dirac, osservando la conversione di fotoni di alta energia in coppie elettrone-positrone. Particella predetta nel 1936 da Hideki Yukawa, il pione si osservò sperimentalmente solo nel 1947 da parte di Cecil Frank Pawel, Occhialini e Cesar Lattes, utilizzando speciali emulsioni fotografiche per registrare la produzione di pioni da parte dei raggi cosmici e il loro successivo decadimento in muoni, che a loro volta decadono in elettroni (o positroni) e in neutrini. L'osservazione di sciami di particelle prodotte nelle camere a nebbia suggerì che gli stessi raggi cosmici, così come arrivavano a terra, dovevano essere il prodotto di interazioni e decadimenti successivi generati nell'interazione con l'atmosfera. La distinzione tra raggi cosmici primari e secondari, terziari e di livelli successivi emerse rapidamente. Si pose inevitabilmente la questione sull'origine e la provenienza dei raggi primari. Le ipotesi che vennero avvalorate proposero come possibile sorgente e sede dell'accelerazione dei raggi cosmici inizialmente il Sole (Teller), poi la galassia (Fermi) e infine Cocconi nel 1956 notò che la componente più energetica aveva caratteristiche extragalattiche. Era necessario aspettare l'inizio della conquista dello spazio per comprendere più a fondo la provenienza dei raggi cosmici. Quarant'anni di missioni spaziali non sono molti, ma hanno suggerito agli scienziati di cercare e verificare nell'universo proprietà fondamentali nello studio di oggetti celesti, come buchi neri, stelle di neutroni e sorgenti extragalattiche lontane nello spazio e nel tempo. Ai raggi cosmici l'onore di essere i messaggeri di quell'informazione che la tecnologia non potrà mai realizzare, una macchina del tempo, efficiente e poco dispendiosa, a disposizione di noi scienziati e di tutti gli interessati a leggere il libro dell'universo, delle sue leggi e della sua storia.
I raggi cosmici e gli sciami atmosferici
Le prime evidenze di una componente molto energetica dei raggi cosmici e la scoperta degli sciami atmosferici portano la data del 1930 quando il gruppo di scienziati guidato da Pierre Auger osservò coincidenze tra contatori di particelle separati tra loro sino a distanze di 300 metri. Queste coincidenze furono propriamente interpretate come il risultato di sciami estesi generati nell'atmosfera dai raggi cosmici primari nel loro viaggio verso la superficie terrestre. Nel 1949 lo studio degli sciami estesi era diventata una tecnica capace di quantificare l'energia dei raggi primari con circa il 30 per cento di precisione. Nello stesso anno, Enrico Fermi da Chicago propose l'esclusione degli elettroni come primari in una lettera di risposta a Giuseppe Cocconi, che al tempo si trovava alla Cornell University di New York, suggerendo inoltre di abbandonare le ipotesi di Edward Teller sull'origine locale dei raggi cosmici, per seguire la strada dell'origine galattica. Teller giustificava la sua posizione con considerazioni di natura energetica. Calcolando, infatti, dal flusso di raggi cosmici la densità di energia misurata nelle vicinanze della terra e moltiplicata per il volume della Via Lattea si trova un valore totale di energia talmente alto, giustificabile solamente presupponendo la localizzazione dei raggi cosmici nel sistema Solare. Passarono pochi anni e nel 1956 Cocconi presentò l'ipotesi avvalorata sperimentalmente che i raggi cosmici, di energia superiore ai 1018 eV possono essere accelerati negli spazi intergalattici, divenendo così i principali messaggeri dell'informazione a distanze extragalattiche. La strada però era ancora in salita. Infatti, l'osservazione sperimentale dei raggi cosmici di energia superiore ai 1020 eV è estremamente complessa perché la loro frequenza di arrivo al suolo è molto bassa (dell'ordine di uno al km2 al secolo). Due sono attualmente le strategie che gli scienziati stanno percorrendo: da una parte costruire strumenti con ampie superfici di raccolta per i raggi cosmici, dall'altra mandare i rivelatori nello spazio. In entrambi i casi l'INFN si è e si sta impegnando a dare il suo sostegno intellettuale, scientifico e finanziario, partecipando alla realizzazione del progetto AUGER così chiamato in onore del fisico francese e di EUSO (Extreme Universe Space Observatory) un rivelatore per raggi cosmici di altissima energia ospitato sulla Stazione Spaziale Internazionale. AUGER (vedi anche[PDF-file]: L'osservatorio per raggi cosmici AUGER e anche il link(s): AUGER.ORG CERN-courier) sarà il più grande osservatorio del mondo. Con i suoi 3000 km2 (quasi dieci volte Parigi) e 1600 rivelatori, ha consentito, dal 2001, di determinare con estrema accuratezza la direzione, l'energia e la massa dei raggi cosmici, parametri necessari per comprendere meglio i meccanismi di accelerazione più potenti nell'universo, per studiare le isotropie e dare spiegazioni alle strutture di larga scala, per far svelare i segreti passati del cosmo ai neutrini. A partire dal 2007 EUSO, invece, punterà lo sguardo agli estremi confini del mondo fisico, ai primi istanti dell'universo. Osservando la fluorescenza, prodotta nell'atmosfera da sciami generati da raggi cosmici e da neutrini di energie estreme e focalizzata con una grande lente ottica di Fresnel sul piano del rivelatore, consentirà di ricostruire la direzione di arrivo dello sciame e la sua energia con estrema precisione.
Sorgenti puntiformi di raggi cosmici
Le particelle di origine cosmica che osserviamo da terra sono principalmente i prodotti delle interazioni dei raggi cosmici primari con l'atmosfera. Lo studio della componente primaria ha richiesto di porre delicate strumentazioni su palloni atmosferici e su satelliti. Grazie a queste misurazioni, dopo quasi un secolo dalle misure di Hess, si conoscono molti dettagli delle proprietà dei raggi cosmici quali la loro distribuzione spettrale e la loro composizione. La componente principale dei raggi cosmici primari sono i protoni e gli atomi di elio. La percentuale degli altri elementi è pressoché analoga a quella presente nel sistema solare, tranne che per il litio, il berillio e il boro, eccessi probabilmente prodotti dalle interazioni dei protoni con il materiale presente nello spazio interstellare. Lo studio di queste abbondanze e l'analisi delle vite medie di alcuni di essi hanno suggerito che la gran parte dei raggi cosmici sia concentrata all'interno nella Galassia. Ulteriore conseguenza delle loro interazioni con la materia interstellare è la produzione di una intensa radiazione gamma, derivante dal decadimento del pione neutro. Se si osserva, quindi, la Galassia in queste lunghezze d'onda (da 100 MeV in su), la componente dominante è proprio il bagliore concentrato attorno al piano galattico, in cui le interazioni dei raggi cosmici e i processi che coinvolgono gli elettroni presenti nella radiazione cosmica fanno la parte del leone. Essi interagiscono con i campi elettromagnetici e con la materia dello spazio interstellare e con la stessa radiazione prodotta dalle stelle dando origine alla radiazione gamma. La possibilità di osservare tali lunghezze d'onda, invisibili da terra, ha permesso di studiare la percentuale di raggi cosmici e la stessa struttura della Via Lattea. È grazie allo sviluppo delle tecnologie spaziali, a partire dalla fine degli anni sessanta, che questa componente dello spettro elettromagnetico è divenuta accessibile. Dopo la missione statunitense SAS-2 (1972-73), che scoprì l'emissione diffusa proveniente dalla Galassia e originata da alcuni resti di supernova, furono soprattutto i satelliti COS-B, europeo, e EGRET, a bordo del Compton Gamma Ray Observatory (CGRO) statunitense, a dare un impulso decisivo a questa scienza. COS-B (1975-82), infatti, rivelò l'emissione gamma dalle pulsar - stelle di neutroni rotanti - ed individuò la prima sorgente gamma extragalattica. EGRET (1991-2000), invece, permise di delineare molto più in dettaglio l'emissione diffusa e localizzò circa trecento sorgenti puntiformi, tra cui i Gamma-Ray Bursts, misteriosi oggetti posti ai confini dell'universo; osservò inoltre l'emissione gamma prodotta dalle interazioni dei raggi cosmici presenti nelle Nubi di Magellano, galassie satelliti della Via Lattea, confermando così l'ipotesi di una origine degli stessi all'interno delle galassie. Se sono noti i meccanismi con cui i raggi cosmici interagiscono con la materia interstellare, poco noto ancora è il processo che permette di accelerarli fino alle energie con cui vengono osservati. È questo uno dei principali obiettivi scientifici delle future missioni spaziali dedicate all'astronomia gamma, in cui l'INFN sta svolgendo un ruolo decisivo. AGILE (Astrorivelatore Gamma a Immagini LEggero) e GLAST (Gamma ray Large Area Space Telescope) che volerà nel 2007, utilizzeranno la tecnologia dei rivelatori a semiconduttore. Questa tecnologia permetterà di individuare con molta più precisione la direzione di arrivo dei raggi gamma. In questo modo si potrà distinguere nel dettaglio l'emissione gamma prodotta nei resti di supernova. Si ritiene, infatti, che siano le onde d'urto prodotte da tali esplosioni a fornire l'energia ai raggi cosmici. Analoghi meccanismi sono all'opera nelle sorgenti gamma più intense, come i nuclei galattici attivi o i Gamma-Ray Bursts. Si ipotizza che siano essi ad accelerare i raggi cosmici fino alle altissime energie, e un lodevole contributo alla comprensione di questo fenomeno celeste è stato dato dalla missione spaziale per raggi X, Beppo SAX. Le future missioni per l'astronomia gamma permetteranno, allora, di esplorare sorgenti fino ai confini dell'universo, nonché di cercare di rispondere a interrogativi decisivi per la comprensione della struttura e dell'unità del cosmo, quali l'identificazione della materia oscura o la natura quantistica dello spazio tempo.
NOTA-(1): Sulla natura quantistica dello spazio tempo (alcune mie riflessioni...).
Il tentativo più elementare di discretizzare lo spazio-tempo è quello di pensarlo come un reticolo a 4 dimensioni. Tuttavia la struttura stessa di reticolo distruggerebbe l'isotropia (più propriamente l'invarianza di Lorentz) dello stesso spazio-tempo, perchè in un reticolo, fissato un punto, non tutte le direzioni che escono da quel punto sono equivalenti proprio per la non isotropica assegnazione dei punti del reticolo. Questo fatto crea diversi problemi perchè tale isotropia è di fatto osservata nel mondo reale e pertanto tale tentativo ingenuo è considerato non fisico. Ciò non esclude comunque altre possibilità. L'accezione comune della parola significa che l'oggetto quantizzato è riconducibile a qualche struttura discreta. Tuttavia questa non è l'accezione tecnica del termine. In fisica quantizzato significa che l'oggetto ricade nello schema della meccanica quantistica e questo non ha sempre a che vedere con la prima accezione del termine. Per esempio l'energia di una particella quantistica è quantizzata, ma è sbagliato in generale pensare che ciò significhi che l'energia abbia una struttura discreta. Questo è vero solo per determinati sistemi e determinati range energetici. Se interpretiamo la "quantizzazione dello spazio-tempo" nel senso proprio del termine, allora la risposta è negativa perchè il tempo non è quantizzabile nello schema usuale della meccanica quantistica mentre lo spazio si. In senso tecnico ciò significa che possiamo associare operatori autoaggiunti alle coordinate spaziali di una particella, ma non alla coordinata temporale. Esiste un teorema dovuto a Pauli che prova che dato un sistema quantistico, se il tempo è quantizzato analogamente alla posizione del sistema, ossia esiste un operatore quantistico corrispondente all'osservabile tempo e tale operatore soddisfa "relazioni di commutazione" con l'operatore energia (Hamiltoniano) in modo da produrre le solite relazioni di indeterminazione tempo-energia, allora i valori assunti dall'energia del sistema fisico considerato non ammettono limite inferiore. Questo significa che il sistema potrebbe precipitare verso livelli energetici negativi sempre piu grandi in valore assoluto emettendo per esempio fotoni di energia sempre più elevata. Questo porterebbe per esempio all'impossibilità dell'equilibrio termodinamico ed altri evidenti disastri inosservati in pratica. Si conclude che, nel senso che la parola "quantizzazione" ha significato per le altre caratteristiche fisiche dei sistemi fisici esistenti in natura, la localizzazione temporale di un sistema fisico non è quantizzabile ed il tempo deve essere visto come un parametro al contrario delle altre osservabili quali le coordinate spaziali. Anche la natura della relazione di indeterminazione tempo-energia è in questo senso molto diversa da quella delle altre relazioni posizione-impulso. Il discorso fatto però non esclude che lo spazio-tempo possa essere quantizzato nel senso più comune, cioè riveli una qualche struttura granulare a distanze molto piccole, cioè verso la scala di Planck dei tempi (5.4 x 10-44 s) e delle lunghezze (1.6 x 10-35 m). Ciò sarebbe anche auspicabile per spiegare diversi problemi che la attuale teoria dei campi quantistica presenta e forse per dare qualche senso ad una teoria quantistica della gravità. Le varie teorie delle stringhe in realtà dicono quelcosa di molto simile, in quanto la stuttura di stringa (le dimensioni in più dello spaziotempo) si collocherebbe su quelle distanze. Esistono anche altri approcci per costruire una struttura inusuale dello spaziotempo alla scala di Planck. Il punto cruciale resta comunque che la nostra tecnologia non è in grado di produrre concentrazioni di energia necessarie per investigare la struttura dello spaziotempo alla scala di Planck. Chiaramente qualunque struttura granulare o esotica dello spaziotempo si scoprisse alla scala di Planck dovrebbe essere tale da preservare la fisica come la sperimentiamo a livello atomico e sub atomico, quindi la meccanica quantistica e la relatività devono risultare ottime approssimazioni di questa eventuale nuova teoria. Non è affatto evidente capire come ciò possa essere, ma per ora il problema non si pone.
NOTA-(2): Ci poniamo la seguente domanda: "Come possiamo esser certi che la realtà sia continua ? Spingersi nell'infinitesimamente piccolo porta all'esistenza di un limite ?"... Per come è formulata la domanda, non credo si possa rispondere esaurientemente. Infatti, nella fisica moderna, non esiste un "postulato di continuità" nel senso fondamentale del termine. La meccanica classica viene giocata tipicamente su strutture regolari, ovvero più che continue. Questo però va bene perché è noto che è possibile approssimare funzioni non continue con funzioni regolari. Certo, non si possono pretendere i miracoli.... Perciò, allo scopo di rispondere (e con la presunzione di sapere quello che in realtà si voleva chiedere) provo a reinterpretare la domanda in un modo "leggermente" diverso. A questa domanda bisogna rispondere che effettivamente è possibile che ciò che ci circonda abbia una intrinseca struttura granulare. Si badi bene, non mi riferisco ad atomi, nucleoni, quark, etc., ma proprio alla possibilità che lo spazio-tempo stesso non abbia una struttura continua. Ad esempio, c'è una teoria di gravità quantistica, la "Loop Quantum Gravity", che è il tentativo più "fondamentalista" attualmente in corso di quantizzazione della gravità. Ancora purtroppo non si riesce a inserire nella teoria la materia, però già così com'è prevede che lo spazio-tempo sia fondamentalmente granulare. Tecnicamente il risultato è noto come "Quantizzazione del Volume". Ancora, una branca della matematica moderna, alla frontiera con l'analisi funzionale, la geometria, la teoria della misura, che sta prendendo sempre più piede negli ultimi anni anche nel mondo dei fisici, è la cosiddetta "Geometria NON commutativa". Casi semplici di questa "nova geometria" possono essere ottenuti ad esempio su un piano, "sostituendo" le coppie di numeri che sono le coordinate di ogni punto, con degli "operatori" che tra loro non commutano. Questa costruzione riecheggia fortissimamente la meccanica quantistica di Heisenberg, che sostituiva la posizione e l'impulso di una particella con matrici, eventualmente di rango "infinito". Così, sul "piano noncommutativo" c'è lo stesso tipo di indeterminazione nel localizzare un punto che c'è in Meccanica Quantistica nel determinare simultaneamente posizione e impulso di una particella (cioé a localizzare un punto nello spazio delle fasi). Von Neumann coniò un gioco di parole chiamando questo tipo di geometria "pointless geometry": letteralmente "geometria senza punti" (essendo essi delocalizzati), ma "pointless" in inglese significa anche "stupido"... a dire il vero credo volesse scherzare. Infatti è stato uno dei fondatori dell'idea originale. Si potrebbe anche continuare, ma preferisco fermarmi qui, perché l'intenzione era solo quella di far vedere che questa speculazione che potrebbe essere considerata oziosa in realtà può essere la conseguenza di raffinate teorie fisico-matematiche.
NOTA-(3): Loop quantum gravity: (LQG; file .PDF), also known as quantum geometry, is a proposed quantum theory of spacetime which blends together the seemingly incompatible theories of quantum mechanics and general relativity. As a theory of quantum gravity, it is the main competitor of string theory. LQG is also less ambitious than String theory, purporting only to be a quantum theory of gravity where String theory claims to be a theory of everything. Although stringy people outnumber loopy people by a factor of roughly 10, stringy papers outnumber loopy papers by a factor of roughly 50 perhaps because string theory allows for mutually exclusive and incompatible models of reality, such as the two approaches for dealing with additional 6, 7, or 22 dimensions beyond the 3 dimensions of space and one dimension of time [[3+1]] configuration, required by string theory -- Kaluza-Klein compactification, which states that the additional and thus-far unobserved dimensions required by string theory are compactified as Calabi-Yau manifolds or the braneworld approach, which states that the three large dimesions are embedded in higher-dimensional multiverse. The main successes of loop quantum gravity are: a nonperturbative quantization of 3-space geometry, with quantized area and volume operators; a calculation of the entropy of physical black holes; and a proof by example that it is not necessary to have a theory of everything in order to have a candidate for a quantum theory of gravity. Many of the most important results in LQG are established at the level of rigour of mathematical physics, while String theory is typically established at the level of rigour of theoretical physics. Its main shortcomings are: not yet having a picture of dynamics but only of kinematics; not yet able to incorporate particle physics; not yet able to recover the classical limit. Loop Quantum Gravity (LQG), rival of string theory in the quest to unite quantum mechanics with general relativity, does not suffer from certain mathematical "infinities" (corresponding to ephemeral, but numerous, alternatives in the way that interactions take place in spacetime), a new study shows. This clears up some doubts as to the theory's usefulness. What is LQG, and why has it been so difficult to quantize gravity ? To address this question, return to classical (pre-1900) physics, a regime in which space was fixed. Then the relativity and quantum revolutions changed everything utterly. With the advent of general relativity, space was combined with time in an integrated, but deformable, spacetime. Meanwhile, in quantum mechanics spacetime remains fixed but matter becomes fuzzy; the whereabouts of particles can only be expressed in terms of probability clouds. In a theory that would combine quantum and gravity features, spacetime would then have to be both deformable and fuzzy, and this has been difficult to do. In string theory, the merger is accomplished by imagining that matter ultimately consists of tiny strings. In loop theory, the merger is attempted by imagining that space itself consists of moveable tiny loops. Carlo Rovelli (Center for Theoretical Physics, Marseilles, rovelli@cpt.univ-mrs.fr, 33-0491-269644; also University of Pittsburgh) argues that loop theory does not have to import the extra commodities (additional dimensions and particles) needed by string theory and that it offers, in principle, more testable predictions, such as the idea of quantized surface areas (that is, regions of space would come in discrete chunks and there would be a minimum possible size scale) and the notion that quantized spacetime might manifest itself as a minute difference in the speed of light for different colors. The new version of loop gravity studied by Rovelli and his colleagues pictures spacetime as being foamy: points in space sometimes grow into bubbles. The bubbles are not "in" space but constitute space itself. The infinities pondered in the present paper represent not difficulties posed by the reality of particles within particles (a necessary complexity dealt with in Richard Feynman's quantum electrodynamics theory) but rather, analogously, to those potentially corresponding to interactions occurring on spacetime loops within loops. [VEDI: LOOP QUANTUM GRAVITY]
Scientists
announce cosmic ray theory breakthrough
LOS ALAMOS NATIONAL LABORATORY NEWS RELEASE
Posted: May 1, 2004
University of California scientists working at Los Alamos National Laboratory have proposed a new theory to explain the movement of vast energy fields in giant radio galaxies (GRGs). The theory could be the basis for a whole new understanding of the ways in which cosmic rays -- and their signature radio waves -- propagate and travel through intergalactic space. In a paper published this month in The Astrophysical Journal Letters, the scientists explain how magnetic field reconnection may be responsible for the acceleration of relativistic electrons within large intergalactic volumes. That is, the movement of charged particles in space that are originally energized by massive black holes. If our understanding of this process is corrects, it could be a paradigm shift in current thinking about the nature of GRGs and cosmic rays. Researchers still do not fully understand why magnetic field reconnection occurs, but this much is known: a deeper understanding of the mechanism could have important applications here on Earth, such as the creation of a system of magnetic confinement for fusion energy reactors. If the Los Alamos scientists' theory is correct, the discovery also has wide-ranging astrophysical consequences. It implies that magnetic field reconnection or some other highly efficient field-to-particle energy conversion process could be a principal source of all extragalactic radio sources, and possibly also the mysterious "Ultra High Energy Cosmic Ray particles". Giant radio galaxies are vast celestial objects that emit a continuum of radio wavelengths detectable with radio telescopes like those at the Very Large Array (VLA) in Socorro, N.M. Using comprehensive data on seven of the largest radio galaxies in the Universe gathered over the past two decades, the researchers were able to study cosmic ray energy fields that are expelled from the GRGs centers -- which are almost certain to contain supermassive black holes -- outward as much as a few millions of light years into intergalactic space (1 light year = 5,900,000,000,000 miles). What the Los Alamos researchers concluded was that the high energy content of these giant radio galaxies, their large ordered magnetic field structures, the absence of strong large-scale shocks and very low internal gas densities point to a direct and efficient conversion of the magnetic field to particle energy in a process that astrophysicists call magnetic field reconnection. Magnetic field reconnection is a process where the lines of a magnetic field connect and vanish, converting the field's energy into particle energy. Reconnection is considered a key process in the Sun's corona for the production of solar flares and in fusion experiment devices called tokamaks. It also occurs in the interaction between the solar wind and the Earth's magnetic field and is considered a principal cause of magnetospheric storms. The research determined that the measurement of the total energy content of at least one of these giant radio galaxies -- which is believed to have at its center a black hole with a mass equal to 100 million times that of our Sun -- was 1061 ergs. Ergs are a measure of energy where one erg is the amount of energy needed to lift one gram of weight a distance of one centimeter. This energy level of 1061 ergs (ten to the 61st power) is several times more than the thermonuclear energy that could be released by all the stars in a galaxy, offering substantial proof to the researchers that the source of the measured energy could not be typical solar fusion or even supernovae. In addition to the high energy content, the large, orderly structure of the magnetic field and the absence of strong large-scale shocks -- like those that might be present from a supernova explosion -- led the scientists to believe that the process of magnetic field reconnection is at work.
DIGRESSIONE...
Statistica fisica quantistica, che si applica alle particelle soggette al principio di esclusione di Pauli (ogni livello energetico può essere occupato al massimo da una particella), cioè alle particelle con spin semintero (per es., elettroni, protoni, neutroni ecc.), dette perciò fermioni. Nella quantizzazione del gas perfetto, si giunge ad un risultato che differisce da quello classico verso le alte temperature e alle forti pressioni, allo stato di forte condensazione. La deviazione dal comportamento ordinario viene identificata come degenerazione. Un indice di questa degenerazione si ha nei calori specifici dei gas monoatomici che mostrano una tendenza ad abbassarsi mentre la termodinamica classica prevedeva che il calore specifico si mantenesse costante indipendentemente dalla temperatura. L'analisi del comportamento del gas degenere è finalizzato alla ricerca del valore dell'entropia e del calore specifico. Il principio di esclusione di Pauli affermava che in un atomo, in una condizione completamente definita vi è al massimo un elettrone e quindi si potè dimostrare che la sistematica degli spettri complessi è dominata da questo principio. Fermi trasferì la regola all'insieme delle molecole che costituiscono una massa gassosa: le molecole si associano in modo che in un preciso stato quantico si trovi una sola molecola. La meccanica quantistica arriva ad un risultato importantissimo per l'entropia ed afferma che questa è uguale a zero per T=0 (temperatura assoluta in gradi Kelvin) in ogni stato di aggregazione. Il lavoro sulla statistica portò Fermi in prima linea tra i giovani teorici di tutto il mondo perché la sua importanza fu subito e universalmente riconosciuta. Le idee di Fermi hanno avuto risvolti importantissimi aprendo una nuova strada per le ricerche e trovarono numerosissime applicazioni.
INCISO: Il principio di esculisone di Pauli e L'Astronomia. Il principio di esclusione di Pauli è un principio della meccanica quantistica, il quale dichiara che: due fermioni identici, non possono occupare lo stesso stato quantico. Formulato da Wolfgang Pauli nel 1925, viene anche citato come "principio di esclusione" o "principio di Pauli". Il principio di esclusione si applica solo ai fermioni, particelle che formano stati quantici antisimmetrici e hanno spin semi-intero. I fermioni includono protoni, neutroni, ed elettroni, i tre tipi di particelle che compongono la materia ordinaria. Il principio di esclusione governa molte delle caratteristiche distintive della materia. Particelle come i fotoni e i gravitoni non obbediscono al principio di esclusione, poichè sono bosoni (ovvero, formano stati quantici simmetrici ed hanno spin intero). I fermioni della stessa specie, formano stati totalmente antisimmetrici, che nel caso di due particelle significa che...
Se entrambe le particelle occupano lo stesso stato quantico |ψ>, lo stato dell'intero sistema è |ψψ>. Quindi...
e tale stato non può verificarsi. Ciò è prontamente generalizzabile ai casi con più di due particelle. Il principio di esclusione di Pauli gioca un ruolo in un grande numero di fenomeni fisici. Uno dei più importanti, e quello per cui venne originariamente formulato, riguarda la struttura del guscio elettronico degli atomi. Un atomo elettricamente neutro contiene un numero di elettroni pari a quello dei protoni del nucleo. Siccome gli elettroni sono fermioni, il principio di esclusione proibisce loro di occupare lo stesso stato quantico. Ad esempio, si consideri un atomo di elio neutro, che ha due elettroni associati. Entrambi gli elettroni possono occupare l'orbita con il livello di energia più basso (1s) acquisendo spin oppsti. Ciò non viola il principio di esclusione, poichè lo spin fa parte dello stato quantico dell'elettrone, e quindi i due elettroni occupano stati quantici differenti. Comunque, lo spin può assumere solo due valori differenti. In un atomo di litio, che contiene tre elettroni associati, il terzo elettrone non può stare nell'orbita (js), ed è costretto ad occupare una delle orbite a più alta energia (2s). Similarmente, gli elementi successivi producono ulteriori orbite con livelli crescenti di energia. Le proprietà chimiche di un elemento dipendono in larga misura dal numero di elettroni presenti nell'orbita più esterna. Il principio di Pauli è anche responsabile per la stabilità su larga scala della materia. Le molecole non possono essere spinte arbitrariamente una contro l'altra, poichè gli elettroni di ogni molecola non possono entrare nello stesso stato degli elettroni di un'altra molecola. Il principio di Pauli è anche il motivo per cui non passiamo attravarso i muri. L'astronomia fornisce la più spettacolare dimostrazione di questo effetto, nella forma di nane bianche e stelle di neutroni. In entranbi questi oggetti, le normali strutture atomiche sono distrutte da una enorme forza gravitzionale, che lascia i costituenti della materia supportati solo dalla "pressione di degenerazione" prodotta dal principio di esclusione. Questa forma esotica della materia è nota come materia degenerata. Nelle nane bianche gli atomi sono tenuti separati dalla pressione di degenerazione degli elettroni. Nelle stelle di neutroni che mostrano forze gravitazionali ancora più grandi, gli elettroni vengono fusi con i protoni, a formare neutroni, che producono una pressione di degenerazione ancor maggiore.
FINE DIGRESSIONE
2)-Generazione dell'asimmetria.
La risposta più semplice, ma meno soddisfacente, è che l'universo è cominciato così, con quella particella in più ogni trenta milioni. Questa ipotesi turba fortemente i nostri canoni estetici e non fa che generare un'altra domanda: chi ha messo quella particella in più ? Più probabilmente, l'asimmetria si è generata in modo dinamico durante la formazione dell'universo. In altre parole, l'asimmetria, o la rottura di simmetria, è dovuta ai processi tra particelle ed antiparticelle. Sakarov ha dimostrato che ci sono tre condizioni necessarie per creare le concentrazioni appropriate di barioni nell' Universo:
a)-Violazione del numero barionico B In una reazione tra particelle elementari, nella gran maggioranza dei casi il numero di barioni (B) si conserva. Devono però esistere processi che trasformano gli antibarioni in qualcos'altro e lasciano i barioni in soprannumero. Diversamente, l'asimmetria può solo derivare da condizioni iniziali.
b)-Violazione di C e di CP. La presenza di reazioni che violano B non è sufficiente: bisogna che questi processi non avvengano in modo simmetrico per barioni ed antibarioni. In caso contrario, a trasformarsi sarebbero sia i barioni sia gli antibarioni con uguale probabilità, il che non può dare luogo ad asimmetrie. E' necessario che le simmetrie C e CP siano violate, ovvero, in breve, che ci siano reazioni che avvengono in modo asimmetrico per particelle e per antiparticelle.
c)-Fasi di non equilibrio termodinamico. Si può dimostratre che, pur in presenza di violazione delle suddette simmetrie, in presenza di equilibrio termodinamico il sistema tenderebbe a ricostituire l'equilibrio chimico, e quindi la simmetria.
Una volta capite quali siano le condizioni necessarie perché l'Universo si sia evoluto fino a diventare tale come lo osserviamo, possiamo chiederci se le teorie attuali possano rendere conto dei meccanismi coinvolti in tali condizioni. Il non equilibrio termodinamico iniziale è spiegato dal modello cosmologico del Big Bang. L'espansione dell'Universo, e quindi il suo raffreddamenteo, fornirebbe le richieste condizioni di non equilibrio. La violazione di B è prevista sia dalle teorie di Grande Unificazione (GUT) sia dal modello unificato delle interazioni elettrodeboli. La violazione di CP è stata osservata già negli anni 60 nel decadimento dei Kaoni neutri. Proprio la natura di questa violazione di simmetria è uno dei temi più attuali di ricerca in Fisica delle Particelle. L'asimmetria misurata in laboratorio è troppo piccola per dare ragione delle concentrazioni barioniche che osserviamo. Inoltre non è ovvio il legame tra la violazione di CP che si osserva a basse energie e quella in gioco alle alte energie dei processi di bariogenesi. Varie teorie avanzano ipotesi sulla natura della violazione di CP, tentando di spiegare come possa manifestarsi in modi diversi a basse piuttoso che ad alte energie. Esperimenti tuttora in corso cercano di far luce su questo punto. L'Istituto Nazionale di Fisica Nucleare contribuisce attivamente a questo ramo di ricerca. In particolare, ricordo l'epserimento CLEO a Frascati, BaBar a Stanford e NA48 al CERN. Speriamo tra qualche anno di avere qualche elemento in più per fare luce su questo affascinante argomento.
DIGRESSIONE...(esposizione Divulgativa)
L'antimateria e la materia ordinaria sono praticamente due cose identiche. Con una piccola differenza. Una "anti-tavoletta" di cioccolato avrà lo stesso gusto, sapore e caratteristiche della tavoletta di cioccolata che ci mangiamo noi, solo che, se rimaniamo senza la nostra tavoletta, non possiamo mangiare quella costituita da anti-cioccolato ! Solo un anti-uomo di una anti-Terra può gustarsi una anti-tavoletta di cioccolato. Infatti quando materia e antimateria si incontrano danno vita ad un processo che va sotto il nome di annichilazione il cui risultato è la totale trasformazione della massa in energia. Quindi è meglio star lontani dalle tavolette di anticioccolata :-) !! A parte gli scherzi, la questione dell'antimateria e la sua esistenza nell’universo è sempre molto di moda soprattutto da quando è stato spedito in orbita a metà dell'anno scorso un potente strumento (noto con la sigla Ams) il cui scopo è quello di individuare anti-atomi. Per quanto ne sappiamo ora, a qualsiasi particella corrisponde la sua antiparticella; questo significa che ad un elettrone corrisponde un anti-elettrone, chiamato positrone avente la stessa massa ma carica opposta: è a tutti gli effetti un elettrone con carica positiva. Alla stessa maniera ad un protone corrisponde l'esatta sua antiparticella di carica negativa, detta semplicemente antiprotone. Questo discorso, come ho detto, è valido per qualsiasi particella; solo che l'esistenza delle antiparticelle non garantisce necessariamente l'esistenza dell'antimateria !! Per formare antimateria, le antiparticelle si dovrebbero aggregare insieme, come fa la materia ordinaria cioè protoni e neutroni che vanno a formare i nuclei degli elementi chimici; ma se questo, per qualche ragione non dovesse accadere, allora non ci sarebbe antimateria ma solo antiparticelle. Il discorso non è assolutamente banale e la differenza tra le due cose è racchiusa in 70 anni di fisica. Dalla scoperta dell'equazione di Dirac e dall'introduzione dei cosiddetti operatori di simmetria (si indicano con C operatore di carica, P operatore di parità, e T operatore di inversione temporale. L'operatore C cambia segno alla carica di una particella e l’operatore P funziona come uno specchio cambia, cioè, la sinistra con la destra) fino ai giorni nostri, fino cioè all'esperimento Ams, progettato per scovare e catturare questi anti-atomi necessari a dimostrare l'esistenza dell'antimateria nell'Universo. La scoperta del positrone avvenne alla fine degli anni venti per merito di un grandissimo fisico teorico: Dirac. Egli era intento a trovare una soddisfacente equazione relativistica dell'elettrone perché, secondo lui, la teoria proposta da Klein e Gordon presentava punti poco soddisfacenti. Secondo George Gamow (un altro grande della ricerca), Dirac trovò la soluzione al suo dilemma una sera del 1928 mentre era seduto vicino ad un camino (G.Gamov, Thirdy years that shook Physics, Doubleday and Co., Garden City, NY, 1966). Oggi tutti i fisici conoscono l'equazione di Dirac le cui soluzioni descrivono gli elettroni e i positroni e la teoria che racchiude tutto il ragionamento è ricordata come la "Teria delle lacune". Tuttavia la soluzione che descrive il positrone fu creduta, inizialmente, descrivere un protone! Poi Anderson nel '32 (che non conosceva i lavori di Dirac) analizzò una traccia lasciata da un raggio cosmico, e si accorse che era una carica positiva della stessa massa dell'elettrone, proprio come ci si attendeva dal lavoro sulle lacune di Dirac ! Da questa scoperta il prestigio di Dirac si è protratto fino ai giorni nostri. (vedi anche: La teoria di Dirac dell'antimateria)
Equazione di Schrödinger corretta per tener conto degli effetti relativistici; descrive l'evoluzione di un elettrone o di una particella qualunque di spin 1/2, libera o in un campo elettromagnetico. Le soluzioni dell'equazione di Dirac corrispondenti a stati di energia negativa non hanno significato fisico e potrebbero trascurarsi se nella soluzione dell'equazione potessero separarsi completamente da quelle corrispondenti a stati di energia positiva. Poiché questo non era possibile, Dirac nel 1930 risolse il dilemma postulando che il vuoto fosse completamente occupato da elettroni di energia negativa. Da questa ipotesi derivano diverse conseguenze: un elettrone di energia negativa può assorbire energia radiante e passare a uno stato di energia positiva dando luogo a un elettrone e a un buco nel vuoto, interpretabile come una particella simile all'elettrone prodotto, ma di carica positiva, ovvero a un positrone. Si produce così una coppia. Analogamente, se nel vuoto si produce un buco, questo può venire occupato da un elettrone che passa a uno stato di energia negativa con emissione dell'energia in eccesso sotto forma di radiazione elettromagnetica. Si ha così annichilazione di una coppia.
FINE DIGRESSIONE
20.07.2003 L'universo è asimmetrico...
La materia domina sull'antimateria esattamente nel modo previsto dalla teoria della fisica delle particelle subatomiche, il cosiddetto Modello Standard (MS). Lo ha dimostrato il BaBar team (dal nome della particella di antimateria B-bar), un gruppo costituito da più di 500 scienziati, che ha annunciato i risultati in occasione della Conferenza Internazionale sulla Fisica della Alte Energie, ad Amsterdam. La differenza tra materia e antimateria, è la stessa che c'è tra un universo pieno di galassie, stelle e pianeti e uno in cui non c'è altro che un bagliore di radiazioni. Quando materia e antimateria si incontrano, si annullano distruggendosi l'un l'altra in un'esplosione di raggi gamma. Se il Big Bang li avesse prodotti in uguale quantità, quindi, avrebbe prodotto lo scenario di una progressiva autodistruzione. Dopo tre anni di esperimenti allo Stanford Linear Accelerator Center (SLAC), ci siamo mossi dall'oscurità alla luce, creando una conoscenza che resterà per sempre.
06.08.2004 Materia e antimateria
Annunciati i nuovi risultati dell'esperimento BaBar. I fisici che conducono l'esperimento BaBar allo Stanford Linear Accelerator Center (SLAC), hanno annunciato nuovi e interessanti risultati che dimostrano una notevole differenza nel comportamento della materia e dell'antimateria. I risultati sono stati sottoposti alla rivista "Physical Review Letters" per essere pubblicati online. L'acceleratore PEP II di SLAC fa collidere elettroni con la loro controparte di antimateria, i positroni, in modo da produrre coppie di particelle e anti-particelle pesanti esotiche, chiamate mesoni B e anti-B. Queste rare forme di materia e antimateria hanno una vita breve e decadono a loro volta in altre particelle subatomiche più leggere. Se non ci fosse differenza fra materia e anti-materia, sia il mesone B che il mesone anti-B esibirebbero uno schema di decadimenti identico. Invece, le nuove misurazioni mostrano una grande differenza nei tassi di decadimento. Osservando i decadimenti di più di 200 milioni di coppie di B e anti-B, i ricercatori hanno scoperto una forte asimmetria fra materia e antimateria: Sono stati trovati 910 esempi di mesoni B che decadono in un kaone e un pione, ma solo 696 esempi simili per i mesoni anti-B. Anche se BaBar e altri esperimenti avevano già osservato in precedenza asimmetrie fra materia e antimateria, questo è il primo caso di una differenza ottenuta semplicemente contando il numero di decadimenti dei mesoni B, un fenomeno chiamato violazione di CP (simmetria di carica e parità) diretta.
DIGRESSIONE...
A team of around 530 physicists and engineers from ten countries have built a huge particle detector at SLAC (the Stanford Linear Accelerator Centre in California) to measure the decay of B mesons and their anti-particles, B-bar mesons. The detector, which has been named BaBar after these particles, weighs 1,200 tons, is 6 metres long and 6 metres in diameter. Some 80 institutions from Canada, China, France, Germany, Italy, Norway, Russia, Taiwan, the United Kingdom and the United States are collaborating on the project. Around 70 British particle physicists and engineers from ten institutions are taking part in the experiment. The UK institutions contributing to the experiment are the University of Birmingham; University of Bristol; Brunel University; University of Edinburgh; University of Liverpool; University of Manchester; Imperial College of Science, Technology and Medicine; Queen Mary and Westfield College; Royal Holloway, University of London, and the Rutherford Appleton Laboratory of the CLRC.
Aims of the BaBar Experiment
In the very early moments after the Big Bang, the universe should have contained equal amounts of matter and antimatter. When matter and antimatter particles meet, they annihilate each other. Yet, the universe we see around us is made up almost entirely of matter. The BaBar team expects the results of the experiment to cast light on the puzzle of how the matter we see in our universe survived this primordial mutual annihilation. The BaBar experiment aims to make the first observation of Charge-Parity (CP) violation in the B meson system and to determine the associated parameters. "CP violation" is the term given to the subtle effect where particles and their anti-particles differ minutely in their properties. CP violation will reveal itself through small differences in the rates at which the B and B-bar mesons decay. There are two vital ingredients in the measurement of the CP violation parameters:
1-Identifying the B
or B-Bar as having decayed to particles with a definite
CP value;
2-Distinguishing
between the other B or B-bar by identifying
the particles into which they decay.
(Figure)-The PEP-II facility consists of two independent storage rings, one located atop the other in the PEP tunnel. The high-energy ring, which stores a 9-GeV electron beam, was an upgrade of the existing PEP collider; it reutilized all of the PEP magnets and incorporated a state-of-the-art copper vacuum chamber and a new radio-frequency system capable of supporting a stored beam of high current. The low-energy ring, which stores 3.1-GeV positrons, was newly constructed. Injection is achieved by extracting electrons and positrons at collision energies from the SLC and transporting them each in a dedicated bypass line. The low-emittance SLC beams is used for the injection process. The collider was completed in July 1998.
To make these identifications, the detector needs to measure the energy of each particle in the decays and locate the B and B-bar decay points by measuring their position to a precision of about 100 microns using a silicon vertex detector. B mesons decay in about one trillionth of a second and, so far, physicists have not been able to produce enough of them to observe CP violation. A new particle accelerator, PEP-II, at SLAC has changed all of that. PEP-II has provided a "B-Factory" which is capable of generating enormous numbers of B mesons. It does this by colliding intense beams of electrons and positrons which have been accelerated to the correct velocities. The velocities of the electrons and positrons have been chosen to ensure that the B and B-bar mesons which are generated on impact have enough momentum to travel about ¼ millimetre before decaying. This allows the lifetime of each one to be measured. The BaBar detector surrounds the point of collision and is capable of measuring precisely the paths of the particles from the decays.
The UK Contribution to BaBar
The UK groups have constructed the forward endcap calorimeter and the signal-processing and triggering electronics for the whole calorimeter. Major contributions have also been made to all aspects of the associated software, including data acquisition, event reconstruction and physics analysis programmes. The velocities of the electron and positron beams have a designed asymmetry which results in a high density of particles in the forward region, and so the forward end cap is a crucial element of the detector.
Timescale
The experiment has just commenced (May 1999) and is expected to be operational until at least 2005.
FINE DIGRESSIONE
Alcuni cenni storici...
La scoperta della prima antiparticella (il positrone) avvenne alla fine degli anni Venti per merito di Dirac. Egli era intento a trovare una soddisfacente equazione relativistica dell'elettrone. Questa ricerca lo portò alla formulazione della meccanica quantistica relativistica, teoria che attualmente descrive con successo il comportamento di tutte le particelle note. Tale teoria prevedeva per ogni particella dotata di carica l'esistenza di un'altra particella dotata di massa identica e carica opposta: quella che oggi chiamiamo antiparticella. Da qui egli ipotizzò l'esistenza dell'antimateria: ma molti fisici restarono perplessi. Nel 1932 Carl Anderson riuscì a fornire una evidenza concreta dell'esistenza dell'antimateria. La scoperta avvenne nel corso di un esperimento volto a studiare la natura dei Raggi Cosmici, il flusso di particelle provenienti dallo spazio che ogni istante colpisce il nostro pianeta. Fra tante tracce ordinarie, Anderson ne identificò una particolare, che corrispondeva al passaggio di una particella con massa uguale all'elettrone ma carica elettrica opposta, cioè positiva: era il primo segno tangibile dell'esistenza dell'antielettrone, che oggi chiamiamo positrone. Da allora le evidenze sperimentali dell'esistenza dell'antimateria si sono succedute a ritmo crescente ed attualmente la creazione di antiparticelle è un fenomeno di routine in numerosi laboratori.
Simmetria e modello standard...
Tuttavia noi fisici abbiamo dedotto, per via teorica, l'esistenza di questo tipo di materia, servendoci del concetto di simmetria, sul quale si basa la fisica delle particelle elementari. Consideriamo un cubo: ha 6 facce uguali e, se lo si ruota, si può portare una faccia a prendere il posto di un'altra. Se del cubo noi possiamo vedere solo 5 facce e ne conosciamo la sua simmetria, possiamo dedurre che vi sia una sesta faccia. La stessa cosa vale per le particelle. Noi ne conosciamo solo alcune e, dal Modello Standard (MS) (ovvero il sistema teorico che inquadra le particelle elementari), deduciamo che ce ne siano altre.
L'annichilazione...
Per quanto ne sappiamo ora, a qualsiasi particella corrisponde la sua antiparticella; questo significa che ad un elettrone corrisponde un anti-elettrone, chiamato positrone avente la stessa massa ma carica opposta: è a tutti gli effetti un elettrone con carica positiva. Alla stessa maniera ad un protone corrisponde l’esatta sua antiparticella di carica negativa, detta semplicemente antiprotone. Di cruciale importanza è il fatto che quando particelle ed antiparticelle entrano in contatto fra loro, tendono molto rapidamente ad annichilirsi, ovvero a fondersi l'una con l'altra, trasformando tutta l'energia in loro possesso in radiazione elettromagnetica: una forma di energia analoga alla luce e alle onde radio ma di intensità molto maggiore. Ciò è un'altra prova del fatto che la massa (e dunque la materia) non è altro che una particolare forma di energia, come previsto dalla teoria di Einstein. L'annichilazione fra particelle e antiparticelle è il motivo per cui, in un Universo come il nostro, dove vi è una dominio della materia, è molto difficile osservare l'antimateria. Tuttavia, sotto certe condizioni questo processo può essere invertito, cioè possono crearsi coppie di particelle ed antiparticelle a partire da radiazione elettromagnetica di sufficiente energia.
Dov'è finita l’antimateria ?
Come abbiamo visto, un'antiparticella è identica alla corrispondente particella se non per un particolare: ha carica opposta. Questo particolare è sufficiente a far sì che, quando le due si toccano, smettano entrambe di esistere sotto forma materiale e si trasformino in energia. Oggi non è ancora chiara la ragione per cui il nostro mondo sia composto solo di materia. In teoria potrebbero esistere antigalassie isolate: per noi sarebbero indistinguibili da quelle normali, purché non toccassero materia normale: in quel caso il processo di annichilazione genererebbe intensi lampi di luce. Tuttavia di questi lampi non v'è traccia, per cui, secondo l’ipotesi più accreditata, l'antimateria è scomparsa del tutto nei primissimi istanti di vita dell'Universo. Tutta la materia che ci circonda, dai nostri corpi fino ai più remoti pianeti, è formata da atomi, sistemi composti da particelle di carica negativa, gli elettroni , "orbitanti" attorno ad un nucleo centrale di carica elettrica positiva.
Ma è stato sempre così ?
Questo quesito è all'origine di uno dei problemi più affascinanti della fisica moderna. Le leggi matematiche con cui noi fisici descriviamo la struttura dell'atomo prevedono che, oltre alla materia ordinaria, esista anche un'altra forma di materia: la cosiddetta antimateria, formata da antiparticelle del tutto identiche a quelle che ci circondano salvo per il fatto di avere cariche opposte. L'antimateria comprende ad esempio antielettroni, uguali agli elettroni ma dotati di carica elettrica positiva, antinuclei dotati di carica negativa, e così via. Queste antiparticelle sono prodotte quasi quotidianamente nei laboratori di alte energie. Eppure, nell'Universo che conosciamo non vi è traccia di antiatomi e, ancor meno, di una sorta di mondo alla rovescia, con pianeti e galassie fatti di antimateria. Da quasi 50 anni fisici e cosmologi sono impegnati a capire perché attualmente l'antimateria sia quasi totalmente assente.
Fabbrica di antiatomi
Usando gli antielettroni e gli antiprotoni si possono produrre atomi di antiidrogeno. Secondo il modello standard, gli antiatomi dovrebbero avere lo stesso colore degli atomi corrispondenti. Tuttavia, per quanto riguarda il peso, gli studi sono tuttora in corso. Non è detto infatti che la gravità agisca nello stesso modo per la materia e l'antimateria. L'antimateria si può creare in laboratorio (CERN). Dall'annichilazione fra protoni ed antiprotoni, si ottengono: neutrini, muoni e pioni, che sono i mattoni che tengono uniti gli atomi, che infine decadono ulteriormente in radiazioni Gamma. I primi, cioè i neutrini, non sono influenzati dai campi magnetici appunto perché sono neutri, sono quindi inutilizzabili per i nostri scopi. I muoni ed i pioni invece avendo una carica sono influenzati dai campi magnetici, possono quindi essere indirizzati con un opportuno campo magnetico nella direzione in cui desideriamo e con il solito principio di azione reazione spostarci nello spazio. Uno degli utilizzi più interessanti - anche se, al momento, utopico - dell'antimateria può essere quello di usarla come carburante. Il processo di annichilazione, infatti, è l'unico che trasforma interamente la massa in energia. In teoria, basterebbero 10 grammi di antimateria per raggiungere Marte in un mese con una navicella spaziale. Ciò è possibile perché l’annichilazione è: 10 miliardi di volte più efficiente della combustione 1000 volte più della fissione e 300 volte più della fusione nucleare. Attraverso il controllo di questo processo, se si riuscisse a costruire un motore di questo tipo, si è calcolato che si potrebbero costruire astronavi che nelle condizioni ideali potrebbero raggiungere velocità massime dell'ordine del 60% della velocità della luce: qualcosa come 180.000 km/s ! Tuttavia, al momento vi sono dei problemi di carattere pratico da risolvere per rendere verosimile questo utilizzo. Il primo problema è legato ai costi, dato che la spesa per produrre un solo milligrammo di antimateria si aggira intorno ai 100 miliardi di dollari. Il secondo riguarda la sua conservazione. Come contenitore attualmente si usano "trappole" elettromagnetiche capaci di accumulare fino a 10 mld di antiprotoni ma solo per una settimana.
Antimateria a basso costo (A.D. 1998) Ante-Moratti (Inizio...)
Tutti i paesi industrializzati, Giappone a parte, tagliano la ricerca fondamentale. Al Cern se ne sentono le conseguenze, ma ci si adegua. Ridurre i costi per proseguire la ricerca. E' questa l'equazione impossibile che il gruppo di fisici che lavora sull'antimateria al CERN di Ginevra deve risolvere, se vuole proseguire gli esperimenti nonostante i tagli finanziari che il progetto ha dovuto sopportare. Sotto la guida di Stephan Maury e di Daniel Dekkers, i fisici del CERN hanno elaborato un progetto che riduce drasticamente le spese e utilizza un solo apparato strumentale, al posto delle quattro macchine impiegate per gli studi che all'inizio dello scorso anno focalizzarono sul CERN l'attenzione della stampa di mezzo mondo. Una popolarità inaspettata per un esperimento che pur si collocava ai margini della ricerca che si svolge a Ginevra ma che, con la creazione di nove atomi di anti-idrogeno, ha suscitato l'interesse di alcuni Paesi stranieri, in particolare Giappone, Germania, Italia, USA, Danimarca e Polonia. Queste nazioni hanno deciso di finanziare il proseguimento degli esperimenti per un ammontare complessivo di circa sette milioni di franchi svizzeri, anche se il reperimento di fondi non e` ancora terminato. I nuovi esperimenti sull'antimateria mirano a intrappolare gli atomi che si creeranno all'interno della macchina AD (Antiproton Decelerator), apparecchiatura derivata dalla modifica dell'Antiproton Collector, una delle quattro strumentazioni impiegate per gli studi dello scorso anno. La ricerca in programma infatti si propone di verificare le proprietà di simmetria fra materia e antimateria, previste dal modello standard, attraverso misurazioni che non era stato possibile effettuare precedentemente, perchè gli atomi di anti-idrogeno avevano sempre avuto una velocita` troppo elevata e, soprattutto, una vita troppo breve. Gli studi effettuati fino ad ora hanno mostrato che per decelerare gli atomi fino a poterli intrappolare sarà necessario correggere l'orbita del fascio e migliorare il vuoto all'interno della macchina Ad. Infatti, se all'interno della macchina sono presenti molecole di gas, gli atomi di antimateria, incontrandole, si annichilano. Inoltre sarà molto importante stabilizzare l'alimentazione elettrica dello strumento, perchè alle basse energie richieste in questo tipo di esperimenti le particelle che compongono il fascio sono estremamente sensibili a ogni campo magnetico. Fino a questo momento siamo riusciti a ottenere una decelerazione fino a 420 MeV/c, ma contiamo di raggiungere i 100 MeV/c necessari all'esperimento entro la fine del 1998. Nessuna macchina al mondo sarà in grado di fornire prestazioni come quelle previste per Ad, anche se esperimenti sull'antimateria si stanno svolgendo anche al Fermilab di Chicago. Non escludo tuttavia che il metodo utilizzato per creare il vuoto nella macchina possa fornire delle indicazioni per migliorare la tecnologia su questa materia. È un segno dei tempi: la ricerca fondamentale deve dimostrare di avere utilità immediata, altrimenti i fondi vengono tagliati. Al CERN, con questo esperimento, mostrano di fare buon viso a cattivo gioco. Ma è un gioco che non può durare a lungo.
(01.04.1999)-Antiprotons The return of antimatter...
After a three-year pause, antiproton physics gets under way later this year at CERN using the new Antiproton Decelerator ring. These articles look at the AD and its physics programme. This year should see the start of physics with CERN's new Antiproton Decelerator ring, marking the return of antiparticle physics to the CERN research stage three years after the closure of the LEAR low-energy antiproton ring in 1996. The Antiproton Decelerator (AD) was built from CERN's former Antiproton Collector ring, which was commissioned in 1987 to supplement the original Antiproton Accumulator (AA; meanwhile, elements of the AA have been sent to the Japanese KEK laboratory). The task of the AD will be to take the antiprotons, which are produced by 26 GeV/c momentum protons hitting a target and selected at the optimum 3.57 GeV/c momentum level, and, as its name implies, decelerate them to much lower energies, using electron and stochastic cooling to control the beams. Late last year the AD had a foretaste of particles the much more readily available protons, in this case. The antiproton debut is scheduled to take place soon after the restart of the CERN machines this spring, with the physics programme following in September. On the menu are the ATHENA and ATRAP experiments, which will use magnetic trapping to manufacture atoms of antihydrogen. Following the first synthesis of chemical antimatter at LEAR in 1995, physicists have been eagerly awaiting a chance to revisit atomic antimatter country to see whether there is any difference between the behaviour of matter and antimatter. Also on the menu is the ASACUSA experiment by a Japanese-European collaboration, which aims to continue the exploration of antiprotonic atoms atoms in which an orbital electron has been replaced by an antiproton.
(01.06.2003)-CERN confirms LHC start-up in 2007
On 20 June, in its 125th
session, the CERN
Council received confirmation that the
LHC and its detectors are on schedule for start-up in 2007,
and that the LHC
Computing Grid (LCG)
project is about to reach a major milestone. CERN's
director-general, Luciano
Maiani, presented a comprehensive review of the status of
the LHC
project, which he underlined by saying that management is more committed
than ever to the current LHC
schedule. Maiani
said that the major difficulties with the accelerator and detectors have
been resolved, and that there is now a clear path to the project's completion.
"All
of the problems we encountered in 2002 have been overcome,"
he said, "although
there remain hurdles to overcome, there is no showstopper. We can confirm
with fewer reservations than last year that the LHC
will start-up in spring 2007."
Maiani
also drew attention to the LCG
project, which will make an important step forward in distributed
computing technology on 1 July
when it deploys an operational computing Grid for the LHC.
Negotiations are also underway with the European Union for the "Enabling
Grids for E-science in Europe"
(EGEE)
project, which aims to create a Europe-wide Grid infrastructure by combining
the many Grid initiatives across the continent.
The Council also heard from Robert Aymar,
CERN's
director-general elect, who presented his proposal for a new organizational
structure for the laboratory. His plans are based on a recommendation
by the External Review Committee that he chaired in 2001
and 2002. The new structure
is intended to ensure continuity and build on existing strengths at CERN,
while at the same time implementing changes at the higher levels appropriate
to CERN's
current objectives. The main features of the new structure are short lines
of management and a restricted directorate consisting of the director-general
(Aymar),
a chief scientific officer, with the functions of deputy director-general,
and a chief financial officer. Jos
Engelen, currently director of NIKHEF,
has been named as the chief scientific officer. CERN's
current divisions will be regrouped into a smaller number of departments,
while functions including safety, technology transfer and public communication
will be moved into the director-general's office.
21.01.2004 Antimateria in trappola
Per la prima volta i fisici nucleari potrebbero essere riusciti a catturare la materia più sfuggente dell'Universo: la cosiddetta antimateria, di cui alcuni atomi sarebbero rimasti intrappolati in una speciale gabbia per particelle messa a punto a Ginevra, al CERN, il Centro europeo per la ricerca nucleare. Secondo una teoria elaborata dai fisici, nota come Modello Standard (MS), per ogni particella di materia esiste una corrispondente particella di antimateria, identica alla prima sotto ogni aspetto, tranne che per la carica, che è opposta. Per esempio, il protone e l'antiprotone hanno la stessa massa, ma carica elettrica opposta. Quando una particella e la sua antiparticella si incontrano, si annichiliscono in uno scoppio di energia pura. Può sorgere spontanea una domanda, ancora senza risposta: perché allora nell'Universo c'è tanta più materia che antimateria ? Perché la materia "ha vinto" ? Il Modello Standard (MS) resta quello più accreditato in fisica per descrivere sia la materia che tutte le forze dell'Universo (esclusa la gravità), nonostante sia oggetto di critiche e discussioni. Imbrigliare l'energia che erompe dall'incontro tra materia e antimateria è uno degli obiettivi accarezzati dai fisici nucleari, che trovano però difficile creare e controllare gli atomi di antimateria. Nei tardi anni Novanta, per esempio, gli acceleratori di particelle del CERN e del FERMILAB di Chicago rilevarono fino a nove atomi di antiidrogeno, che però viaggiavano troppo veloci – quasi alla velocità della luce – per poter essere catturati e studiati. Ora, un team di ricercatori responsabili dell'esperimento ATRAP (Antihydrogen TRAP collaboration), guidati da Gerald Gabrielse della Harvard University, annuncia di essere riuscito con molta probabilità a creare e immagazzinare migliaia di antiatomi in un’apposita trappola per particelle. La nuova ricerca è stata presentata a Boston, durante il meeting annuale della American Association for the Advancement of Science. Usando potenti campi magnetici, gli scienziati hanno prima catturato degli antiprotoni, prodotti dalla collisione tra particelle all'interno dell'acceleratore del CERN. Poi hanno introdotto nella "gabbia" un fascio di antielettroni (detti positroni) e utilizzato un campo elettrico per rallentarne la corsa, fino a permettere ai due tipi di particelle di entrare in contatto. Infine, esponendo la trappola per particelle a un nuovo campo elettrico, gli scienziati hanno osservato che alcune delle antiparticelle non si muovevano più: quel che potrebbe essere successo, dunque, è che alcune particelle di antimateria (cariche) si siano unite a formare un atomo di antiidrogeno (neutro). I ricercatori non sono sicuri di quanti atomi di antiidrogeno siano riusciti a creare nella trappola per particelle. La loro speranza è ora quella di poter confermare la scoperta il prossimo maggio – quando l'acceleratore di particelle del CERN entrerà di nuovo in funzione – attraverso l'analisi dello spettro degli antiatomi intrappolati.
Il concetto di antimateria risale all'incirca al 1930 e alla famosa previsione di Dirac, che aveva lottato per riuscire a unificare la nuova meccanica quantistica con la teoria della relatività speciale di Einstein. Dirac voleva sapere in che modo si comporta una particella quantistica come l'elettrone quando si muove a una velocità prossima a quella della luce. Egli ricavò un'equazione che sembrava rispondere ai requisiti richiesti, ma rimase sconcertato dal fatto che ogni soluzione dell'equazione che descriveva un elettrone era accoppiata con una specie di soluzione speculare che non sembrava corrispondere ad alcuna particella conosciuta. Dopo aver molto riflettuto, Dirac formulò una coraggiosa ipotesi. Le soluzioni «speculari», sostenne, corrispondono a particelle identiche agli elettroni, ma con proprietà invertite. Per esempio invece di avere carica negativa, le particelle speculari avrebbero dovuto essere cariche positivamente. Nel giro di un paio d'anni, i «positroni» di Dirac vennero effettivamente scoperti negli sciami di raggi cosmici. Esistono realmente. Noi fisici ci rendemmo finalmente conto che in natura a qualunque tipo di particella subatomica corrisponde un'antiparticella. Oltre agli antielettroni (chiamati anche positroni) ci sono gli antiprotoni, gli antineutroni e cosi via. I positroni vengono prodotti in coppia con gli elettroni in seguito a violenti urti fra i raggi gamma e la materia. Tipicamente, un fotone gamma che incontra un atomo produce una coppia elettrone-positrone. Il neonato elettrone si allontana per godere di un'esistenza più o meno permanente, mentre il povero positrone va incontro da subito a dei pericoli. Se si imbatte in un elettrone (e l'universo è pieno di elettroni) la coppia si annichilirà istantaneamente, invertendo il processo di creazione di coppia e restituendo fotoni. Questa è generalmente la causa della breve carriera di un positrone.
Nella figura (vedi sopra) è disegnato un diagramma spazio-temporale che mostra la creazione e la successiva annichilazione di un positrone. In genere questo diagramma viene cosi interpretato: il fotone gamma, raffigurato dalla linea ondulata proveniente dal basso, crea una coppia elettrone-positrone in corrispondenza dell'evento a; l'elettrone (contrassegnato con e2) se ne va a destra, mentre il positrone (contrassegnato con p) si dirige a sinistra, colpisce un secondo elettrone (e1) in corrispondenza dell'evento b e si annichila, creando ancora una volta un fotone. L'effetto complessivo è che l'elettrone e1 è scomparso in un punto per essere rimpiazzato dall'elettrone e2 in un altro punto. Secondo l'audace congettura di Feynman, gli elettroni e1 ed e2 sono in realtà la stessa particella, anche se nell'intervallo di tempo che separa gli eventi a e b entrambi gli elettroni sono presenti ! L'idea di Feynman è che la linea continua a zig-zag nella figura non vada vista come la concatenazione delle linee d'universo di tre particelle distinte, ma come un cammino spazio-temporale continuo di un singolo elettrone. Il tratto con pendenza negativa - il segmento corrispondente al positrone - rappresenta allora l'elettrone che si muove indietro nel tempo. Questo salto temporale è indicato dalle frecce sulla linea d'universo. Durante la fase normale, di elettrone, la freccia punta avanti nel tempo, ma durante la fase di positrone punta all'indietro. in quest'ottica, l'elettrone originale indisturbato (e1) emette un fotone (in b) e salta indietro nel tempo, quindi assorbe un fotone (in a) e ritorna di nuovo nel futuro. Un osservatore che si trovasse nell'intervallo di tempo fra a e b vedrebbe due elettroni e un positrone, ma Feynman afferma che si tratta in realtà di un'unica particella vista tre volte: prima (come e1) nella sua forma originale indisturbata, poi (come positrone) mentre torna indietro dal futuro, e infine (come e2) mentre va ancora una volta avanti nel tempo. L'idea di base può essere estesa includendo molti più elettroni e positroni, lasciando che la linea dell'universo continui a zigzagare.
In effetti, secondo Wheeler tutti gli elettroni dell'universo sono in realtà un'unica particella, che semplicemente salta avanti e indietro nel tempo ! In altre parole, voi, io, la Terra, il Sole, la Via Lattea e tutte le altre galassie siamo composti da un solo elettrone (e anche da un solo protone) visti un'innumerevole quantità di volte. La conclusione che si può trarre da queste osservazioni - ed è una conclusione davvero profonda - è che la natura non presenta una simmetria fra materia ed antimateria, e che quindi le leggi dell'universo non sono esattamente simmetriche rispetto al tempo. Quali che furono i processi fisici all'origine della creazione del materiale cosmico, presumibilmente nelle condizioni estreme del Big Bang, essi dovettero essere non simmetrici, anche se di poco, rispetto al tempo. In altre parole, deve esistere almeno un processo fisico fondamentale che non è perfettamente simmetrico rispetto all'inversione temporale.
[X]-Clicca sulla X per avere la versione integrale del testo scorrevole.
Discover what antimatter is, where it is made, and how it is already part of our life. © Copyright CERN 2000-2001.
Technical Requirements
To follow the LIVEfromCERN webcasts you need, depending on your platform:
Windows 90MHz Intel® Pentium® processor or equivalent, 16MB of RAM, 28.8kbps modem; 16-bit sound card and speakers, 65,000-color video display card (video), Windows 95/NT operating system or later, Internet connection, web browser (Internet Explorer 4.01 or later or Netscape 4.05 or later) and RealPlayer 8 (or later).
Linux Linux 2.0/2.2 (RedHat 5.x, 6.x, SUSE 6.x , other) 32MB memory, 28.8kbps modem, Internet connection, web browser (Netscape 4.x) RealPlayer 8 (or later).
Note: For best results we advise using the latest version of Real Player (RealPlayer 8 Basic at the moment) available for free. Note that from the same site one can also download a more advanced versions of RealPlayer, RealPlayer 8 Plus. This advanced versions is not for free!
You
will need to install RealPlayer
in order to view the clips.
|
Live Webcast
- November 18th and 21st, 2000
"The
Antimatter Factory"
Discover the Antiproton Decelerator (or AD, CERN's
new "antimatter factory")
and find out how physicists are trying to make antimatter, and why.
Video Clip:
The
History of Antimatter
From the original idea by P. Dirac
in 1928 to the latest scientific achievements.
Video Clip:
Antimatter
News
What is going on in different fields of antimatter: the search in space
(AMS), the most recent applications (PET
scan advancements), news from the universe.
di Marco Motta
Maria Fidecaro, quando è iniziata la sua attività al Cern ?
"Sono arrivata qui nell’agosto del '56 dopo aver lavorato per alcuni anni a Roma sui raggi cosmici e poi per un anno al sincrociclotrone di Liverpool, che in quel momento era l’unico a produrre pioni (mesoni p), particelle chiave per la comprensione delle interazioni nucleari. Questo tipo di acceleratore è lo stesso sul quale ho inizialmente lavorato a Ginevra, il primo realizzato al CERN, concepito tuttavia come macchina intermedia verso la realizzazione del più potente protosincrotrone, inaugurato nel 1959. Era un periodo, quello, di grande fermento: nel 1956 era stata ipotizzata e poi confermata sperimentalmente la caduta della parità, ovvero il fatto che, diversamente da come si era pensato fino ad allora, la natura - a questo livello elementare - "distingue" tra destra e sinistra. E tutto ciò dava luogo a grandi discussioni, suscitando in tutti noi il desiderio di comprendere ancor meglio le leggi della natura".
Com’è cambiata la ricerca al Cern in questi cinquant’anni ?
"A essere sincera, non vedo grandi differenze, probabilmente perché ho vissuto giorno per giorno i cambiamenti. Certo alcune cose sono cambiate, come il numero di componenti dei gruppi di ricerca. Alla fine degli anni Cinquanta si lavorava in team di tre-cinque persone, mentre ora ci sono gruppi composti anche da decine o centinaia di scienziati. E anche il numero totale è aumentato, anche se è difficile tenere un conto complessivo, vista la grande mobilità dei ricercatori: oggi si parla di circa sei- settemila scienziati".
Com’era l’ambiente di lavoro al Cern per una donna a quel tempo ?
"Direi davvero buono. Le donne erano già tante, soprattutto se confrontate con altri ambienti lavorativi, e comunque non mi è mai capitato di vivere situazioni di disagio".
Il suo bilancio di cinquant’anni di CERN.
"E' un bilancio estremamente positivo. Se si pensa che l’auspicio sotto il quale il CERN prese forma era quello di fungere da coordinatore della ricerca europea, non si può fare a meno di notare come, negli ultimi decenni in particolare, questo aspetto sia divenuto sempre più centrale: il ruolo dei laboratori esterni è sempre più rilevante. In particolare il contributo italiano è importantissimo e i rapporti con i nostri centri molto intensi".
Le aspettative per il futuro ?
"Alla fine del 2004 tutte le macchine verranno spente e staremo fermi sino al 2006, quando si ricomincerà a lavorare sugli esperimenti in attesa dell’attivazione dell’LHC nel 2007. Certo, tutte le attenzioni – in particolare quella dei media – sono per il bosone di Higgs, ancora da rilevare, ma io sono dell'opinione che dobbiamo prepararci sul piano scientifico per avere una mente il più possibile aperta nei confronti di quello che la natura ci potrà riservare”.
[X]-Clicca sulla X per avere la versione integrale del testo scorrevole.
<update> Arianespace <update>
11.07.2004 A Launch for TELESAT
Arianespace will place into geostationary transfer orbit the largest telecommunications satellite ever built: ANIK F2 for North American operator Telesat. For Flight 163, Arianespace will use a Ariane 5G launch vehicle Arianespace's live video broadcast of Flight 163, complete with commentary in French and English, will cover the mission from its final countdown phase to the payload's deployment in geostationary transfer orbit. This video broadcast will be Webcast in real-time on Arianespace, beginning 15 minutes before the scheduled liftoff and continuing until 50 minutes after launch. Video streaming of the Webcast will be available in high and low data rates.
The liftoff of Flight 163 is scheduled at the opening of the following launch window..:
KOUROU: From 09:43pm
to 10:29pm on July 12,
2004
GMT: From 00:43am to 01:29am
on July 13, 2004
PARIS: From 02:43am to 03:29am
on July 13, 2004
WASHINGTON / OTTAWA: From 08:43pm
to 09:29pm on July 12,
2004
13.07.2004 FLIGHT 163: LAUNCH DELAYED
During final count-down operations for Flight 163 today, an anomaly occured during a data checkpoint with the launcher. As a result, Arianespace has decided to postpone the launch, with a new date to be announced later. The launcher will be move back to the Ariane 5 Final Assembly Building in order to correct this anomaly. The launch vehicule and its Anik F2 satellite payload have been continuously maintained in a fully safe and controlled standby condition.
15.07.2004 Flight163: launch scheduled in the night of July 15 to 16, 2004
With the complementary checks and corrective actions on the Ariane 5 launcher now completed, Arianespace has decided to resume final count-down. The liftoff of Flight 163 is now scheduled at the opening of the following launch window:
KOUROU: From 09:43pm
to 10:29pm on July 15,
2004
GMT: From 00:43am to 01:29am
on July 16, 2004
PARIS: From 02:43am to 03:29am
on July 16, 2004
WASHINGTON / OTTAWA: From 08:43pm
to 09:29pm on July 15,
2004
16.07.2004 Launch delay due to weather
Tonight's liftoff of Flight 163 with the Anik F2 telecommunications satellite has been delayed because of unfavorable weather conditions at the Spaceport in French Guiana. A buildup of storm clouds in the vicinity of the Ariane 5's ELA-3 launch complex forced the final countdown to be stopped at 16 minutes before the planned main engine ignition. The countdown subsequently was restarted in order to carry out the final pre-launch actions in the event of a last-minute weather improvement, but the conditions remained "red" - preventing the liftoff within the evening launch window. Arianespace Chief Executive Officer Jean-Yves Le Gall said the launch is rescheduled for tomorrow.
16.07.2004 Flight163: launch scheduled in the night of July 16 to 17, 2004
The liftoff of Flight 163 is now scheduled at the opening of the following launch window:
KOUROU: From 09:44pm
to 10:30pm on July 16,
2004
GMT: From 00:44am to 01:30am
on July 17, 2004
PARIS: From 02:44am to 03:30am
on July 17, 2004
WASHINGTON / OTTAWA: From 08:44pm
to 09:30pm on July 16,
2004
This video broadcast will be Webcast in real-time on Arianespace, beginning 15 minutes before the scheduled liftoff and continuing until 50 minutes after launch. Video streaming of the Webcast will be available in high and low data rates.
17.07.2004 Flight 163: LAUNCH DELAYED
Evry, July 17, 2004 - During final preparations for Flight 163, an anomaly was detected on the Ariane 5 launch table. In order to carry out additional verifications, Arianespace has decided to postpone the launch by 24 hours. Flight 163 is now scheduled during the night of Saturday, July 17 to Sunday, July 18, 2004.
17.04.2004 Flight 163: Launch scheduled in the night of July 17 to 18, 2004.
The liftoff of Flight 163 is now scheduled at the opening of the following launch window:
KOUROU: From 09:44pm
to 10:30pm on July 17,
2004
GMT: From 00:44am to 01:30am
on July 18, 2004
PARIS: From 02:44am to 03:30am
on July 18, 2004
WASHINGTON / OTTAWA: From 08:44pm
to 09:30pm on July
17, 2004
This video broadcast will be Webcast in real-time on Arianespace, beginning 15 minutes before the scheduled liftoff and continuing until 50 minutes after launch. Video streaming of the Webcast will be available in high and low data rates.
18.07.2004 Arianespace Flight 163: a successful launch for Anik F2
Evry, France, July 18, 2004 -Arianespace today orbited the largest communications satellite ever: Anik F2 for North American operator Telesat.
Fifteenth successful launch.
With its 15th successful mission, the standard Ariane 5G ("Generic") launcher continues to demonstrate its technical and operational maturity. Furthermore, Ariane 5 has proven its ability to handle a complete spectrum of missions, from scientific missions requiring special orbits to the largest commercial payloads into geostationary transfer orbit.
Serving a prestigious customer: Telesat Canada
The choice of Ariane by Telesat reflects international recognition of Arianespace's top-flight launch service. Telesat is a pioneer in satellite communications and system management. It deploys a fleet of satellites that provide broadcast distribution and communications services across the Americas, and is a highly-respected consultant and partner in satellite ventures around the world. Telesat is a wholly-owned subsidiary of BCE Inc., a leading communications company with shares listed in the United States, Canada and Europe. Anik F2 is the fifth Canadian satellite to be lofted by the European launcher, following Anik E2 in April 1991, Anik E1 in September 1991, MSAT 1 in April 1996 and Anik F1 in November 2000.
Flight 163 at a glance.
Provisional parameters at injection of the storable propellant upper stage were:
Perigee: 579.4 km
for a target of 580 km (±3
km)
Apogee: 38,848 km for a target of 38,928
km (±160
km)
Inclination: 6.80 degrees for a target
of 6.80 degrees (±0.06°)
Anik F2 uses the new Boeing 702 platform
built by Boeing Satellites Systems, Inc.
(BSS)
in El Segundo, California. The largest
communications satellite ever, it weighed over 5,950 kilograms
(13,118 lb)
at launch. Anik F2 is fitted with 38 Ka-band
transponders, 32 Ku-band transponders and 24
C-band transponders. Positioned
at 111.1 degrees West, Anik F2
will provide cost effective, two-way high-speed
Internet access to businesses and consumers located anywhere within a
footprint, covering all of North America
and it will also open the door to new government broadband services for
such applications as tele-learning, tele-health
and e-services. Anik F2 has
a design life of 15 years.
CARTOLINE.NET +----------------------+ | _ _ [ ] | | O O [ ] | | + | | \___/ ------- | | ------- | | | +----------------------+
CONSOLE-(COMANDI/UTILITY/ALLERT)[...]