Il PRINCIPIO ANTROPICO

 

MAPPA della PAGINA: IL PRINCIPIO ANTROPICO... Agg. 01.10.2004



27.08.2003-INTRODUZIONE-(Divulgativa)...

La vita: un prodotto accidentale, oppure il fine stesso dell'Universo ?

Cosa sarebbe accaduto dell'Universo se certe grandezze avessero avuto un valore diverso da quello attuale ? L'Universo sarebbe uguale contravvenendo ad alcune delle leggi fisiche fondamentali, sulla base delle quali l'Universo attuale si struttura ?

LE COSTANTI fondamentali di natura compaiono nelle leggi che regolano la fenomenologia generale dell'Universo e il cui valore non è riconducibile ad altre e quindi deve essere dedotto sperimentalmente. Per esempio, la legge della gravitazione universale dice che la forza attrattiva F di due masse inerziali m1 e m2 è proporzionale al prodotto di queste ultime, inversamente al quadrato della loro distanza r. La stessa legge fa intervenire una costante, che viene generalmente indicata con la lettera G, che rappresenta in un certo senso "il tono" secondo cui fra le due masse separate dalla distanza r si esercita la forza attrattiva F. Ovviamente, quel valore avrebbe potuto anche essere diverso e allora sarebbe risultato diverso tutto il fenomeno gravitazionale che la formula newtoniana esprime. Quanto si è detto per G può essere ripetuto per altre grandezze, e negli ultimi tempi si è cercato di vedere come cambierebbe la fenomenologia dell'Universo se quei valori fossero diversi.

The Theory and Strategies Behind "Gravitation"


The basic gravitational equation is:

F= G*(M1*M2)/r2


where F equals the force between two masses M1 and M2, R is the radius (distance) between the two masses, and G, the universal gravitational constant, is equal to 6.670 x 10-8 dyne cm2 gm-2. This formula gives the force between two masses at a particular instant of time. This formula is based on the work of Isaac Newton and is the basic equation in what is called "Newtonian Gravitation" gravitation in which relativistic effects are not taken into account. To model the behavior of masses across time, things get a bit more complicated. If there are only two masses being modeled, then a relatively simple set of equations can be used. If more than two masses are involved, one must apply the above formula repeatedly, apply the resulting accelerations to the masses, and repeat the process in a computer simulation. This is what "Gravitation" does. Numerical gravitation simulations are never more than approximations of the behavior of masses in nature. The limitations are:

1)-One must select a finite time interval for each iteration of the program. If the chosen interval is small, this increases accuracy but requires more computer time. If the chosen interval is large, this speeds up the simulation but at the cost of decreased accuracy.

2)-The floating point numbers used in computers have limited resolution. This resolution limit can degrade the accuracy of the simulation over many iterations.

The effect of these limitations can be dramatically seen in the "Three Mutual Orbit" scenario, where the three bodies gradually begin to lose their original orientation, perform an intricate dance, and finally fly apart at great speed. Some of this behavior can be traced to limitations in the numerical simulation and do not represent real gravitational effects. The rest of the scenario is a valid representation of nature – three mutually attracting bodies of equal masses tend to be unstable. In some of Gravitation's scenarios, two bodies will approach and then fly apart at high speed. This is a limitation of numerical gravity simulation, it is not a property of natural gravitation - if it were, it would violate the principle of energy conservation. It comes about because a particular body may pass very close to another, experience that body's gravitational attraction, then on the next iteration be located far past that same body, so there is no deceleration to match the acceleration, as there would be in nature. This effect can be minimized by choosing small increments of time, but it cannot be eliminated. This incremental effect, and the errors brought on by computer floating point numbers, are limitations in all numerical gravitational simulations, not just the one performed by Gravitation. The method used in Gravitation is the same as that used in large research facilities to, for example, model the evolution of star clusters. The computation time required to model a set of N mutually interacting bodies is (more or less) proportional to N2, because each body's gravitational acceleration is the sum of all the other bodies' influences. Therefore, for each body in the system, the program must calculate the sum of the accelerations of all the other bodies. This computational difficulty explains why stellar cluster modeling is an important application for supercomputers.

Helpful Hints (applet JAVA)

(*)-Choose a scenario and, before running it, move one or more of the bodies around with your mouse -- this makes the orbits change completely, sometimes the "planets" crash into each other, lots of interesting things happen.

(*)-To make the simulation as fast as possible, go to the "Setup" menu and click "Highest Computer Speed." This won't work on some browsers.

(*)-To speed up the simulation's progress through time, increase the value of "Time Interval." This will decrease the accuracy of the simulation but speed it up.

(*)-Conversely, to increase the accuracy of your simulation at the expense of running time, decrease the value of "Time Interval."

(*)-To see some nice patterns, choose the "Three Mutual Orbit" or "Four Mutual Orbit" scenarios using the drop-down list and select "Lines" for the display mode.

(*)-Instead of moving the bodies with your mouse, you can go to the "Data" menu and type in new values for position, velocity and radius. The new radius value automatically changes the mass of the body, so this changes the orbital behavior as well as the body's size on the screen.

(*)-While running a simulation, switch to the "Data" menu to see the numbers change. The data menu also helps in deciding whether a "planet" has escaped your screen's universe or will be coming back eventually.

(*)-You can select a scenario and then use the "Data" menu to create a completely new scenario of your own.

Dopo l'applet, riprendo il discorso....

Ne è derivata una conclusione che ha stupito: specialmente nei confronti di alcune di esse, la fenomenologia sarebbe risultata alterata in maniera profonda anche per il semplice loro cambiamento di qualche punto percentuale. Una temperatura più alta della Terra, anche solo di qualche punto percentuale, avrebbe reso impossibile la formazione delle molecole complesse e una temperatura più alta di alcune decine di punti percentuali avrebbe reso impossibile lo stato liquido dell'acqua. Infine, una temperatura più elevata di un fattore poco maggiore di 2 avrebbe reso impossibile lo stesso stato solido di molti composti. Invece, una temperatura leggermente più bassa avrebbe reso impossibile la cinematica delle molecole e avrebbe comportato, oltre all'esistenza dell'acqua sotto forma di ghiaccio, una velocità di reazione molecolare estremamente bassa. Studiando le caratteristiche strutturali delle stelle è possibile ricavare delle formule che descrivono le loro grandezze fondamentali - come la luminosità e il raggio, la temperatura superficiale, la vita media - in funzione solo delle costanti di natura. Da tali formule risulta che un'eventuale piccola diversità del valore di queste costanti comporta un cambiamento significativo delle grandezze fondamentali. Ciò spinge l'analisi assai più in profondità, mettendo in evidenza come tutta l'evoluzione cosmica concorra in maniera critica a rendere possibile quella notevolissima serie di condizioni senza la contemporanea presenza delle quali, l'esistenza delle forme vitali e della loro successiva evoluzione non sarebbe affatto possibile. Con questo approfondimento dello studio cosmologico, noi cosmologi ci siamo trovati di fronte a una serie di circostanze talmente critiche per l'esistenza di vita sui pianeti da essere spinti a esprimere il nostro stupore formulando un principio che, più che una spiegazione, costituisce una forte sottolineatura di questa criticità ed esprime il rifiuto che tale criticità sia legata al caso. In sostanza, abbiamo espresso la convinzione che la successione di circostanze particolari, sia di natura cosmica sia di natura locale e ambientale, risponda all'esigenza del verificarsi di condizioni possibili per l'affermazione della vita, addirittura fino al livello umano, inteso come il livello con cui la natura riesce a compiere un atto di riflessione su se stessa e a riconoscersi. A un tale principio è stato dato un nome: "Principio Antropico". Si tratta oggi di approfondire questo concetto che si affaccia all'orizzonte scientifico. Nonostante le notevolissime differenze, il Principio Antropico formulato dalla scienza ha un'importanza notevole non solo sul piano scientifico, ma anche su quello filosofico e religioso, perché si pone come punto fondamentale di riferimento che non può essere dimenticato da nessun'altra attività speculativa umana, proprio in quanto scientificamente impostato. Uno dei problemi che il principio introduce è proprio questo: comprendere il concetto di uomo con le molteplici attività che lo caratterizzano (affetti, speculatività filosofica e religiosa, scientifica, tecnica, politica) offrendo al contempo a tutta la cultura umana il motivo sul quale le due discipline fondamentali in cui si articola, umanistica e scientifica, possono trovare un valido terreno di confronto e quindi di riunificazione.

[UP][TOP]

L'Universo come parte di noi

Il semplice fatto che un piccolo pianeta come il nostro ospiti una forma di vita intelligente pone dei vincoli alle caratteristiche su larga scala dell'intero Universo.

PERCHE' l'Universo è così sconfinato ? (I più bravi possono andare oltre... !) L'Universo si generò circa 13,5 miliardi d'anni fa dal Big Bang e che da allora ha continuato a espandersi. In linea di principio, se i nostri telescopi fossero abbastanza potenti, noi potremmo osservare un volume di spazio con un raggio di 13,5 miliardi di anni luce. Questa distesa spazio-temporale contiene miliardi di galassie come la nostra Galassia e ciascuna galassia può contenere centinaia di miliardi di stelle. Tuttavia la vita, come noi la conosciamo, sembra non sappia che farsene di tanta abbondanza; basta infatti che abbia un piccolo pianeta, come il nostro, che gira intorno a una stella come è il Sole ! Questa semplice osservazione viene talvolta usata come un argomento contro quelle visioni che considerano l'Universo disegnato per noi, a nostro beneficio. Il ragionamento è, su per giù, questo: se l'Universo fosse stato fatto su misura per l'uomo, allora sarebbe sufficiente un solo Sistema Solare. Le dimensioni straordinarie del nostro Universo e il numero grandioso di stelle e di galassie che esso contiene, rappresentano un di più che, di fatto, ci relega alla stregua di un semplice accidente naturale. Questo può essere vero; ma un più attento esame della struttura dell'Universo ci rivela che, anche se fossimo un accidente naturale, noi non potremmo esistere se l'Universo contenesse soltanto un Sole con la sua famiglia di pianeti.

UNA...MANCIATA DI PRINCIPI

LA SCIENZA non è semplicemente l'accumulazione di un numero sempre maggiore di fatti e di dati che riguardano il mondo naturale. Invece, essa procede grazie alla nostra abilità nell'intravedere strutture ordinate e regolarità nel mondo naturale. Quando giungiamo a capire come si legano tra loro dei fatti che prima erano sconnessi, allora siamo in grado di condensare una gran quantità di dati in leggi che li descrivono e che li generalizzano; da qui in poi, è sufficiente ricordare un piccolo insieme di regole indipendenti e basilari da cui si può dedurre tutto il resto. Il brillante trionfo della scienza moderna, specialmente della fisica e dell'astronomia, consiste proprio nella capacità di queste discipline di descrivere molti dei fenomeni complessi di questo mondo in termini di una manciata di semplici principi che li sottendono.

La Cosmologia Antropica

Ma questi successi sarebbero impossibili se il nostro Universo non fosse "costruito" su poche direttrici, fondamentali e relativamente semplici. Le leggi della fisica sono abbastanza lineari da essere comprese dalla mente umana; in più, le leggi che noi deduciamo da esperimenti fatti sulla Terra possono essere applicate anche nel resto dell'Universo, in ogni luogo e per ogni epoca. Ebbene: questa semplicità di fondo è una caratteristica inevitabile dell'Universo ? È una pura coincidenza che creature abbastanza intelligenti da comprendere pochi semplici principi fisici esistano in un mondo dove quelle leggi fisiche bastano da sole a spiegare come tutto funziona ? O, forse, c'è un piano più riposto e profondo che garantisce che l'Universo sia costruito su misura per l'umanità ? Queste domande, che riguardano il nostro posto nell'Universo, si legano alle questioni sollevate da quella che viene chiamata la Cosmologia Antropica.

Regolarità della natura

Il successo conseguito dalla scienza nello spiegare modi complessi di comportamento con leggi tutto sommato semplici può essere illustrato da alcuni esempi. Certamente, il corso regolare della Luna e dei pianeti in cielo era conosciuto fin dai tempi più antichi, ma fu spiegato solamente quando Newton comprese che quei moti erano governati dalla stessa forza gravitazionale che ci tiene legati alla Terra. D'altra parte, anche la complessità della chimica, che confuse gli alchimisti, si cominciò a comprendere soltanto quando Mendeleev, nel XIX secolo, scopri delle regolarità nelle proprietà dei vari elementi. Queste regolarità vengono ora attribuite al fatto che tutti gli atomi sono costituiti da soli tre tipi di componenti: i protoni e i neutroni (che formano i nuclei) e gli elettroni (che si distribuiscono intorno al nucleo in accordo con le leggi della meccanica quantistica). Noi fisici abbiamo proceduto oltre in questo tentativo di semplificazione della descrizione del mondo naturale e ora crediamo che il comportamento dell'intero mondo fisico - non solo gli atomi, ma anche le stelle e la gente - sia determinato da poche fondamentali "costanti", che sono le masse di un pugno di particelle cosiddette elementari e le intensità delle forze - elettriche, nucleari, gravitazionali - che legano fra loro queste particelle e governano i loro moti. In particolare, alcuni fenomeni naturali si possono spiegare molto più facilmente di altri utilizzando queste "semplici" leggi. I processi biologici, per esempio, sono ben più difficili da comprendere che non la caduta di una mela da un albero o l'orbita di un pianeta intorno al Sole. Ma è la complessità, e non le dimensioni, che rende un processo difficile da comprendere. Per esempio, noi comprendiamo l'interno del Sole meglio che l'interno della Terra: questo accade perché le temperature e le pressioni nelle profondità del nostro pianeta non sono così elevate come quelle che si misurano, invece, dentro il Sole. Nell'interno della Terra esistono strutture complesse, come composti chimici che contengono molti atomi legati tra loro; invece dentro il Sole, per effetto delle elevate temperature, ogni composto chimico si riduce ai suoi costituenti, i nuclei atomici da un lato e gli elettroni dall'altro. Inoltre, il loro comportamento è governato da semplici leggi fondamentali. Il nostro Universo contiene miliardi di galassie e ciascuna di queste può a sua volta contenere, come avviene nel caso della nostra Galassia, miliardi e miliardi di stelle più o meno simili al Sole. Le osservazioni ci dicono che l'Universo si espande, con i gruppi di galassie che si allontanano fra loro sempre di più con il trascorrere del tempo. Da questa circostanza i cosmologi arguiscono che ci fu un tempo, circa 13,5 miliardi di anni fa, in cui tutta la materia e l'energia dell'Universo - e così lo spazio e il tempo -si trovavano concentrati in una regione minuscola e incandescente, una palla di fuoco che hanno chiamato Big Bang. Sicuramente, in queste primissime fasi di vita dell'Universo, alla temperatura di 10 miliardi di gradi, la materia si trovava scomposta nei suoi costituenti primordiali: in quel periodo, l'espansione faceva raddoppiare le dimensioni universali ogni secondo. In un certo senso, si può dire che le condizioni nel Big Bang erano ancora più semplici che non quelle che ritroviamo oggi nell'interno del Sole e per questo si può realisticamente sperare di riuscire a spiegare perché l'Universo si sta espandendo nel modo che osserviamo. Forse saremo anche in grado di capire in che modo siano nate le galassie e le stelle nel corso dell'espansione universale e, in tal modo, ci avvicineremo alla comprensione delle nostre stesse origini. Ma non appena cominciamo ad avvicinarci alla comprensione di questi processi, subito ci imbattiamo in un curioso problema: quello delle coincidenze cosmiche.

LE COINCIDENZE COSMICHE

L'UNIVERSO tutto sommato, è "semplice"; noi invece siamo creature estremamente complesse. La causa è probabilmente il fatto che abitiamo in un ambiente particolare, per niente tipico.

Un gioco di equilibri

Di sicuro, il pianeta che ci ospita rappresenta un luogo speciale nell'Universo (benché non necessariamente unico); a ben pensarci, anche l'epoca in cui viviamo è abbastanza speciale. Al tempo del Big Bang, le condizioni estreme che allora si registravano non potevano certo consentire l'esistenza della complessità che ritroviamo nella vita umana; oggi, invece, le condizioni sembrano proprio quelle giuste (almeno per questo particolare pianeta di questa stella di questa galassia). In un futuro più o meno lontano, forse le condizioni torneranno a non essere più favorevoli per la vita. Noi esistiamo qui e ora, grazie a certe precise relazioni che sussistono tra le forze fondamentali di natura e le particelle elementari.

QUANTO DEVE MISURARE UN UOMO ?

ANALOGAMENTE sono le forze fondamentali di natura che decidono quanto dev'essere grande un essere umano. In altre parole, i nostri corpi, come peraltro tutte le strutture chimiche, sono tenuti assieme dalle forze elettriche. Poiché la forza gravitazionale che si esercita sui nostri corpi - cioè il nostro peso - dipende dal numero degli atomi che essi contengono, ne deriva che la forza è tanto maggiore quanto più la persona è grossa. E più una persona (o un'altra creatura) è grossa, più duro sarà il tonfo se cade a terra. Un semplice calcolo indica che una creatura molto più grossa di un essere umano, che abitasse sulla superficie di un pianeta come la Terra, si spezzerebbe cadendo al suolo. In altri termini, noi siamo grandi quanto possiamo esserlo in base al nostro modo di vivere, o piuttosto al modo di vivere dei nostri recenti antenati.

[UP][TOP]

Spinta di Archimede

Come usare questa applet (Applet JAVA by W.Fendt, C.Sansotta 1998)

Concetti matematici e fisici richiesti

  • forza di Archimede;
  • misura delle forze;
  • proprietà dei fluidi;

Le balene possono essere così grandi perché il loro peso è parzialmente sostenuto dalla spinta di Archimede dell'acqua (vedi APPLET); gli elefanti, invece, si sa che si muovono lentamente e con attenzione. I nostri antenati che erano primitivi e vivevano sugli alberi, non potevano essere molto più grossi perché un'eventuale caduta da un ramo sarebbe risultata fatale. Allora, il fatto stesso che noi esistiamo ci dice, per certi versi, quali condizioni regnano nell'interno delle stelle e nell'Universo su larga scala. Questa è la forma più debole di ciò che è chiamato ragionamento antropico, o cosmologia antropica. A partire dal dato che noi siamo degli esseri viventi la cui biologia si basa essenzialmente sul carbonio, e che evolviamo lentamente su un pianeta in orbita intorno a una stella gialla, ci sono alcuni aspetti dell'Universo che possono essere dedotti in modo abbastanza diretto e lineare. Questo approccio alla cosmologia ci potrà tra poco aiutare a capire a fondo come mai l'Universo intorno a noi è così grande.

L'UNIVERSO: UN GRANDE VECCHIO...

Occorsero miliardi di anni perché la vita potesse evolvere fino al livello intelligente su un pianeta come la Terra. Deduciamo: l'Universo deve essere vecchio di circa una quindicina di miliardi d'anni (13,5 per essere esatti) ed esteso quindici miliardi di anni luce ! Questa considerazione mostra la potenza del ragionamento antropico: semplicemente dal fatto che siamo una forma di vita basata sul carbonio, noi possiamo dedurre che l'Universo deve avere certe dimensioni e una certa età. In altri termini, noi non osserviamo il cosmo in un istante qualunque del tempo cosmico, ma invece lo osserviamo nel prezioso istante in cui una forma di vita come la nostra può iniziare a porsi domande sulla struttura universale. La cosmologia antropica riporta in auge un pò dell'antico orgoglio per la posizione dell'uomo nell'Universo, quell'orgoglio che si era appannato nel momento in cui gli astronomi compresero che la Terra non era il centro del mondo; e, allora, forse non vivremo in un luogo speciale, ma sicuramente viviamo in un'epoca speciale. La prossima volta che voi o i vostri amici resterete senza fiato ad ammirare l'immensità del cosmo, come si rivela con un semplice sguardo al cielo notturno e a quello sterminato esercito di stelle, confortatevi con l'idea che tutta quell'immensità è necessaria perché noi si sia qui a contemplarla. Noi siamo parte dell'Universo - è vero - ma anche l'Universo, in un certo senso, è parte di noi !

[UP][TOP]

Una tesi materialista

Per svuotare di contenuti finalistici il Principio Antropico bisogna arrivare a ipotizzare l'esistenza di un'infinità di universi. DURANTE il ventesimo secolo gli astronomi hanno fissato il quadro di riferimento dentro cui comprendere l'intera evoluzione dell'Universo. In pratica, lo sconfinato mondo delle galassie, le "isole" cosmiche, costituite ciascuna da molti miliardi di stelle, e ciò che oggi chiamiamo Metagalassia; le sue dimensioni sono quasi un milione di volte superiori a quelle della nostra Galassia. Ogni fase di sviluppo dell'astronomia è andata di pari passo con la crescita del dominio osservativo del cosmo. Dai tempi di Galileo le dimensioni del nostro campo di indagine sono aumentate di cento milioni di volte. Ci si deve attendere che, dopo la fase "metagalattica" dell'astronomia, intervenga una qualche nuova fase, che potremmo definire "supermetagalattica" ? E fino a che livello si amplierà il campo di ricerca ?

Una domanda "infantile"

Tutto l'insieme dei dati osservativi finora accumulati conferma la teoria del Big Bang, secondo la quale 13,5 miliardi di anni fa la materia del nostro Universo era tutta concentrata in un punto: la "singolarità", cioè un punto nel quale la materia è schiacciata a una densità infinita e in un volume nullo. Si può quindi parlare di "inizio" del mondo ? Questa domanda rientra nella categoria di quelle che potremmo definire "infantili", cioè di quelle che sono solitamente le più profonde e radicali. A essa bisogna dare una risposta non ambigua. Chi non è seguace del materialismo può ammettere che questo "supergene" (oppure l'Universo stesso, che da esso si è formato per chissà quali leggi interne di sviluppo) fu creato dal nulla. Ma noi siamo materialisti, e non crediamo ai miracoli, e allora riteniamo che sussistano solo due risposte possibili alla domanda "infantile" formulata poc'anzi. La prima è pienamente nello spirito di Poprischin, protagonista del "Diario di un pazzo di Gogol": "Non c'era nulla, c'era il diavolo sa che cosa!".

DIGRESSIONE...

Il Diario si sviluppa come un'autobiografia e, a differenza delle altre novelle narrate in terza persona, mostra una naturale vocazione al monologo teatrale. Il racconto è un viaggio nella doppiezza, nella schizofrenia di un uomo niente affatto particolare, è l'iter di un piccolo borghese alle prese con una smisurata ambizione che lo porterà a smarrire identità e ragione. Il protagonista Popriscin, è un impiegato dalla pallida personalità che ha oltrepassato la quarantina e, tuttavia, ha la sola responsabilità di temperare le matite del capufficio, l'amore per la di lui figlia, lo porterà giorno dopo giorno a sprofondare nel delirio, annotando su un diario il grafico della sua follia. L'infinita amarezza e crudeltà del destino di Popriscin è annegata nell'ironia e nella comicità che fanno di questo personaggio l'archetipo di una schiera di "non eroi" protagonisti di tanto teatro e letteratura del '900 europeo.

FINE DIFRESSIONE

Un modo di intendere questo tipo di risposta, alla luce della scienza moderna, è di ricordare che tutte le leggi fondamentali della natura, comprese le relazioni spazio-temporali, sono valide solamente in determinate condizioni. Non si può escludere, dunque, che ai valori estremi di densità, di temperatura, di estensione spaziale che regnavano sulla singolarità, perdano ogni senso i concetti del "prima" e del "dopo". Dobbiamo semplicemente ammettere che noi quelle leggi della natura, in tali condizioni limite, per ora non le conosciamo. In ultima analisi, la risposta di Poprischin è questa: noi non siamo abbastanza avanti da concepire la singolarità, e non sappiamo quando ci arriveremo. Questa risposta è corretta, ma certamente elusiva e non soddisferà mai la curiosità infantile. Tanto più che ne esiste un'altra che potrebbe a pieno titolo essere attribuita allo sfortunato filosofo volterriano Pangloss: "Non vi è nessun problema, bambini! Noi viviamo nel migliore dei mondi". Questa risposta presuppone che di universi ve ne siano parecchi e che, per la maggioranza, si tratti di luoghi poco confortevoli.

Quell'incredibile "predisposizione" alla vita...

L'Universo nel quale noi viviamo, possiede uno spettro ricchissimo di proprietà e una storia assai complessa. Ci si è sempre chiesti: è qualcosa di esterno a noi ? E non potrebbe essere completamente diverso da quello che è, con altre leggi ? Certamente, potrebbe esserlo, ma...in un Universo qualsiasi non potrebbe esistere una forma di materia così complessa e altamente organizzata qual è la vita. E' molto interessante, per un astrofisico, soffermarsi a considerare l'incredibile "predisposizione" delle proprietà dell'Universo a favorire lo sviluppo della vita. E' mia opinione che gli altri universi (ammesso che esistano) si evolvono "senza testimoni". La tesi complementare, secondo la quale noi osserviamo l'Universo così com'è semplicemente perché noi esistiamo e perché in un altro Universo non potremmo esistere, è stata definita Principio Antropico. La mia consiste nel considerare la vita, e in particolare noi stessi, come parte integrante dell'Universo, la naturale conseguenza della sua evoluzione. L'Universo non è qualcosa di esterno alla vita; e in piena coscienza si può affermare: "L'Universo siamo noi". Per questo motivo non ci si deve stupire se esso è così meravigliosamente capace di accogliere la vita.

Un infinita moltitudine di universi

Restando su posizioni materialiste, non si può certo affermare che l'Universo sia stato creato appositamente tale che, in una determinata fase del suo sviluppo e in microscopici campi spazio-temporali, sorgesse la vita e per di più una vita razionale. Che conclusione si deve trarre allora ? Solamente una: considerare che l'Universo osservato non esista al singolare, ma che vi sia un'enorme, infinita moltitudine di universi (con la lettera minuscola) differenti. Nella quasi totalità questi universi sono "deserti", cioè in essi non vi è vita alcuna. Solo con una probabilità estremamente rara, tra di essi capitano anche realtà più o meno simili al nostro stupefacente e meraviglioso Universo (con la lettera maiuscola). Formulando questa ipotesi, dettata dalla logica e dalla filosofia, noi compiamo un nuovo balzo in avanti verso la conoscenza dell'Universo. E questo balzo rende necessaria l'introduzione di un particolare concetto di varietà illimitata, che includa in sé una molteplicità infinita dei più svariati universi, ciascuno dei quali ha un certo numero di costanti fisiche fondamentali. Definiremo questo concetto "Metauniverso".

Universi non osservabili

Una particolarità molto importante caratterizza quest'ultimo "ordine" del cosmo da noi percepibile, e lo rende qualitativamente diverso dalla Metagalassia. Gli oggetti innumerevoli e incredibilmente differenti tra loro del Metauniverso non possono essere, in linea di principio, osservati poiché si trovano oltre i confini del nostro orizzonte degli eventi. Essi non possono essere collegati da segnali luminosi, per cui si può ritenere che ogni universo sia un'entità rigidamente isolata. Viene spontanea la domanda: ha un senso occuparsi di categorie che non possono essere osservate ? In effetti, anche la meccanica dei quanti "accoglie in sé" tutto ciò che, in linea di principio, non può essere osservato (per esempio, il moto degli elettroni nell'atomo secondo determinate orbite). Nel caso, comunque, del Metauniverso, la situazione è differente. Le leggi che regolano il nostro Universo, possono essere comprese (o per lo meno si stanno aprendo delle possibilità per la comprensione) solo facendo ricorso alle categorie del Metauniverso. Inoltre, al livello in cui si trova attualmente la scienza, non si può stabilire con piena certezza che gli altri universi (e in generale tutto ciò che si trova al di là dell'orizzonte cosmologico) in linea di principio non siano osservabili. Penso ai coraggiosi tentativi di superare, sebbene solo col pensiero, le barriere spazio-temporali utilizzando le sorprendenti proprietà dei buchi neri. Per questi motivi, l'analisi delle proprietà degli altri universi ha pienamente diritto di esistere nella scienza moderna. Verrà il giorno in cui, col pensiero, potremo compiere un nuovo passo dalla Metagalassia al Metauniverso. Per adesso la rappresentazione della moltitudine degli universi si trova allo stadio embrionale. Ma bisogna supporre che questo nuovo emozionante grado della Cconoscenza umana sia il tema della prossima rivoluzione in astronomia.

[UP][TOP]

  Life in the Universe

Professor Stephen Hawking


In this talk, I would like to speculate a little, on the development of life in the universe, and in particular, the development of intelligent life. I shall take this to include the human race, even though much of its behaviour through out history, has been pretty stupid, and not calculated to aid the survival of the species. Two questions I shall discuss are, "What is the probability of life existing else where in the universe?" and, "How may life develop in the future ?". It is a matter of common experience, that things get more disordered and chaotic with time. This observation can be elevated to the status of a law, the so called Second Law of Thermodynamics. This says that the total amount of disorder, or entropy, in the universe, always increases with time. However, the Law refers only to the total amount of disorder. The order in one body can increase, provided that the amount of disorder in its surroundings increases by a greater amount. This is what happens in a living being. One can define Life to be an ordered system that can sustain itself against the tendency to disorder, and can reproduce itself. That is, it can make similar, but independent, ordered systems. To do these things, the system must convert energy in some ordered form, like food, sunlight, or electric power, into disordered energy, in the form of heat In this way, the system can satisfy the requirement that the total amount of disorder increases, while, at the same time, increasing the order in itself and its offspring. A living being usually has two elements: a set of instructions that tell the system how to sustain and reproduce itself, and a mechanism to carry out the instructions. In biology, these two parts are called genes and metabolism. But it is worth emphasising that there need be nothing biological about them. For example, a computer virus is a program that will make copies of itself in the memory of a computer, and will transfer itself to other computers. Thus it fits the definition of a living system, that I have given. Like a biological virus, it is a rather degenerate form, because it contains only instructions or genes, and doesn't have any metabolism of its own. Instead, it reprograms the metabolism of the host computer, or cell. Some people have questioned whether viruses should count as life, because they are parasites, and can not exist independently of their hosts. But then most forms of life, ourselves included, are parasites, in that they feed off and depend for their survival on other forms of life. I think computer viruses should count as life. Maybe it says something about human nature, that the only form of life we have created so far is purely destructive. Talk about creating life in our own image. I shall return to electronic forms of life later on. What we normally think of as "life" is based on chains of carbon atoms, with a few other atoms, such as nitrogen or phosphorous. One can speculate that one might have life with some other chemical basis, such as silicon, but carbon seems the most favourable case, because it has the richest chemistry. That carbon atoms should exist at all, with the properties that they have, requires a fine adjustment of physical constants, such as the QCD scale, the electric charge, and even the dimension of space-time. If these constants had significantly different values, either the nucleus of the carbon atom would not be stable, or the electrons would collapse in on the nucleus. At first sight, it seems remarkable that the universe is so finely tuned. Maybe this is evidence, that the universe was specially designed to produce the human race. However, one has to be careful about such arguments, because of what is known as the Anthropic Principle. This is based on the self-evident truth, that if the universe had not been suitable for life, we wouldn't be asking why it is so finely adjusted. One can apply the Anthropic Principle, in either its Strong, or Weak, versions. For the Strong Anthropic Principle, one supposes that there are many different universes, each with different values of the physical constants. In a small number, the values will allow the existence of objects like carbon atoms, which can act as the building blocks of living systems. Since we must live in one of these universes, we should not be surprised that the physical constants are finely tuned. If they weren't, we wouldn't be here. The strong form of the Anthropic Principle is not very satisfactory. What operational meaning can one give to the existence of all those other universes ? And if they are separate from our own universe, how can what happens in them, affect our universe. Instead, I shall adopt what is known as the Weak Anthropic Principle. That is, I shall take the values of the physical constants, as given. But I shall see what conclusions can be drawn, from the fact that life exists on this planet, at this stage in the history of the universe. There was no carbon, when the universe began in the Big Bang, about 15 billion years ago. It was so hot, that all the matter would have been in the form of particles, called protons and neutrons. There would initially have been equal numbers of protons and neutrons. However, as the universe expanded, it would have cooled. About a minute after the Big Bang, the temperature would have fallen to about a billion degrees, about a hundred times the temperature in the Sun. At this temperature, the neutrons will start to decay into more protons. If this had been all that happened, all the matter in the universe would have ended up as the simplest element, hydrogen, whose nucleus consists of a single proton. However, some of the neutrons collided with protons, and stuck together to form the next simplest element, helium, whose nucleus consists of two protons and two neutrons. But no heavier elements, like carbon or oxygen, would have been formed in the early universe. It is difficult to imagine that one could build a living system, out of just hydrogen and helium, and anyway the early universe was still far too hot for atoms to combine into molecules. The universe would have continued to expand, and cool. But some regions would have had slightly higher densities than others. The gravitational attraction of the extra matter in those regions, would slow down their expansion, and eventually stop it. Instead, they would collapse to form galaxies and stars, starting from about two billion years after the Big Bang. Some of the early stars would have been more massive than our Sun. They would have been hotter than the Sun, and would have burnt the original hydrogen and helium, into heavier elements, such as carbon, oxygen, and iron. This could have taken only a few hundred million years. After that, some of the stars would have exploded as supernovas, and scattered the heavy elements back into space, to form the raw material for later generations of stars. Other stars are too far away, for us to be able to see directly, if they have planets going round them. But certain stars, called pulsars, give off regular pulses of radio waves. We observe a slight variation in the rate of some pulsars, and this is interpreted as indicating that they are being disturbed, by having Earth sized planets going round them. Planets going round pulsars are unlikely to have life, because any living beings would have been killed, in the supernova explosion that led to the star becoming a pulsar. But, the fact that several pulsars are observed to have planets suggests that a reasonable fraction of the hundred billion stars in our galaxy may also have planets. The necessary planetary conditions for our form of life may therefore have existed from about four billion years after the Big Bang. Our solar system was formed about four and a half billion years ago, or about ten billion years after the Big Bang, from gas contaminated with the remains of earlier stars. The Earth was formed largely out of the heavier elements, including carbon and oxygen. Somehow, some of these atoms came to be arranged in the form of molecules of DNA. This has the famous double helix form, discovered by Crick and Watson, in a hut on the New Museum site in Cambridge. Linking the two chains in the helix, are pairs of nucleic acids. There are four types of nucleic acid, adenine, cytosine, guanine, and thiamine. I'm afraid my speech synthesiser is not very good, at pronouncing their names. Obviously, it was not designed for molecular biologists. An adenine on one chain is always matched with a thiamine on the other chain, and a guanine with a cytosine. Thus the sequence of nucleic acids on one chain defines a unique, complementary sequence, on the other chain. The two chains can then separate and each act as templates to build further chains. Thus DNA molecules can reproduce the genetic information, coded in their sequences of nucleic acids. Sections of the sequence can also be used to make proteins and other chemicals, which can carry out the instructions, coded in the sequence, and assemble the raw material for DNA to reproduce itself. We do not know how DNA molecules first appeared. The chances against a DNA molecule arising by random fluctuations are very small. Some people have therefore suggested that life came to Earth from elsewhere, and that there are seeds of life floating round in the galaxy. However, it seems unlikely that DNA could survive for long in the radiation in space. And even if it could, it would not really help explain the origin of life, because the time available since the formation of carbon is only just over double the age of the Earth. One possibility is that the formation of something like DNA, which could reproduce itself, is extremely unlikely. However, in a universe with a very large, or infinite, number of stars, one would expect it to occur in a few stellar systems, but they would be very widely separated. The fact that life happened to occur on Earth, is not however surprising or unlikely. It is just an application of the Weak Anthropic Principle: if life had appeared instead on another planet, we would be asking why it had occurred there. If the appearance of life on a given planet was very unlikely, one might have expected it to take a long time. More precisely, one might have expected life to appear just in time for the subsequent evolution to intelligent beings, like us, to have occurred before the cut off, provided by the life time of the Sun. This is about ten billion years, after which the Sun will swell up and engulf the Earth. An intelligent form of life, might have mastered space travel, and be able to escape to another star. But otherwise, life on Earth would be doomed. There is fossil evidence, that there was some form of life on Earth, about three and a half billion years ago. This may have been only 500 million years after the Earth became stable and cool enough, for life to develop. But life could have taken 7 billion years to develop, and still have left time to evolve to beings like us, who could ask about the origin of life. If the probability of life developing on a given planet, is very small, why did it happen on Earth, in about one 14th of the time available. The early appearance of life on Earth suggests that there's a good chance of the spontaneous generation of life, in suitable conditions. Maybe there was some simpler form of organisation, which built up DNA. Once DNA appeared, it would have been so successful, that it might have completely replaced the earlier forms. We don't know what these earlier forms would have been. One possibility is RNA. This is like DNA, but rather simpler, and without the double helix structure. Short lengths of RNA, could reproduce themselves like DNA, and might eventually build up to DNA. One can not make nucleic acids in the laboratory, from non-living material, let alone RNA. But given 500 million years, and oceans covering most of the Earth, there might be a reasonable probability of RNA, being made by chance. As DNA reproduced itself, there would have been random errors. Many of these errors would have been harmful, and would have died out. Some would have been neutral. That is they would not have affected the function of the gene. Such errors would contribute to a gradual genetic drift, which seems to occur in all populations. And a few errors would have been favourable to the survival of the species. These would have been chosen by Darwinian natural selection. The process of biological evolution was very slow at first. It took two and a half billion years, to evolve from the earliest cells to multi-cell animals, and another billion years to evolve through fish and reptiles, to mammals. But then evolution seemed to have speeded up. It only took about a hundred million years, to develop from the early mammals to us. The reason is, fish contain most of the important human organs, and mammals, essentially all of them. All that was required to evolve from early mammals, like lemurs, to humans, was a bit of fine-tuning. But with the human race, evolution reached a critical stage, comparable in importance with the development of DNA. This was the development of language, and particularly written language. It meant that information can be passed on, from generation to generation, other than genetically, through DNA. There has been no detectable change in human DNA, brought about by biological evolution, in the ten thousand years of recorded history. But the amount of knowledge handed on from generation to generation has grown enormously. The DNA in human beings contains about three billion nucleic acids. However, much of the information coded in this sequence, is redundant, or is inactive. So the total amount of useful information in our genes, is probably something like a hundred million bits. One bit of information is the answer to a yes no question. By contrast, a paper back novel might contain two million bits of information. So a human is equivalent to 50 Mills and Boon romances. A major national library can contain about five million books, or about ten trillion bits. So the amount of information handed down in books, is a hundred thousand times as much as in DNA. Even more important, is the fact that the information in books, can be changed, and updated, much more rapidly. It has taken us several million years to evolve from the apes. During that time, the useful information in our DNA, has probably changed by only a few million bits. So the rate of biological evolution in humans, is about a bit a year. By contrast, there are about 50,000 new books published in the English language each year, containing of the order of a hundred billion bits of information. Of course, the great majority of this information is garbage, and no use to any form of life. But, even so, the rate at which useful information can be added is millions, if not billions, higher than with DNA.This has meant that we have entered a new phase of evolution. At first, evolution proceeded by natural selection, from random mutations. This Darwinian phase, lasted about three and a half billion years, and produced us, beings who developed language, to exchange information. But in the last ten thousand years or so, we have been in what might be called, an external transmission phase. In this, the internal record of information, handed down to succeeding generations in DNA, has not changed significantly. But the external record, in books, and other long lasting forms of storage, has grown enormously. Some people would use the term, evolution, only for the internally transmitted genetic material, and would object to it being applied to information handed down externally. But I think that is too narrow a view. We are more than just our genes. We may be no stronger, or inherently more intelligent, than our cave man ancestors. But what distinguishes us from them, is the knowledge that we have accumulated over the last ten thousand years, and particularly, over the last three hundred. I think it is legitimate to take a broader view, and include externally transmitted information, as well as DNA, in the evolution of the human race. The time scale for evolution, in the external transmission period, is the time scale for accumulation of information. This used to be hundreds, or even thousands, of years. But now this time scale has shrunk to about 50 years, or less. On the other hand, the brains with which we process this information have evolved only on the Darwinian time scale, of hundreds of thousands of years. This is beginning to cause problems. In the 18th century, there was said to be a man who had read every book written. But nowadays, if you read one book a day, it would take you about 15,000 years to read through the books in a national Library. By which time, many more books would have been written. This has meant that no one person can be the master of more than a small corner of human knowledge. People have to specialise, in narrower and narrower fields. This is likely to be a major limitation in the future. We certainly can not continue, for long, with the exponential rate of growth of knowledge that we have had in the last three hundred years. An even greater limitation and danger for future generations, is that we still have the instincts, and in particular, the aggressive impulses, that we had in cave man days. Aggression, in the form of subjugating or killing other men, and taking their women and food, has had definite survival advantage, up to the present time. But now it could destroy the entire human race, and much of the rest of life on Earth. A nuclear war, is still the most immediate danger, but there are others, such as the release of a genetically engineered virus. Or the green house effect becoming unstable. There is no time, to wait for Darwinian evolution, to make us more intelligent, and better natured. But we are now entering a new phase, of what might be called, self designed evolution, in which we will be able to change and improve our DNA. There is a project now on, to map the entire sequence of human DNA. It will cost a few billion dollars, but that is chicken feed, for a project of this importance. Once we have read the book of life, we will start writing in corrections. At first, these changes will be confined to the repair of genetic defects, like cystic fibrosis, and muscular dystrophy. These are controlled by single genes, and so are fairly easy to identify, and correct. Other qualities, such as intelligence, are probably controlled by a large number of genes. It will be much more difficult to find them, and work out the relations between them. Nevertheless, I am sure that during the next century, people will discover how to modify both intelligence, and instincts like aggression.. Laws will be passed, against genetic engineering with humans. But some people won't be able to resist the temptation, to improve human characteristics, such as size of memory, resistance to disease, and length of life. Once such super humans appear, there are going to be major political problems, with the unimproved humans, who won't be able to compete. Presumably, they will die out, or become unimportant. Instead, there will be a race of self-designing beings, who are improving themselves at an ever-increasing rate. If this race manages to redesign itself, to reduce or eliminate the risk of self-destruction, it will probably spread out, and colonise other planets and stars. However, long distance space travel, will be difficult for chemically based life forms, like DNA. The natural lifetime for such beings is short, compared to the travel time. According to the theory of relativity, nothing can travel faster than light. So the round trip to the nearest star would take at least 8 years, and to the centre of the galaxy, about a hundred thousand years. In science fiction, they overcome this difficulty, by space warps, or travel through extra dimensions. But I don't think these will ever be possible, no matter how intelligent life becomes. In the theory of relativity, if one can travel faster than light, one can also travel back in time. This would lead to problems with people going back, and changing the past. One would also expect to have seen large numbers of tourists from the future, curious to look at our quaint, old-fashioned ways. It might be possible to use genetic engineering, to make DNA based life survive indefinitely, or at least for a hundred thousand years. But an easier way, which is almost within our capabilities already, would be to send machines. These could be designed to last long enough for interstellar travel. When they arrived at a new star, they could land on a suitable planet, and mine material to produce more machines, which could be sent on to yet more stars. These machines would be a new form of life, based on mechanical and electronic components, rather than macromolecules. They could eventually replace DNA based life, just as DNA may have replaced an earlier form of life. This mechanical life could also be self-designing. Thus it seems that the external transmission period of evolution, will have been just a very short interlude, between the Darwinian phase, and a biological, or mechanical, self design phase. This is shown on this next diagram, which is not to scale, because there's no way one can show a period of ten thousand years, on the same scale as billions of years. How long the self-design phase will last is open to question. It may be unstable, and life may destroy itself, or get into a dead end. If it does not, it should be able to survive the death of the Sun, in about 5 billion years, by moving to planets around other stars. Most stars will have burnt out in another 15 billion years or so, and the universe will be approaching a state of complete disorder, according to the Second Law of Thermodynamics. But Freeman Dyson has shown that, despite this, life could adapt to the ever-decreasing supply of ordered energy, and therefore could, in principle, continue forever. What are the chances that we will encounter some alien form of life, as we explore the galaxy. If the argument about the time scale for the appearance of life on Earth is correct, there ought to be many other stars, whose planets have life on them. Some of these stellar systems could have formed 5 billion years before the Earth. So why is the galaxy not crawling with self designing mechanical or biological life forms ? Why hasn't the Earth been visited, and even colonised. I discount suggestions that UFO's contain beings from outer space. I think any visits by aliens, would be much more obvious, and probably also, much more unpleasant. What is the explanation of why we have not been visited ? One possibility is that the argument, about the appearance of life on Earth, is wrong. Maybe the probability of life spontaneously appearing is so low, that Earth is the only planet in the galaxy, or in the observable universe, in which it happened. Another possibility is that there was a reasonable probability of forming self reproducing systems, like cells, but that most of these forms of life did not evolve intelligence. We are used to thinking of intelligent life, as an inevitable consequence of evolution. But the Anthropic Principle should warn us to be wary of such arguments. It is more likely that evolution is a random process, with intelligence as only one of a large number of possible outcomes. It is not clear that intelligence has any long-term survival value. Bacteria, and other single cell organisms, will live on, if all other life on Earth is wiped out by our actions. There is support for the view that intelligence, was an unlikely development for life on Earth, from the chronology of evolution. It took a very long time, two and a half billion years, to go from single cells to multi-cell beings, which are a necessary precursor to intelligence. This is a good fraction of the total time available, before the Sun blows up. So it would be consistent with the hypothesis, that the probability for life to develop intelligence, is low. In this case, we might expect to find many other life forms in the galaxy, but we are unlikely to find intelligent life. Another way, in which life could fail to develop to an intelligent stage, would be if an asteroid or comet were to collide with the planet. We have just observed the collision of a comet, Schumacher-Levi, with Jupiter. It produced a series of enormous fireballs. It is thought the collision of a rather smaller body with the Earth, about 70 million years ago, was responsible for the extinction of the dinosaurs. A few small early mammals survived, but anything as large as a human, would have almost certainly been wiped out. It is difficult to say how often such collisions occur, but a reasonable guess might be every twenty million years, on average. If this figure is correct, it would mean that intelligent life on Earth has developed only because of the lucky chance that there have been no major collisions in the last 70 million years. Other planets in the galaxy, on which life has developed, may not have had a long enough collision free period to evolve intelligent beings. A third possibility is that there is a reasonable probability for life to form, and to evolve to intelligent beings, in the external transmission phase. But at that point, the system becomes unstable, and the intelligent life destroys itself. This would be a very pessimistic conclusion. I very much hope it isn't true. I prefer a fourth possibility: there are other forms of intelligent life out there, but that we have been overlooked. There used to be a project called SETI, the search for extra-terrestrial intelligence. It involved scanning the radio frequencies, to see if we ld pick up signals from alien civilisations. I thought this project was worth supporting, though it was cancelled due to a lack of funds. But we should have been wary of answering back, until we have develop a bit further. Meeting a more advanced civilisation, at our present stage, might be a bit like the original inhabitants of America meeting Columbus. I don't think they were better off for it.

 

 

[UP][TOP]

Sugar in space provides clue to origin of life
NATIONAL RADIO ASTRONOMY OBSERVATORY NEWS RELEASE
Posted: September 21, 2004

Astronomers using the National Science Foundation's giant Robert C.Byrd Green Bank Telescope (GBT) have discovered a frigid reservoir of simple sugar molecules in a cloud of gas and dust some 26,000 light-years away, near the center of our Milky Way Galaxy. The discovery suggests how the molecular building blocks necessary for the creation of life could first form in interstellar space.

FASE 1,2,3...

The astronomers detected the 8-atom sugar molecule glycolaldehyde in a gas-and-dust cloud called Sagittarius B2. Such clouds, often many light-years across, are the raw material from which new stars and planets are formed. The astronomers detected the same molecule in a warmer part of that cloud in 2000, but the new detection shows that the sugar exists at an extremely low temperature -- only 8 degrees above absolute zero, the temperature at which all molecular motion stops. The cold glycolaldehyde detections were surprisingly strong when compared to the original detections and indicate that a considerable quantity of this simple interstellar sugar exists at extremely low temperatures. Glycoaldehyde is composed of 2 carbon atoms, 2 oxygen atoms and 4 hydrogen atoms and is called a 2-carbon sugar. Glycolaldehyde can react with a 3-carbon sugar to produce a 5-carbon sugar called ribose. Ribose molecules form the backbone structure of the molecules DNA and RNA, which carry the genetic code of living organisms. On Earth, most chemical reactions occur in liquid water. Conditions are quite different in interstellar space, and most of the complex molecules appear to form on or under the surfaces of tiny dust grains. In this scenario, smaller molecules such as water, formaldehyde, methane, ammonia, carbon dioxide, or methanol, coat the surfaces and interiors of dust grains in the clouds. When a shock wave, caused by the infall or outflow of material in the star-formation process, hits the dust grains, it provides the energy to assemble more-complex molecules from the simpler ones, and also to free the newly-formed molecules from the dust grains. Once the shock has passed, the molecules cool into a cold, thin gas. Although the chemistry on Earth and in interstellar clouds is much different, the results can be very similar. This and other recent studies show that prebiotic chemistry -- the formation of the molecular building blocks necessary for the creation of life -- occurs in interstellar clouds long before that cloud collapses to form a new solar system with planets. Many of the interstellar molecules discovered to date are the same kinds detected in laboratory experiments specifically designed to synthesize prebiotic molecules. This fact suggests a universal prebiotic chemistry. This suggests that the molecular building blocks for the creation of life on a new planet might get a head start in the dust of interstellar clouds.

Fase 4,5

The actual formation of a planetary system is such a hot process that any prebiotic molecules would likely be destroyed. However, this study has shown that such molecules may form in very cold regions following the passage of a shock wave. Such conditions might be typical of the outer regions of a young solar system following the star-formation process. A repository of prebiotic molecules might exist in these outer regions, which is also where comets are formed, the scientists said. It has long been suggested that a collision with a comet or an encounter with the passing tail of a comet might "seed" a young planet with prebiotic material. The discovery of the cold glycolaldehyde was made by detecting faint radio emission from the molecules. Molecules rotate end-for-end. When they change from a higher rotational energy level to a lower energy level, they emit radio waves at precise frequencies. Conversely, they can absorb radio waves at specific frequencies and change from a lower rotational energy level to a higher one. A set of frequencies emitted or absorbed by a particular molecule forms a unique "fingerprint" identifying that molecule. The cold glycolaldehyde was identified both by emission from the molecules and by absorption of radio waves emitted by a background source, all between 13 GHz and 22 GHz in frequency. The large diameter and great precision of the GBT made this discovery possible, and also holds the promise of discovering additional new complex interstellar molecules. The GBT, dedicated in 2000, is the world's largest fully- steerable radio-telescope antenna. Its dish reflector has more than 2 acres of signal-collecting area. The National Radio Astronomy Observatory in Green Bank, WV is a facility of the National Science Foundation, operated under cooperative agreement by Associated Universities, Inc.

NOTE: The surface area of the GBT is 100 by 110 meters with a separate actuator for each of the 2,004 surface panels. Infrared lasers are used to measure the position of each plate so that if one is to move even slightly out of place the actuator can move it back into it proper posistion, resulting in a surface that can be kept in an optimal state throughout an observation with the telescope. A laser alignment system also allows for precise knowledge of the posisitioning of the dish by utilizing reflectors in the mountains and around the base of the telescope itself. The telescope is unusual in that the mirror is not a symmetrical dish, but is a section of a much larger parabolic figure with the receiver where the prime focus would be of the entire mirror. As a result, the support for the receiver does not in any way obscure the mirrors view of the sky.

[UP][TOP]

Una ipotesi di CONTATTO con vita ALIENA

Contro ET (divulgativo...)

Alla base della vita c’è il carbonio, che è fabbricato nei nuclei delle stelle e sparso nell’Universo dalle esplosioni delle supernovae. Hoyle sostiene che la vita permea tutto l'Universo e che sulla Terra ha avuto origine a causa di una pioggia di microrganismi che, caduti sul nostro pianeta, vi hanno trovato le condizioni per svilupparsi. Hoyle non accetta l'idea che questi microrganismi siano frutto del caso, e vi vede invece l’intervento di una intelligente superiore dall’origine della vita. Sulla stessa linea di queste osservazioni, gli astronomi Brandon Carter, Bernard Carr e Martin Rees compilarono un lungo elenco di coincidenze fortunate grazie alle quali noi oggi siamo qui: avremmo potuto non esserci, ma le leggi della fisica hanno prodotto un Universo le cui condizioni sembrano le sole adatte allo sviluppo di esseri intelligenti. Sulla base di queste osservazioni, è stato formulato il Principio antropico, che ha una versione debole e una versione forte…(consiglio la seguente lettura estratta dal progetto DISF)

1)-La formulazione debole sostiene che, poiché noi siamo qui e osserviamo il Cosmo, esso deve aver favorito la nostra apparizione. La vita intelligente non può esistere ovunque, nello spazio e nel tempo: c'è voluta una stella, il nostro Sole, che ha irraggiato la quantità giusta di radiazione per permettere l’evoluzione dalle primitive forme di vita sino all’uomo. Una stella che a differenza del Sole che brucia da dieci miliardi di anni, irraggiasse solo per qualche miliardo, non consentirebbe un tempo sufficiente per un’evoluzione come quella avvenuta sulla Terra.

2)-La versione forte del principio antropico sostiene che se le costanti universali che sono alla base della fisica dell’Universo avessero valori anche minimamente diversi, noi non saremmo qui, la vita non si sarebbe potuta sviluppare.

Negli anni trenta fu osservato da Sir Arthur Eddington, uno dei massimi astronomi inglesi e dal fisico Premio Nobel Paul Dirac che l'età dell’Universo espressa in una particolare unità di misura e il rapporto tra la forza elettromagnetica e quella gravitazionale nell'atomo hanno circa lo stesso valore. Il fisico americano Robert Dicke sostenne che questa non era una coincidenza, ma bensi una conseguenza del Principio antropico. La comparsa della nostra vita è stata resa possibile della formazione di carbonio, ossigeno e azoto che non erano presente all'istante del Big Bang all’interno delle stelle. Tali elementi sono poi stati sparsi nell'Universo dalle esplosioni delle supernovae. La vita ha quindi preso l’avvio sulla Terra dopo la vita e la morte di una o più generazioni di stelle successive al Big Bang. La durata del ciclo vitale di una stella dipende dalla velocità con cui brucia il carburante che la tiene accesa e questa velocità è legata al rapporto tra forza elettromagnetica e forza gravitazionale. La vita ha quindi scelto per apparire proprio quell’epoca dell'Universo in accordo con il valore del rapporto delle due costanti atomiche. Un'altra coincidenza, scoperta da Carter, può essere vista nel fatto che sono stati necessari quattro miliardi di anni perché sulla Terra comparisse una vita intelligente; ma il Sole, come tutte le stelle dello stesso suo tipo, avrà una vita che al massimo potrà durare dieci miliardi di anni e comunque permetterà l'esistenza della Terra solo per altri tre o quattro miliardi di anni: ciò significa che la durata della fase di stabilità del Sole è dello stesso ordine di grandezza del tempo richiesto per passare dalle prime forme di vita (procarioti) agli esseri intelligenti. Poiché i due fatti, cioè l'evoluzione biologica e quella delle stelle, sono indipendenti, secondo Carter l'unica spiegazione è qu ella basata sul Principio antropico. Per Carter, lo sviluppo di una vita intelligente, è un evento estremamente improbabile, tanto improbabile da farci ritenere di essere gli unici abitanti dell’Universo. Pensiamo all'espansione dell’Universo. Nei primi istanti, immediatamente dopo il Big Bang, la sua velocità d'espansione aveva un ritmo di crescita definito: se questo valore fosse stato superiore anche di un decimilionesimo, non si sarebbero potute condensare le galassie e formare le stelle e i pianeti; se fosse stato inferiore della stessa quantità l'Universo sarebbe presto ricollassato su se stesso, un Big Crunch, insomma. Esistono due classi di modelli cosmologici : quelli per i quali esiste solo il nostro Universo e quelli che propongono un numero infinito di universi, nati come bolle dal cosiddetto vuoto quantico.

[UP][TOP]

Contro gli Alieni

Esiste un certo numero di tesi scientifiche e filosofiche contro l’ipotesi dell’esistenza di esseri alieni.

1)-Il principio antropico di Carter…In una memorabile conferenza che tenne presso la Royal Society di Londra nel 1983, l'astrofisico Brandon Carter sviluppò le sue idee sul principio antropico. Il fatto che noi viviamo sulla superficie di un pianeta con un ambiente stabile e altre condizioni fisiche adatte alla vita non è una coincidenza, perché è proprio in un tale ambiente che è più probabile si sviluppino degli organismi biologici, infatti gli esseri umani non potrebbero sopravvivere nello spazio. L'età dell'Universo equivale, all'epoca in cui noi ci troviamo a vivere. La vita come noi la conosciamo richiede l'esistenza del carbonio e di altri elementi "pesanti", nessuno dei quali esisteva in abbondanza all'origine dell'Universo. Il carbonio, l'ossigeno e l'azoto furono sintetizzati (come detto più volte) all'interno delle stelle e poi si distribuirono nello spazio in seguito alle esplosioni che distrussero le supernove. Dunque dobbiamo pensare che stiamo vivendo in un’epoca cosmica che si colloca dopo uno o più, ma non molti, cicli stellari successivi al Big Bang. Il ritmo dell'evoluzione biologica sembra essere completamente indipendente dai processi fisici che determinano la velocità di invecchiamento del Sole e delle stelle. L'essenza della tesi di Carter sta nella premessa che lo sviluppo di forme di vita intelligente è un evento estremamente improbabile. Ovviamente una scoperta di una qualsiasi forma di vita extraterrestre che si fosse sviluppata indipendentemente della nostra demolirebbe l'ipotesi di Carter.

2)-Il dove sarebbero ?” di Fermi…Secondo una storiella, durante un pranzo di lavoro con Leo Szilard e altri studiosi, a Los Alamos verso la metà del 1940, il grande fisico italiano Enrico Fermi suggerì che se altre forme che se altre forme di vita intelligenti fossero diffuse nell'Universo, la Terra sarebbe già stata colonizzata dagli alieni. L'Universo esiste da molto tempo prima della Terra, quindi se fossero possibili altre forme di civiltà molte di esse si sarebbero sviluppate miliardi di anni fa e avrebbero avuto tutto il tempo di arrivare sin qui. Cosi Fermi trasse la conclusione che siamo soli nell'Universo. Di solito si replica dicendo che Fermi attribuisce agli alieni motivazioni umane come la curiosità e il desiderio di esplorare. Un'altra possibilità di combattere è quella di dire che la galassia è molto vasta e contiene molte stelle, quindi una civiltà distante impiegherebbe moltissimo tempo a scoprire la Terra.

3)-La tesi neo-darwiniana della contingenzaQuesta è la tesi più potente e persuasiva di tutte. Si basa sul presupposto, accettato da quasi tutti i biologi, che il corso dell’evoluzione non segue nessuna legge ma è puramente casuale. Se questa ipotesi è corretta, una caratteristica della vita come l'intelligenza diventa un fenomeno puramente casuale, ed è molto improbabile che si sia sviluppata indipendente altrove. Ciò significa che se gli esseri umani si cancellassero dalla faccia della Terra, sarebbe molto improbabile che un'altra specie intelligente venisse un giorno a prendere il nostro posto. Se questo fosse vero, la vita sugli altri pianeti, se mai esistesse, quasi sicuramente non produrrebbe intelligente o organizzazione sociale. Molti biologi, per estensioni, suppongono che anche l’origine della vita sia stata un fatto casuale. L'idea dell'esistenza di forme di vita aliene è dunque fondamentale anti-darwiniana. Nel diciannovesimo secolo la teologia naturale aveva raggiunto il massimo della sofisticazione. La Chiesa, anche se inizialmente reagì piuttosto male alle idee di Darwin, alla fine cedette e accettò la teoria dell'evoluzione. Avendo da tempo scacciato Dio dal Giardino dell'Eden, i biologi sono riluttanti ad accogliere qualsiasi idea che suggerisca la presenza di una mano che guida, anche sotto forma di legge di natura. Gli studi sui sistemi caotici in fisica, chimica e astronomia rivelano un legame profondo tra comportamenti apparentemente casuali e la comparsa spontanea dell’ordine.

[UP][TOP]

 

(CyberOps Typer Applet can't display)

[X]-Clicca sulla X per avere la versione integrale del testo scorrevole.

The Evolution of Intelligence: An Integral Part of SETI and Astrobiology...

 

By Lori Marino
Emory University
posted: 07:00 am ET
21 August 2003

One of the fundamental questions of astrobiology is whether intelligence exists on other life-bearing planets. To study intelligence we must use quantifiable measures that are correlated with known characteristics of intelligence (problem solving, memory, etc.), amenable to comparisons across a wide range of organisms, and ideally, applicable to fossil as well as living organisms. The Encephalization Quotient (EQ) is one such measure.

Encephalization Quotient

(Vedi figura qui sopra)-Graphical illustration of the Encephalization Quotient (EQ). EQ values are calculated from a least-squares regression of mean adult brain weight on mean adult body weight for a given group of species (each represented by one data point). EQ values of 1, greater than 1, and less than 1 refer to an average brain size, a brain larger than expected, and a brain smaller than expected, respectively.

EQ is a number that compares brain and body sizes across different species and tells us how large or small a species' average brain size is for its average body size. Highly encephalized species have larger brains than expected for their body size and generally tend to be more intelligent. For instance, modern humans have an EQ of about 7. That means our brains are about seven times the size one would expect for an animal of our body size. EQs are handy because they can be calculated for living organisms from brain size data and from fossil organisms from endocranial volume measurements. Furthermore, although encephalization is a direct measure of brain size it is correlated with increases in brain complexity. So, using EQ, we can capture a general estimate of intelligence (which is a function of brain size and complexity) across a wide range of species. Our understanding of the evolution of intelligence has been based on the common presumption that increased intelligence has been actively selected for over evolutionary time. This certainly appears to be the case. The earliest unicellular organisms on Earth did not possess nervous systems. The first multicelled animals (metazoans) developed simple nervous systems about 560 million years ago. More recent groups, such as vertebrates, have even larger brains and suggested a trend. Consistent with this pattern is that the most encephalized animal, modern Homo sapiens, arose only 500,000 years ago. The evidence indicates that both maximum and mean intelligence has risen over the history of life on Earth. However, two types of mechanisms could account for this pattern. If earlier organisms arose near a lower limit on brain size, then, as diversity increased, mean brain size could only increase along with it. Brain size, in John Maynard Smith’s words, had "nowhere to go but up." We term this mechanism a passive trend because it does not imply any active selection for increased intelligence. In contrast, an active or driven trend involves an upward tendency toward increasingly higher encephalization levels induced by natural selection.

Simulation of the diversification

(Vedi figura qui sopra)-Simulation of the diversification of a group in a passive (A) and a driven (B) system. The horizontal axis is Encephalization Quotient, a proxy for intelligence. In the passive system, the vertical line is a boundary, a lower limit on brain size, and no increasing tendency is present among lineages (i.e., increases & decreases are equally probable away from the boundary). In the driven system, no boundary is present (i.e., the vertical line can be crossed), and increases are more probable.

The study of whether encephalization trends are passive or actively driven is highly relevant to questions posed by astrobiology and SETI. If trends in intelligence are driven, then less encephalized species will evolve into higher encephalized (more intelligent) species more frequently at a faster rate than otherwise. Therefore, the expected number of highly encephalized species at any given time will be greater than if no such tendency existed. Further, larger numbers of highly encephalized species increases the probability that at least one such species will survive extinction, or in other words, that intelligent life will be continuously present somewhere.

Encephalization Trends in Cetaceans

In 2002 Dr. Daniel McShea (a biologist at Duke University) and I were awarded a grant from the SETI Institute Center for the Study of Life In The Universe (LITU) to study trends in cetacean brain evolution. Cetaceans are highly encephalized, possessing EQs that range very close to that of humans and higher than that of other mammals. Yet cetaceans haven't shared a common ancestor with primates for over 85 million years. As a result, their brains are very differently organized than primate brains. Therefore, cetaceans afford us the opportunity to examine a highly elaborated brain that has taken a very different evolutionary trajectory from our own. Our method involves using estimates of brain and body weight from fossil and modern cetaceans. These data were collected as part of a National Science Foundation (NSF) grant awarded to Dr. Mark D. Uhen of the Cranbrook Institute of Science and me. The LITU-funding has enabled us to take our data collection a step further and address questions about trend mechanisms in the pattern of encephalization that occurred throughout cetacean evolution. We are completing our analyses and plan to publish our findings shortly. We hope to further extend our study of encephalization trends to a wide array of taxonomic groups such as carnivores, ungulates, birds, and cephalopods so that we can address questions about evolution at a large cross-taxonomic scale. With our work we intend to help shift the focus of astrobiological questions about the evolution of intelligence from armchair speculation to empiricism, quantitative analyses, and scientific objectivity. More generally, we hope to show that questions about evolutionary forces at the largest scale, all animal life over most of its history, are addressable in a rigorous way.

Marino is a professor in the Neuroscience and Behavioral Biology Program at Emory University in Atlanta

[UP][TOP]

 

Can Aliens Find Us ?

posted: 07:00 am ET
23 October 2003

It’s a legend about as popular, and generally believed, as the reputed presence of alligators in the sewers of New York; namely, that the only human-made edifice that astronauts can see from space is the Great Wall of China. Well, forget it. The Great Wall is about 15 feet wide, which even from as little as 200 miles up (Shuttle cruising altitude) subtends an angle of only about one-twentieth of a minute of arc. The human eye can see detail down to one minute of arc, which is obviously far too poor for Wall watching. Still, with a really nice pair of binoculars, the Wall (not to mention less romantic constructions, such as interstate highways) does become visible from orbit. Any curious aliens that made it to within a few hundred miles of Earth would have no trouble seeing the artifacts of our civilization. They would know, without doubt, that technologically competent beings roamed our world. But how visible are we to aliens that are farther away ? In the early nineteenth century, the Austrian physicist Joseph von Littrow is said to have suggested digging giant geometric shapes in the Sahara Desert as signaling devices. The excavations would be filled with water and kerosene, and set afire at night to get the attention of our Martian brethren. The desert figures were to be roughly 20 miles across. So to make out these patterns from the Red Planet would require a 10-meter Keck-size telescope perched on top of, say, Olympus Mons (where the effects of atmospheric "seeing" would be minimal). If sophisticated Martians existed, they could presumably build such an instrument and admire von Littrow’s flaming trench work. This is just one of many early attempts to flirt with nearby aliens, but it boils down to this: if intelligent beings were hanging out just about anywhere in the solar system, it would be a piece of technological cake for them to detect modern Homo sapiens, Saharan trenches or no. OK. But what about aliens that inhabit other worlds, around other stars ? How easy would it be for them to learn of our existence ? If they’ve already built planet-finding telescopes, comparable to, or slightly better than, the one that NASA will be hefting into orbit in the next dozen years, then they could detect the Earth. With substantially larger telescopes, they could find our planet from hundreds or even thousands of light-years’ distance. Not only that, but they could also spectroscopically sample the light reflected from our atmosphere, and learn that it has large quantities of oxygen and methane, tell-tale markers of biology. In other words, aliens -- even relatively distant aliens -- could make straightforward astronomical observations that would prove that the third planet from the Sun hosts life. If biology is common in the cosmos, then Earth might be just another entry in a long list of "living worlds" compiled by some alien graduate student. Its discovery might not excite the extraterrestrials very much.

But proof of intelligence on this planet might.

So how could the aliens learn that high IQ creatures crawl the Earth ? For them to see the Great Wall of China, the lights from our cities, or even the cities themselves, would be extremely difficult. But as virtually every reader of these columns knows, our radio signals are dead giveaways of terrestrial technology. The aliens could "hear" us far more easily than they could see us. Radio was invented in the 19th century, and large-scale broadcasting began in the 1920s. Alas, these early broadcasts were of low power, and at low frequency. The difficulty with low frequency transmissions, such as AM radio, is that they are refracted by Earth’s ionosphere, and have difficulty making it into space. However, beginning in the 1950s, we started to construct high-power, high frequency transmitters – for radar, for FM radio, and for television. These signals leaked off the planet, and headed for the stars. A modern TV transmitter can put out as much as a megawatt of power. It’s not very tightly focused, so even though much of the broadcast energy spills into space, it’s fairly weak by the time it reaches another star system. Consider one of our early TV programs just washing over a planet that’s 50 light-years’ away. To detect the "carrier" signal from this broadcast in a few minutes’ time would require about 3,000 acres of rooftop antennas connected to a sensitive receiver. That’s a lot of antennas, and an unsightly concept. But it’s not hard to build, and the aliens could conceivably do it. If the extraterrestrials were unwise enough to actually want to see the program, then they’d need an antenna about 30,000 times greater in area (roughly the size of Colorado). Ambitious, but possible. A rather easier task would be to detect our military radars. The bigger ones typically boast a megawatt of power, and are focused into beams that are a degree or two across. There are enough such radars that, at any given time, they cover a percent of the sky or so. The signal from the most powerful of these could be found at 50 light-years’ distance in a few minutes time with a receiving antenna 1,000 feet in diameter. Indeed, these military radars are the only signals routinely transmitted from Earth that are intense enough to be detectable at interstellar distances with setups equivalent to our own SETI experiments. Bottom line ? With radio technology slightly more advanced than our own, Homo sapiens is detectable out to a distance of roughly 50 light-years. Within that distance are about 5,000 stars, all of which have had the enviable pleasure of receiving terrestrial television. And each day, a fresh stellar system is exposed to signals from Earth. But even if you believe in highly optimistic estimates regarding the prevalence of cosmic intelligence, it’s unlikely that another civilization exists within 50 light-years. That’s too small a distance. We’re no doubt listed in some alien grad student’s data tables as a world with life, but without the footnote indicating intelligent life. We are the new kids on the block, and so far it’s a safe bet that none of the other kids know we’re here.

[UP][TOP]

Ancora sul principio Antropico

(Facciamo il punto...)

(CyberOps Typer Applet can't display)

[X]-Clicca sulla X per avere la versione integrale del testo scorrevole.

Il principio antropico è un concetto filosofico nato alla fine del 20° secolo per tentare di spiegare alcune interessanti conseguenze delle scoperte scientifiche, specialmente nel campo dell'astrofisica: molto brevemente, alcuni fenomeni fisici ed alcuni parametri universali, si sono scoperti avere i valori esatti affinché la vita biologica si possa sviluppare nell'universo; se solo essi fossero leggermente diversi, molto probabilmente l'universo non potrebbe ospitare alcuna forma di vita.

Alcuni dei menzionati fenomeni sono:

(*)-La forza di gravità, dominata dalla costante di gravitazione universale (vedi applet), ha il valore giusto perché si possano aggregare le stelle e i pianeti, le prime con dimensioni sufficienti da innescare la fusione nucleare, i secondi abbastanza grandi da accumulare una sufficiente quantità di materia per ospitare la vita. La gravità inoltre ha un valore, in relazione alla forza elettromagnetica che governa l'intensità dei legami chimici, tale che su un pianeta possano vivere esseri composti da un numero sufficientemente grande di molecole biologiche, tale che suddetti esseri possano raggiungere la necessaria complessità.

(*)-La creazione del carbonio nelle stelle è particolarmente favorita. Questo è un fatto fondamentale, perché subito dopo il Big Bang l'universo era costituito quasi esclusivamente da idrogeno ed elio, due atomi troppo semplici (il secondo addirittura è un gas nobile) per formare molecole abbastanza complesse. Le molecole organiche si basano su un "ossatura" di carbonio, ma il carbonio viene sintetizzato nei nuclei delle stelle massicce, verso il termine della loro esistenza, e poi diffuso nell'universo mediante esplosioni di supernova. Ora, la reazione che porta alla formazione del carbonio comporta la fusione di 3 atomi di elio, ma tutte le reazioni a 3 corpi sono altamente improbabili e dunque il carbonio dovrebbe essere così raro da non poter esistere alcun essere vivente. Se invece pensassimo di fondere prima due atomi di elio, creando il berillio, e di aggiungerne poi un terzo, ci accorgeremmo che il berillio è così instabile (alle temperature dei nuclei stellari) che esso si dissocia molto prima che possa avvenire l'incontro con il terzo nucleo. Fortunatamente, proprio alla temperatura dei nuclei stellari, si instaura però un fenomeno detto "risonanza", che fa crescere notevolmente la probabilità di una reazione, e proprio per questo il carbonio è così abbondante nell'universo.

(*)-Si è detto che il carbonio si diffonde nello spazio durante le esplosioni delle supernovae.

[UP][TOP]

DIGRESSIONE...

Le Novae e SuperNovae

Novae e supernovae (SNe) sono stelle che presentano un comportamento esplosivo, e come tali sono raggruppate nella categoria delle stelle variabili "cataclismiche". Comincio con la prima differenziazione di fondo: le novae sono stelle nelle quali il fenomeno esplosivo interessa solamente gli strati più esterni e nelle quali, pertanto, al termine della fase eruttiva, la stella ritorna in una condizione molto simile a quella antecedente; viceversa in una supernova è l'intera struttura stellare ad esplodere e pertanto ciò che ne rimane è qualcosa di assai differente (parlerò più avanti dei resti di SNe).

Le novae

Fin alla più remota antichità gli attenti osservatori del cielo avevano segnalato apparizioni improvvise di una nuova stella, mai vista in precedenza. Queste si mantenevano piuttosto brillanti per qualche settimana e poi scomparivano. Oggi che il fenomeno può essere studiato con i telescopi, si sa che queste improvvise apparizioni non sono dovute alla comparsa di una stella, bensì ad un'esplosione che avviene sulla superficie di stelle già esistenti, e che provoca un forte aumento di luminosità. Il modello più accreditato per le novae è costituito da un sistema binario formato da una nana bianca ed una gigante rossa. Come è risaputo, la nana bianca è il resto densissimo ed in via di raffreddamento di una stella di massa medio piccola (inferiore ad 1,4 masse solari) in cui sono cessate le reazioni di fusione nucleare ed in cui la gravità è sostenuta dalla repulsione degli elettroni mediante un fenomeno quantistico di reazione al confinamento. La materia in queste stelle di trova in uno stato di plasma molto denso, la temperatura superficiale media si aggira sui 10-20mila gradi mentre l'età e difficilmente determinabile, sebbene si possa dire che non deve superare i pochi miliardi di anni per una serie di motivi: l'universo ha non più di 20 miliardi di anni; le stelle molto massicce, che bruciano il combustibile nucleare più rapidamente, non cessano l'esistenza come nane bianche; ecc. La gigante rossa è invece una stella che ha cessato la fusione dell'idrogeno nel proprio nucleo ed ha innescato la fusione dell'elio (che è il prodotto della fusione dell'idrogeno), con un aumento della temperatura centrale ed una conseguente dilatazione della superficie. Detta dilatazione ha portato gli strati più esterni, che sono ancora per lo più costituiti da idrogeno, nella zona di influenza gravitazionale della nana bianca, la quale è in grado pertanto di risucchiare materia dalla compagna e di instradarla su una traiettoria a spirale dalla quale va a costituire un disco in rotazione attorno ad essa (il disco di accrescimento). Dal disco di accrescimento, il materiale si deposita gradualmente sulla superficie della nana e, a causa dell'intensa gravità, viene compresso e riscaldato. Quando il materiale depositato raggiunge un valore critico, la temperatura sale a valori sufficienti da innescare superficialmente la fusione dell'idrogeno ed a provocare un'esplosione che coinvolge la materia proveniente dalla gigante rossa ed un sottilissimo strato appartenente alla nana bianca.

 

Curva di LUCE.

Il guadagno in luminosità durante la fase esplosiva si aggira sulle 11 magnitudini, cioè un fattore 25000, mentre la magnitudine assoluta (cioè quella che si avrebbe se la stella fosse posta alla distanza di 10 parsec) del momento di massimo è circa -11, sebbene vi siano forti fluttuazioni tra un caso e l'altro. E' evidente che, al termine dell'esplosione, le due stelle vengono a trovarsi ancora pressappoco nella stessa situazione, per cui il processo può ricominciare. Sono infatti note diverse novae "ricorrenti", in cui l'esplosione avviene ad intervalli abbastanza regolari. Per quelle nelle quali ciò non accade, è possibile che semplicemente la periodicità sia troppo lunga rispetto alla scala della vita umana.

Le supernovae

Prima di parlare di SNe voglio prima fornire la classificazione di questi eventi, dato che sotto il termine "supernova" sono racchiusi in realtà diversi fenomeni esplosivi, molto diversi tra loro. Comincio col dire che la distinzione tra SNe di tipo I e II è una distinzione puramente di comodo e non ha nessuna relazione con la distinzione tra i processi fisici in atto. Semplicemente le SNe di tipo II mostrano nello spettro le intense righe spettrali dell'idrogeno mentre in quelle di tipo I non ve ne è traccia. Le tipo II sono inoltre sotto-classificate in IIn se le righe spettrali sono sottili (dall'inglese "near"), IIP se l'andamento della luminosità, dopo un massimo ed un primo calo, mostra un assestamento di alcuni mesi (dall'inglese e dal francese "plateau"), IIL se invece il declino di luce è costante (dall'inglese "linear"). Le SNe di tipo I sono invece distinte in Ia, Ib ed Ic a seconda che sia rilevabile nello spettro la presenza di elio (Ib), degli elementi leggeri (Ic) o vi sia totale assenza (Ia). Spesso inoltre lo spettro non è riconducibile a nessuna di queste categorie o, pur rientrando in una di esse, è decisamente diverso per altre ragioni, per cui si parla di SNe "peculiari". I processi fisici che portano all'esplosione completa di una stella si pensa possano essere di due tipi. Il primo vede coinvolte stelle di grande massa (superiori ad 8 masse solari), le quali, nel corso della loro esistenza, passano gradualmente attraverso le fasi di fusione di diversi elementi atomici: al termine della fusione dell'idrogeno in elio, la compressione ed il conseguente riscaldamento dovuti alla gravità innescano la fusione dell'elio in berillio, carbonio ed ossigeno (durante la fase di gigante rossa di cui ho già parlato); successivamente un'ulteriore compressione innesca la fusione del carbonio e dell'ossigeno e così via, finché nel nucleo non cominciano a formarsi gli elementi con peso atomico vicino a quello del ferro. Giunti in questa situazione, la stella possiede un nucleo caldissimo (diverse decine di milioni di gradi) in cui l'elevata temperatura consente la formazione di tutti gli elementi chimici di peso atomico elevato, attraverso processi di fusione e cattura neutronica; intorno a questo nucleo, in una struttura "a cipolla", si trovano dei gusci in cui permane la fusione degli elementi più leggeri. "Sfortunatamente" dalla fusione degli elementi vicini al ferro non si ottiene energia (sono reazioni endotermiche; se così non fosse, "rompendo" gli atomi di uranio nelle centrali nucleari, cioè facendo l'operazione opposta alla fusione con un nucleo più pesante del ferro, non si potrebbe ottenere energia), per cui il nucleo subisce un rapido raffreddamento ed un collasso. Cosa accada a questo punto è ancora oggetto di studio da parte di noi astrofisici, ma pare certo che il nucleo, compresso dall'effetto della gravità, finisca per fondere gli elettroni liberi con i nuclei atomici, formando una sfera di neutroni della densità pari a quella dei nuclei stessi. Il materiale in caduta su di essa "rimbalzerebbe" su questa struttura rigida, dando luogo ad un'onda d'urto che si propaga verso l'esterno. Ad alimentare quest'onda d'urto hanno un ruolo determinante anche i neutrini prodotti in modo copioso nella fusione tra protoni ed elettroni del nucleo stellare, i quali, interagendo poco con la materia stellare, sono in grado di trasferire energia verso l'esterno in modo efficiente. Quello che avviene dunque è la totale esplosione della stella, fatta eccezione per il nucleo, il quale rimane sotto forma di stella di neutroni o di buco nero, a seconda della massa. Il materiale espulso, costituito in gran parte ancora da idrogeno degli strati più esterni non coinvolti nelle reazioni di fusione, ma ricco pure di elio e degli elementi pesanti, va a formare un'immensa nube in espansione che si disperde gradualmente nello spazio e che costituisce il "resto di supernova". L'età alla quale una stella va soggetta alla fase di supernova dipende fortemente dalla sua massa, ma, dovendo trattarsi come detto di stelle molto massicce (le uniche per le quali la gravità è in grado di innescare la fusione dei nuclei pesanti) si può certamente dire che ciò avviene entro 1-2 miliardi di anni dalla nascita. Faccio notare che la teoria del big bang prevede che l'universo primordiale fosse formato solo da idrogeno ed elio e che quello descritto è l'unico modo conosciuto per diffondere nello spazio gli altri elementi chimici; pertanto il nostro pianeta e pure gli atomi dei nostri corpi, sono stati creati in una stella e diffusi nello spazio da un'esplosione di supernova. Nel processo descritto la nube in espansione, che è quanto rivelato dai telescopi da terra, deve mostrare nello spettro un'abbondante presenza di idrogeno; pertanto quello esposto si pensa essere il modello per le SNe di tipo II. Esse, nel momento di massimo, raggiungono una magnitudine assoluta intorno alla -24, cioè 150 miliardi di volte il nostro Sole ! Questo fatto consente loro di risultare luminose come un'intera galassia e di essere avvistate a miliardi di anni luce di distanza. E' pure possibile che, durante il bruciamento dei nuclei pesanti, la stella vada soggetta ad un periodo di intenso "vento stellare", con espulsione, sotto la spinta della pressione di radiazione, degli strati più esterni, ricchi di idrogeno. Ciò dovrebbe essere normale nelle stelle molto massicce ed in tal caso si formerebbero le supernovae di tipo Ib e c. Per finire questa lunga digressione, voglio parlare del secondo modo attraverso il quale una stella può esplodere: Più sopra ho parlato di come una nana bianca sia sostenuta dalla pressione quantistica dei suoi elettroni e di come la sua massa debba essere inferiore alle 1,4 messe solari. Ciò fu dimostrato da fisico Chandrasekar, il quale calcolò che sopra tale limite di massa la gravità ha il sopravvento e riesce a fare implodere la nana bianca. Se dunque una nana bianca ha una massa appena inferiore al limite di Chandrasekar (vedi INCISO !) e "risucchia" materia da una stella compagna, può accadere che essa superi tale limite e vada soggetta all'implosione. Quello che si pensa debba accadere allora è, ancora una volta, la formazione di un'onda "di rimbalzo" che in questo caso, in assenza degli strati stellari esterni, manderebbe totalmente "in frantumi" la nana bianca. Si avrebbe dunque la formazione di una supernova di tipo Ia, la cui magnitudine assoluta al massimo di aggira attorno al valore di -26,5 (oltre 1000 miliardi di Soli !) ed il cui resto è una nube in rapida espansione e ricca soprattutto di elementi pesanti.

(22.11.1995)- INCISO: Scoperta la nana bianca più massiva

Un team di astronomi diretto da M.Barstow della Leicester University ha scoperto una stella nana bianca con una massa 1,35 volte superiore a quella del sole, il che la pone vicino al limite massimo previsto dal famoso astrofisico S.Chandrasekhar scomparso recentemente, di 1,4 masse solari. Inoltre è la più calda nana bianca di cui sia stato rilevato il campo magnetico. Rappresenta quindi un ottimo terreno di prova per verificare sia le teorie di Chandrasekhar, sia le teorie sul magnetismo stellare. Riconoscibile solo attraverso il suo numero di catalogo, RE J0317-853, questa stella straordinaria è stata scoperta con le osservazioni compiute con il sensore per l'estremo ultravioletto (EUV) a bordo del satellite Rosat per lo studio delle sorgenti X. Barstow, insieme a S.Jordan della Kiel Universität, R.Napiwotzky della Erlangen-Nurberg Universität tedesca, D.O'Donoghue e M.Harrop-Allin della Cape Town University in Sudafrica, M.Burleigh della Leycester University hanno pubblicato i loro studi nell'ottico, nell'ultravioletto e nei raggi X della stella RE J0317-853 sul numero di Dicembre del notiziario della Royal Astronomical Society britannica. RE J0317-853 è stata rilevata per la prima volta durante una survey effettuata con la Wide Field Camera britannica del satellite Rosat, e successivamente a questa scoperta, iniziò la ricerca della controparte ottica. La candidata più logica era un'altra nana bianca LB9802, ma quest'ultima era troppo fredda per generare un flusso intenso di raggi UV come quelli rilevati dal satellite. Una successiva e più approfondita ricerca ha svelato la debole immagine di RE J0317-853, quasi completamente immersa nella luce di LB9802. Il passo successivo è stato lo studio dello spettro, che ha permesso di stabilirne la temperatura superficiale di 50.000 gradi e di misurarne il campo magnetico. E' stato inoltre rilevato che la luminosità varia con la sua rotazione ogni 12 minuti, ciò sarebbe dovuto alla presenza di macchie sulla sua superficie. Gli astronomi ritengono di aver raggiunto una buona conoscenza di come si evolvano nel tempo le stelle. Il nostro Sole, tra diversi miliardi di anni, diventerà una nana bianca, ma non prima di aver utilizzato tutto l'idrogeno del nucleo. E questo è il destino finale di tutte le stelle che hanno una massa iniziale non superiore alle 8 masse solari. Dopo una fase di espansione degli strati più esterni, nota come fase di gigante rossa, questi verranno espulsi nello spazio sotto forma di nebulosa planetaria. Seguirà una contrazione del nucleo centrale quando tutti gli elementi disponibili per la fusione nucleare saranno esauriti. I nuclei atomici e gli elettroni saranno compressi fino a formare quella che viene chiamata la "materia degenerata", così densa che un solo centimetro cubico avrà il peso di una tonnellata e più. La stella avrà cosi' raggiunto la fase di nana bianca. RE J0317-853 ha un diametro di soli 2.500 chilometri, una volta e mezza il diametro della Luna. Nel 1930 l'astrofisico indiano S.Chandrasekhar ipotizzò che le nane bianche potessero raggiungere la condizione di equilibrio tra contrazione gravitazionale e la repulsione tra le particelle subatomiche che formano il fluido elettronico, nel caso in cui non avessero superato la massa di 1,4 masse solari equivalenti (per stelle dotate di una rotazione non rapidissima). Al di sopra di questo "limite di Chandrasekhar", la stella collasserebbe ulteriormente fino a formare una stella a neutroni o, nel caso di quelle più massive, un buco nero. In realtà le nane bianche generalmente hanno una massa di 0,6 volte quella del sole. Stelle nane bianche di massa superiore si formano in particolari situazioni, come nei sistemi binari, e sono in ogni caso molto rare. Questo ha impedito per anni la verifica dell'esattezza del limite di Chandrasekar. A noi astrofisici interessa sapere con precisione quanto può essere massiva una nana bianca poichè un tipo particolare di supernovae (note come di tipo I) si producono quando una nana bianca acquista materia sottraendola ad una stella compagna fino al punto in cui supera il famoso limite. A causa della sua massa notevole e delle ridotte dimansioni, RE J0317-853 ruota molto rapidamente e potrebbe essersi formata in un sistema doppio, in accordo con le teorie odierne. Ma tutte le ricerche non sono riuscite a rivelare alcun segno di un'eventuale compagna. Potrebbe però essere nascosta dalla nana bianca o addirittura potrebbe trattarsi dell'unione di due le nane bianche. La scoperta di oggetti particolari come RE J0317-853 ci costringe a rivedere alcune delle nostre teorie, in quanto male inquadrano la presenza di questi oggetti nel cammino dell'evoluzione stellare. Anche per le ricerche sul magnetismo, RE J0317-853 può essere un buon banco di prova delle teorie sul magnetismo stellare. Le stelle, incluso il Sole, hanno un campo magnetico, ma non è ancora completamente chiaro come si formi. L'idea generalmente accettata è quella detta della "dinamo solare" nella quale, l'intensità del campo dipende da fattori come la sua estensione o la velocità di rotazione della stella. L'enorme intensità del campo magnetico di questa nana bianca potrebbe essere dovuto alla rapidità della sua rotazione, il che potrebbe essere una verifica della teoria della dinamo solare.

[UP][TOP]

10.01.2004 Le magnetar sono più comuni del previsto

Nella nostra galassia ne esisterebbero a centinaia. Uno studio condotto da scienziati statunitensi e canadesi del Marshall Space Flight Center della NASA ha gettato nuova luce sulle magnetar, le stelle più magnetiche conosciute. La ricerca, basata sull'osservazione di esplosioni provenienti da una stella di neutroni estremamente potente, suggerisce che questi oggetti esotici, in grado di smagnetizzare una carta di credito a 150.000 chilometri di distanza, sono molto più comuni di quanto si pensava. Lo studio è basato su dati raccolti dall'osservatorio MM-Newton dell'ESA e dal Rossi X-ray Timing Explorer della NASA. I ricercatori hanno presentato i risultati il 6 gennaio 2004 al convegno dell'American Astronomical Society ad Atlanta.Conosciamo soltanto dieci magnetar nella Via Lattea, ma se le bizzarre caratteristiche della magnetar che stiamo studiando, come l'attivarsi e il disattivarsi continuamente senza mai raggiungere una luminosità eccezionale, fossero normali, allora potrebbero benissimo essercene molte altre centinaia. La stella in questione è una "candidata" magnetar, chiamata 1E 2259+586, nella costellazione di Cassiopea, a circa 18.000 anni luce dalla Terra. Una magnetar è una speciale stella di neutroni, una sfera compatta di circa 15 chilometri di diametro che è tutto ciò che rimane dopo il collasso di una stella grande una decina di volte il nostro Sole. Per ragioni non del tutto chiare, la magnetar possiedono campi magnetici migliaia di volte più intensi delle normali stelle di neutroni, da 1014 a 1015 Gauss.

MAGNETAR

This word, until now not often seen outside the specialist field of cosmology, has suddenly became a hot topic. Reports have recently appeared of a colossal burst of gamma rays which hit the Earth’s upper atmosphere on 27 August 1998. The pulse lasted about five minutes, ionised the atmosphere on the night side to levels normally seen in daytime, disrupted some radio traffic, sent detectors on several spacecraft off scale and caused one to shut down completely. What is astonishing about this phenomenon is that it was traced to a star some 20,000 light years away, of a strange and rare kind known as a magnetar. Astronomers think they are young neutron stars, formed in supernova explosions, which are rotating at speeds that approach a thousand times a second. This rotation generates immense magnetic fields. The heat generated by the movement of the field through the iron crust of the neutron star quickly becomes so great that it cracks apart in what has been dubbed a starquake, the stellar equivalent of an earthquake. This causes the release of vast amounts of gamma rays. Though our atmosphere protects us from the radiation, such huge bursts can, as we’ve seen, knock out satellites. The name is a blend of magnetic and star; it was coined by Robert Duncan and Christopher Thompson in a paper in the Astrophysical Journal in 1992; these exotic stars are also called soft gamma repeaters, a name which was given to them after a huge radiation burst was observed in 1979 and long before their true nature was realised.

In ordinary neutron stars the crust is stable, but in magnetars, the crust is stressed by unbearable forces as the colossal magnetic field drifts through it,said Duncan.
[Space Science News, May 1998]

A young magnetar would be very hot, because of frictional heat generated by mobile material, redistributed by the powerful magnetic field.
[New Scientist, Aug. 1998]

La stella di neutroni: un magnete spaziale

 

Questi stranissimi astri sono il risultato dell'evoluzione di stelle di massa pari a qualche volta quella del Sole. Mentre gli strati esterni della stella vengono spazzati via, il nucleo di ferro collassa su se stesso in modo violento. Nelle stelle piccole, la contrazione del nucleo cessa quando la pressione degli elettroni all'interno diventa così forte da controbilanciare la pressione degli strati esterni; ma nella nostra stella la pressione è troppo grande: il collasso prosegue fino a modificare addirittura la struttura degli atomi al suo interno! In un atomo normale, gli elettroni si trovano molto distanti dal nucleo, e l'atomo è praticamente "vuoto". L'enorme pressione della stella è così grande da spezzare i nuclei in protoni e neutroni. Gli elettroni si trovano così vicini ai protoni da fondersi con essi, formando altri neutroni. A questo punto la stella è composta solo da neutroni, così vicini che non cè nemmeno il più piccolo spazio tra uno e l'altro. La densità è pari a 100mila mliiardi di volte quella della roccia: un cucchiaino da caffé di questa materia, peserebbe sulla Terra quanto l'intera popolazione umana ! In questo modo, però, la stella riesce a frenare il collasso e ad assestarsi in uno stato di equilibrio: la pressione di questo "mare" di neutroni è in grado di bilanciare il peso della stella.Una stella di neutroni è piccolissima: pur avendo una massa un pò maggiore di quella del Sole, misura soltanto una trentina di Km di diametro, come un grosso asteroide.... Poli magnetici. Animazione.Per questo motivo, la stella ruota con grandissima velocità, anche 100 volte al secondo. Infatti l'energia del moto di un corpo in rotazione è proporzionale alla velocità di rotazione e al quadrato del raggio del corpo. Questa energia rimane costante durante la rotazione; quindi, se il raggio del corpo diminuisce, la sua velocità di rotazione deve aumentare. È come quando una pattinatrice sul ghiaccio raccoglie le braccia al corpo per girare su se stessa più velocemente. Le stelle di neutroni sono caldissime (10 milioni di gradi); esse non emettono la stessa radiazione delle stelle normali, perciò non sono visibili con gli stessi strumenti. Per scorgerle occorre un radiotelescopio, cioè uno strumento in grado di rivelare le onde radio. La prima stella di neutroni è stata infatti scoperta nel 1967, quando gli astronomi si accorsero di una sorgente di impulsi radio, che si ripetevano nel tempo in modo estremamente regolare. La sorgente era localizzata in un punto preciso, come una stella, quindi essi diedero il nome di "pulsating radio star" (stella radio pulsante, poi contratto in "pulsar") alla misteriosa sorgente.Come mai la stella di neutroni produce impulsi radio ? Queste stelle, oltre a possedere un fortissimo campo gravitazionale, sono dotate anche di un campo magnetico estremamente intenso. Per causa sua, la radiazione prodotta non viene emessa dall'intera stella, ma solo entro due coni molto stretti, che si trovano attorno all'asse del campo magnetico della stella. Spesso l'asse di rotazione e l'asse del campo magnetico non coincidono. Mentre la stella ruota, i poli magnetici appaiono alternativamente alla nostra visuale, insieme ai coni nei quali la radiazione viene emessa. Nell'animazione, la linea rossa rappresenta l'asse magnetico, quella nera l'asse di rotazione. Quando un cono è rivolto verso di noi, la radiazione emessa arriva fino a noi. Il risultato è un impulso radio. Oltre alle onde radio, una stella di neutroni emette anche raggi ultravioletti, X e gamma, mentre emette più debolmente nella banda ottica.

Fonte: Royal Astronomic Society

[UP][TOP]

FINE DIGRESSIONE

Gli astronomi hanno scoperto che un ruolo fondamentale nell'esplosione delle stelle è giocata dai neutrini: queste elusive particelle, che interagiscono pochissimo con la materia, vengono sviluppate in grande quantità nelle fasi di collasso gravitazionale delle supernovae di tipo II, e trasportano pertanto energia in modo rapido ed efficiente verso l'esterno. Si è scoperto che l'onda d'urto che porta all'esplosione stellare viene sostenuta e rafforzata dal flusso dei neutrini, e che se essi interagissero sono un pò meno con la materia l'onda d'urto si spegnerebbe dentro la stella, ma se anche l'interazione fosse eccessiva i neutrini non potrebbero intervenire al momento opportuno. Siccome l'interazione tra i neutrini e la materia è governata dalla forza debole, si può dire che questa forza fondamentale della natura ha il valore esatto affinché il carbonio si possa diffondere nell'universo.

(*)-Se la forza nucleare forte fosse solo leggermente più intensa di quanto non sia in realtà, nelle prime fasi del Big Bang tutto l'idrogeno si sarebbe convertito il elio, ed oggi non esisterebbe quel fondamentale elemento chimico che costituisce l'acqua e tutte le molecole organiche. Ma se fosse anche leggermente più debole non sarebbe possibile la catena di reazioni che porta alla costruzione degli atomi pesanti, per cui anche in questo caso non ci sarebbe la materia necessaria alla vita.

(*)-L'universo sembra avere la densità giusta per poter ospitare la vita. Se infatti fosse molto più denso, esso sarebbe collassato poco dopo la sua nascita, non lasciando il tempo sifficiente allo sviluppo della vita. Ma anche se fosse meno denso si sarebbe espanso troppo rapidamente, sicché la probabilità di aggregarsi di stelle e pianeti sarebbe risultata molto minore.

(*)-La massa del protone e del neutrone sono leggermente diverse, ed il protone è quello più massiccio. Se queste due masse non fossero così simili, nei primi istanti dell'universo si sarebbero formati solo gli uni o gli altri, con conseguente impossibilità di formare gli atomi. Inoltre, se il più massiccio fosse il neutrone, i protoni liberi decadrebbero spontaneamente in neutroni, positoni e neutrini, con conseguente sparizione di tutto l'idrogeno dell'universo.

(*)-Il nostro universo ha tre dimensioni spaziali, e solo sotto questa condizione le forze che decadono inversamente al quadrato della distanza sono conservative. Se così non fosse, le orbite dei pianeti sarebbero instabili e non ci potrebbe essere propagazione delle onde elettromagnetiche.

Una tale mole di dati (coincidenze ?) porterebbe logicamente a pensare che c'è un disegno dietro a tutto ciò, che l'universo è stato "pensato" da un'entità superiore che ha predisposto tutto affinché vi potesse sbocciare la vita. Questa posizione, che introdurrebbe un elemento metafisico nella scienza, è stata duramente criticata, tanto che si è giunti ad una spiegazione alternativa, nota appunto come principio antropico. Come suggerito dal nome stesso, l'idea è quella di ribaltare il punto di vista, ponendo al centro del problema non l'universo ma l'uomo stesso. Una possibile formulazione del principio antropico è dunque che: "Se l'universo sembra fatto per ospitare la vita è semplicemente dovuto al fatto che, se così non fosse, non vi potrebbero essere al suo interno forme di vita in grado di chiedersi il perché di questa coincidenza"; in altre parole, è inutile meravigliarsi che tutto sembri fatto per garantire la nostra esistenza, dal memento che se noi siamo in grado di porci questo quesito è proprio perché esistiamo. Come si può ben vedere, il principio antropico pone l'uomo come punto di partenza per spiegare il resto dell'universo, e in un certo senso ribalta tutta la tradizione scientifica che ci ha insegnato, a partire dalla rivoluzione copernicana, come il nostro ruolo sia del tutto marginale. In effetti il principio antropico, secondo la formulazione precedentemente enunciata, nota anche come "forma debole", sembra operare in modo assolutamente antiscientifico, in quanto si serve dell'effetto per spiegare la causa. Per questa ragione ne esiste anche una "forma forte": essa recita che: "esistono infiniti universi, ciascuno differente dagli altri per piccoli particolari, leggere differenze nelle costanti universali, leggi fisiche che agiscono in modo un poco dissimile, … e solo in quegli universi in cui le condizioni sono tali da potersi formare la vita esistono esseri intelligenti in grado di chiedersi perché l'universo sembri costruito apposta per la loro esistenza". Così espresso, il principio antropico pone come postulato principale non più l'esistenza dell'uomo, ma quella di infiniti universi, sottraendosi dalla critica di antiscientificità; d'altro canto, ora esso si serve di un'ipotesi altamente "dispendiosa" (l'esistenza, indimostrabile, di infiniti universi) per dimostrare un fatto ben più modesto (l'esistenza del nostro). Pertanto esso è suscettibile della critica di non soddisfare il "rasoio d'Occam", quella regola non scritta del procedere scientifico che prevede, in mancanza di dati risolutori, di adottare sempre l'ipotesi più semplice, più elegante e meno dispendiosa. Il dibattito è tuttora aperto. Segnalo solo che alcuni fisici teorici pensano che molte delle coincidenze oggi viste come tali non siano altro che conseguenze dirette di una qualche legge fondamentale non ancora scoperta, riguardante le teorie di grande unificazione delle forze. Infatti, quasi tutti i fenomeni che ci appaiono sorprendenti hanno a che vedere con la massa delle particelle e con le costanti di interazione delle forze, che sono considerate parametri empirici della "teoria standard" oggi adottata per spiegare la fisica delle particelle. E' però possibile che una futura e più fondamentale teoria di grande unificazione possa spiegare tutti questi dati in modo elegante, a partire da un numero molto piccolo di considerazioni sperimentali. Per esempio, il postulato sulla densità dell'universo oggi non appare già più così sorprendente quanto poteva qualche decennio fa, in quanto l'attuale teoria dell'inflazione giustifica la "piattezza" dell'universo in modo elegante.

[UP][TOP]

  (CyberOps Typer Applet can't display)

[X]-Clicca sulla X per vedere la versione integrale del testo scorrevole.

Commento alle teorie fisiche - Il rasoio di Occam. Riflessioni filosofiche (tecnico...)

Ci chiediamo quanto vi è di soggettivo nelle teorie fisiche.. Una versione del rasoio di Occam può essere che "tra varie spiegazioni possibili di una cosa è quella più semplice che ha maggiori possibilità di essere vera". E' possibile enunciare una versione "democratica" di tale rasoio: tra varie spiegazioni possibili di una cosa è la spiegazione più semplice che ha le maggiori possibilità di essere veramente accettata dalla maggioranza. Il rasoio democratico può essere detto altrimenti principio democratico della conoscenza basandolo sul minimo sforzo di comprensione ovvero sulla minima complicazione dei ragionamenti da comprendere. In parole povere lo si può riassumere in un "principio di minimo nello sforzo di conoscenza" ossia, in parole meno nobili, un bellissimo principio di pigrizia. Il primo commento possibile alle teorie fisiche partendo dall'applicazione del rasoio democratico è che esse sono fondate anche sul fatto, soggettivo, di un principio democratico: ciò che è plausibile è maggiormente condivisibile se la maggioranza lo accetta. Il secondo commento è che le teorie fisiche sono fondate su un altro fatto soggettivo, il cosiddetto principio estetico: ciò che piace alla maggioranza è accettato. Nella scienza l'unione del principio estetico con quello democratico è umanamente invincibile e può essere vinto, con pazienza, solo dalle prove sperimentali inequivocabili, Galilei docet ! Ovvero un sistema della fisica le cui teorie siano il risultato dialettico di tale unione non può, e non deve, essere vinto soggettivamente con puri ragionamenti umani ma può esser sconfitto oggettivamente con esperimenti. In comune le teorie fisiche hanno un desiderio, in senso latino di rimpianto, di semplicità. Il terzo commento è, quindi, la seguente constatazione. Ritenere che la natura sia semplice è bello e facile, porta a spiegazioni di minimo sforzo di comprensione e conseguentemente con maggiori possibilità di soddisfare il principio di pigrizia e quello di estetica. Alla maggioranza piace ciò che è facile e lo chiama semplicità della natura ottemperando al principio di pigrizia ed essa realizza così l'unione del principo estetico con quello democratico: il rasoio. Il rasoio taglia la possibilità che la natura sia complicata, ma non lo può escludere. Quindi si passa ad esprimere le leggi fisiche e le leggi di natura per approssimazioni successive, ovvero per successive illusioni di semplicità o meglio per rasoi successivi: le teorie fisiche. La conoscenza apparentemente sarebbe una successione di colpi di rasoio, ma prima o poi giunge il momento di cambiar rasoio. La scelta d Lorentz, usando una analogia storica relativa alla teoria della relatività, è il momento in cui si deve cambiar rasoio, il precedente avendo la lama consunta incapace di tagliare le nuove evidenze sperimentali. Nella costruzione di una teoria fisica una domanda sorge spontanea, perché mai non si accetta la possibilità che la natura possa essere apparentemente semplice oppure apparentemente complicata, e considerare equanimemente le due possibilità senza sottostare al "principio di pigrizia". Questa disposizione paziente alla complicatezza della natura aiuta a ridurre il contributo di soggettività della logica umana per aumentare la considerazione oggettiva della logica della natura. Il processo di costruzione di una teoria fisica potrebbe partire, invece che dal rasoio, dalla constatazione che la logica della natura non è logica umana. Il campo di dominio incontrastato della logica umana è il linguaggio di rappresentazione della natura, mediante teorie fisiche, tale linguaggio non può che essere matematico ossia quantitativo e sinottico nella sua forma ideogrammatica. Compito della logica umana non può essere il radere ma l'adeguare; sempre mediante il linguaggio, le caratteristiche logiche delle entità misurate con le caratteristiche logiche della matematica con cui la teoria le descrive. Si può concludere con un esempio che illustri e al tempo stesso dia la ricetta operativa di una tale sorta di principio di "aderenza logica" tra logica della natura, il dato oggettivo del fenomeno misurato, e logica umana, il dato soggettivo del linguaggio utilizzato. Se le grandezze misurate presentano una struttura discreta o continua si deve ricercare corrispondentemente una matematica discreta o continua. Inoltre si dovrà imporre che le variabili incognite del linguaggio matematico siano solamente quelle corrispondenti alla grandezze misurate. A commento finale si può constatare come la teoria della relatività abbia realizzato appieno tale prescrizione di "aderenza logica", invece la meccanica quantistica l'abbia applicata perfettamente al contrario. Nondimeno queste teorie fisiche sono le ultime due lame del rasoio democratico a doppio taglio che usiamo nel tempo presente.

[UP][TOP]

DIVAGAZIONE...

(01.10.2004) IL METODO SPERIMENTALE
DELLA SCIENZA

Riflessione ERETICA... 

Devil...

Si cita spesso il "rasoio di Occam" e il suo presunto riferimento epistemologico alla Scienza. Addirittura si arriva a dire che il metodo di giudizio morale del "rasoio di Occam" sia un metodo scientifico. E' evidente che i benpensanti e fondamentalisti, molte volte descritti con il nome di "skeptics", definizione che essi stessi si sono dati, usano e propongono il "rasoio di Occam" come una barriera morale preconcetta a tutto ciò che può sfuggire al loro status quo culturale e spesso, per dar credito alle loro affermazioni preconcette, sostengono che il "rasoio di Occam" é un metodo razionale che contraddistingue il pensiero scientifico. Nulla di piu' falso. Il "rasoio di Occam" é solo una invenzione della Chiesa medievale per difendere il suo status quo. Esso dice specificatamente che "le entità non vanno moltiplicate oltre il necessario", intendendo per "il necessario" l'insieme di quei valori e di quelle conoscenze che sostengono lo status quo e le sue convenienze. Non per nulla gli skeptics lo hanno chiamato il "rasoio di Occam che taglia via le ipotesi non credibili e non utili" in un giudizio preconcetto sui fenomeni da sottoporre alla ricerca. Chi può dire infatti che cosa sia credibile o non credibile in una ricerca se non si esplora la natura e non si verifica sperimentalmente la validità e la concretezza dei fenomeni a prescindere da qualsiasi convinzione preconcetta esistente sugli stessi ? Fu il Galileo Galilei a impostare per la prima volta nella storia occidentale una effettiva epistemologia che diede vita alla scienza moderna e consentì all'uomo di sottrarsi all'oscurità delle credenze religiose e della superstizione. Non per nulla fu proprio la Chiesa, che aveva inventato il metodo di presunta logica razionale del "rasoio di Occam", a sottopporlo ad un processo che doveva censurarlo e metterlo a tecere per sempre. E in effetti il "rasoio di Occam" e la "metodologia sperimentale" proposta dal Galilei non avevano nulla in comune. Il rasoio di Occam consentiva una ricerca basata sulla salvaguardia dello status quo esistente e quindi ipotecava la scelta dei campi di ricerca su inevitabili idee preconcette che finivano per limitare una ricerca a tutto campo sulla natura. Ma in definitiva non era e non poteva essere un metodo logico da applicarsi alla ricerca scientifica poiché era e rimaneva un metodo di logica che gestiva una verità preconcetta sul piano della sua applicazione etica. Una vera epistemologia scientifica la possiamo trovare solo nel metodo sperimentale proposto dal Galilei che sino ad oggi sembra assicurare la possibilità di trarre conoscenza utile e sufficentemente oggettiva dalla natura che ci circonda. E' il metodo sperimentale che ha portato l'uomo sulla Luna, che ha vinto le malattie che affliggevano l'umanità e che ha aperto alla speranza di un progresso futuro. Il "rasoio di Occam" invece basta appena per dissertare sul sesso degli angeli oppure forse per sostenere gli interessi di qualche multinazionale che si nasconde dietro il nome della scienza per fare i suoi interessi..... Una tesi sostenuta già dal Petrarca, che nel suo epistolario a metà del Trecento, paventava le deleterie conseguenze del nuovo aristotelismo degli occamisti del suo tempo. O per dirla come Bertrand Russel in un suo celebre saggio: "L'interpretazione di Occam data dagli storici moderni, secondo E.A.Moody [The Logic of William of Ockham (1935, repr. 1965)], é stata viziata dal desiderio di trovare un "graduale" passagio dalla scolastica alla filosofia moderna; questo ha fatto si' che si volessero leggere per forza in lui delle dottrine moderne, mentre in realtà Occam stava semplicemente interpretando Aristotele...". Il metodo sperimentale della Scienza é semplice e inequivocabile nella sua proposta esperienziale. Se il rasoio di Occam vuole guidare il ricercatore su binari di una morale preconcetta a cui attenersi, il metodo sperimentale si occupa solo di sviluppare un approccio razionale con i fenomeni per conoscerli e gestirli nella loro effettiva natura. Il metodo sperimentale impostato dal Galilei é caratterizzato infatti dalle seguenti attività che non hanno alcun riscontro nel "rasoio di Occam":

a)-l'osservazione del fenomeno in oggetto

Rappresenta la fase di osservazione acritica dei fenomeni che manifesta la natura. Il ricercatore sulla base di sue necessità, o per via della manifestazione incombente del fenomeno, dà una priorità alla sua ricerca che non esclude né pregiudica, tantomeno sottopone a valore preconcetto, l'indagine successiva sugli altri restanti fenomeni. E' evidente che in questa prima istanza occorre stabilire a priori il campo di ricerca relativo al fenomeno da osservare. Ed é qui che si inseriscono i fautori del rasoio di Occam stabilendo aprioristicamente, in nome delle loro convinzioni preconcette, quali possono essere i fenomeni ortodossi da studiare e quali possono non esserlo, paventando l'idea di una necessità di economia delle risorse. Necessità che non si può negare ma che non può essere legata ad un principio di esclusione, quale é rappresentato dal rasoio di Occam, e che può essere invece espletata da un semplice principio di priorità che porti a stabilire una precedenza dei fenomeni da studiare in relazione ai bisogni delle necessità umane del momento, senza escludere a priori gli altri rimanenti.

b)-la scelta delle grandezze

Rappresenta la fase di realizzazione di dispositivi utili per la valutazione del fenomeno osservato.

c)-la formulazione delle ipotesi

Ogni ipotesi equivale ad un avventurarsi nell'ignoto, in quanto ciascuna di essa estende il pensiero oltre i fatti conosciuti. Ma senza ipotesi lo sviluppo della ricerca mancherebbe di obiettivi e di orientamenti.

d)-la sperimentazione controllata per la verifica delle ipotesi

E' il modo con cui si controllano le ipotesi nella riproduzione in laboratorio del fenomeno osservato.

e)-la formulazione della legge

L'ipotesi, se confermata dalla sperimentazione, diventa la legge che regola il fenomeno osservato e quindi il fenomeno può essere utilizzato sul piano dei bisogni dell'uomo.

Su questa base di approccio razionale e pragmatico alla conoscenza, l'umanità é riuscita a sottrarsi al buio della superstizione e dell'ignoranza, lasciando dietro di sé le oscure credenze delle religioni di cui era schiavo, per vivere il suo futuro con pienezza e secondo le proprie potenzialità interiori. Per poter guardare, libero, alle stelle. Su questa base é nata la scienza moderna ed é nata la speranza dell'uomo. Oggi sul concetto di scienza si accapigliano fazioni con interessi di parte che vogliono usare il credito e la credibilità di questa dimensione di conoscenza per affermare la validità delle proprie verità preconcette e sostenerle nella loro opera di proselitismo. Per la scienza, la verità é quella che si può scoprire nella natura. Per altri, come gli skeptics, la verità risiede nelle proprie convinzioni preconcette. Per costoro, che si sostengono sulle loro convinzioni preconcette, é importante quindi preservare ad ogni costo l'integrità della loro stessa verità. Fu per questo motivo che la Chiesa medievale inventò il principio del "rasoio di Occam". Un principio semplice che sosteneva che tutto ciò che non era inscrivibile nella verità conosciuta non aveva valore, era una perdita di tempo. Il principio fece scuola e impostò una finta logica di ricerca che mirava a dar l'illusione di mantenersi nel razionale, nella sfera del pragmatico, fuori da ogni superstizione. Non per nulla, quando gli illuministi si sostituirono al potere della Chiesa, mutuarono questo principio che poteva difendere la loro verità rivoluzionaria e lo elevarono al rango di logica in grado di difendere il pragmatismo della loro verità di turno. E quando gli skeptics incominciarono ad operare per difendere il loro status quo fondamentalista nei confronti delle idee, a loro parere troppo innovative e rivoluzionarie, della ricerca moderna, presero a prestito il metodo di apparente logica del rasoio di Occam per l'apparente sostanza logica di questo principio. Il "tagliare via ciò che non serve" del rasoio di Occam risultò piu' che mai utile per difendere il loro status quo delle idee, delle gerarchie e del potere. Essi non rinnegarono il metodo sperimentale del Galilei, ma gli anteposero una forma di giudizio morale aprioristico a cui sottomettere la scelta dei campi di ricerca da sviluppare. L'osservazione dei fenomeni, secondo il rasoio di Occam, non poteva piu' essere applicata liberamente ai tanti fenomeni della natura, ma solo piu' ad una precisa categoria che non portasse a rivoluzionare la stabilità del loro status quo. E cosi' il metodo sperimentale del Galilei si trovò ad essere affiancato e accompagnato da una epistemologia censoria che aveva nulla a che fare con la vera scienza, ma che in realtà aveva il solo scopo di difendere uno status quo basato su una verità preconcetta. E' per questo motivo che gli skeptics mantegono e sostengono disperatamente lo stato di equivoco tra la logica pragmatica dell'epistemologia della scienza e la logica di giudizio soggettivo e moralistico del rasoio di Occam, mostrandole come se fossero la stessa cosa.

FINE DIVAGAZIONE

[UP][TOP]

Il Prpincipio Antropico e l'idea dei molti universi

Il nostro gruppo di ricerca presso la SISSA Trieste, ha formulato recentemente un'ipotesi cosmologica: che il nostro universo non sia affatto unico, né speciale. Esistono, anzi, tutti gli universi possibili, regolati da ogni sistema immaginabile di leggi fisiche coerenti, e abitati, eventualmente, dai più diversi esseri compatibili con l'ambiente circostante. Una caratteristica notevolissima di questa teoria è che essa non è il frutto di un modello matematico per l'origine dell'universo, ma ha origine da semplici necessità di carattere logico. In altre parole, l'unica maniera per rendere logicamente sensato il nostro mondo sarebbe quella di accettare che ne esistano infiniti altri paralleli. Vediamo perché...

Tutte le teorie fisiche esistenti forniscono regole tramite le quali, una volte conosciute le condizioni iniziali di un sistema e i valori di alcune costanti fondamentali, si può prevedere il comportamento del sistema stesso. Nessun modello però è in grado di derivare il valore delle costanti della natura (la velocità della luce, la carica elettrica o la massa delle particelle elementari, ecc.); inoltre, nessuna teoria, per ora, sa spiegare perché l'Universo nasca a partire da certe condizioni iniziali e non da altre. Eppure, i valori delle costanti fisiche e delle condizioni iniziali sono tutt'altro che irrilevanti: sembrano essere stati "scelti" con una incredibile precisione. L'Universo in cui viviamo non appare affatto come uno qualsiasi fra i tanti possibili, ma un cosmo "progettato" con estrema cura. Se il valore delle costanti universali o di alcune condizioni iniziali fosse stato diverso anche impercettibilmente, l'Universo sarebbe stato radicalmente differente, e la vita non vi sarebbe mai comparsa. Come si vede, il problema è di quelli destinati ad alimentare i più accesi dibattiti, epistemologici, filosofici e teologici.Un'idea di cui spesso si serve la scienza quando si trova nell'impossibilità di spiegare alcuni dati "improbabili" è quella del Principio Antropico. All'apparenza si tratta di una considerazione banale: fra tutti i possibili universi, noi possiamo osservarne solo uno che appartenga a quel ristretto sottoinsieme che permette l'esistenza di esseri coscienti. In realtà, tale constatazione può essere elevata a vero principio metodologico: la nostra esistenza è un dato sperimentale che implica degli effetti di selezione molto pesanti sulle possibili osservazioni fisiche. Riconoscendo tale criterio di selezione naturale delle osservazioni possibili, molte coincidenze a prima vista incredibili appaiono semplicemente come inevitabili condizioni necessarie per l'esistenza di questo Universo. Ad esempio, osserviamo che l'Universo ha 13,5 miliardi di anni di età. Perché non 1 miliardo, o 5 miliardi di anni ? Mistero ? No, solo una domanda insensata: il fatto stesso che noi, sistemi complessi basati sulla chimica del carbonio, siamo qui a porci domande, implica che l'Universo debba contenere stelle che abbiano prodotto carbonio a sufficienza. E per far ciò sono necessari almeno 13,5 miliardi di anni. Viceversa, un Universo con un'età troppo elevata sarebbe ormai freddo e buio, poco confortevole per eventuali pensatori che volessero dibattere sull'età del cosmo. Ma secondo molti fisici il Principio Antropico non basta: è un buon assunto epistemologico che aiuta a porsi le domande giuste, ma non è in grado di spiegare perché effettivamente sia nato, fra tutti gli universi possibili, uno dei più improbabili, con le costanti fisiche calibrate in maniera da permettere la comparsa di esseri coscienti. Una soluzione proposta è il cosiddetto Principio Antropico Forte, meglio ribattezzato Ipotesi Antropica Forte: legge del cosmo è che debbano originarvisi osservatori. Come si vede, è un'ipotesi dalle grandi suggestioni teleologiche, più appetibile ai teologi che ai cosmologi, e che non gode di grande favore nel mondo scientifico. Un'alternativa possibile è dimostrare che questo Universo, per quanto improbabile possa apparirci, è l'unico possibile: deve esistere, come sperava Paul Dirac, una teoria fondamentale unificata che preveda che il valore delle costanti fisiche sia esattamente quello che è. Oppure, devono esistere dei postulati semplici, come proposto in forma differente da Stephen Hawking e Roger Penrose, da cui derivino in maniera inevitabile le condizioni iniziali apparentemente strane da cui ha avuto origine il nostro cosmo. Noi (SISSA Trieste) invece, abbiamo formulato l'ipotesi opposta: semplicissima e radicale. Se esistono tutti gli infiniti universi possibili, è sufficiente il Principio Antropico "debole" per spiegarci che non c'è nulla di improbabile o miracoloso nel fatto che noi abitiamo in un universo abitato ! Cercherò di spiegare brevemente questa idea che ha scatenato, qualche anno fa, le discussioni più accese fra cosmologi.

[UP][TOP]

(02.03.2000)-L'Ipotesi OPPOSTA (spiegazione...)

I valori delle costanti fisiche universali e le condizioni in cui ha avuto origine l'Universo sembrano regolate con una precisione miracolosa, quasi allo scopo di rendere possibile la nascita della vita nel cosmo. Allora perché, secondo noi, il mondo in cui viviamo sembra tanto improbabile ?. Fornirò due esempi assai diversi. (Ve ne sono molti altri, provenienti dalle più svariate branche dell'astronomia, della fisica e della chimica). Se la carica dell'elettrone fosse soltanto leggermente diversa, vi sarebbero grandi modificazioni nella chimica organica, tali che la vita, per lo meno come noi la conosciamo, non risulterebbe possibile. Inoltre, se non esistesse un livello eccitato del nucleo del carbonio, precisamente all'energia di 7 MeV, si sarebbe formato pochissimo carbonio nelle esplosioni delle supernove e la vita basata sulla chimica organica non avrebbe potuto avere origine. Recentemente diverse teorie cosmologiche hanno suggerito la possibilità dell'esistenza di infiniti universi al di là del nostro. E' un'ipotesi derivata dalla struttura matematica di alcuni modelli per l'evoluzione dell'Universo primordiale. Noi avanziamo, invece, una proposta analoga semplicemente partendo da un ragionamento logico. Mi spiego ! La nostra idea è semplicemente che ogni universo logicamente auto-consistente esista nella realtà. Mi sembra arbitrario escludere l'esistenza di qualcuno di essi. Suggerisco, insomma, che esistano effettivamente tutti gli universi logicamente possibili. Ma sosiengo anche che questi infiniti universi sono disgiunti dal nostro: fra il nostro cosmo e gli altri infiniti mondi possibili non sarebbe immaginabile alcuna comunicazione. E' un'ipotesi molto ardita, che ad alcuni può apparire scandalosa: ha senso postulare l'esistenza fisica di interi universi non osservabili ? Non è metafisica una teoria che non possa essere falsificata sperimentalmente ? E' vero che gli altri universi non sono direttamente osservabili, tuttavia la loro esistenza può essere inferita indirettamente. Il punto è che se il nostro universo fosse unico, le condizioni iniziali del Big Bang sarebebro dovute essere davvero speciali, e descrivibili per mezzo di una semplice relazione matematica. Steven Hawking e Roger Penrose hanno proposto esempi differenti di tali possibili relazioni. D'altro canto, se esiste ogni possibile universo, ce ne saranno alcuni sufficientemente "ben calibrati" da condurre alla nascita della vita. Allora non ci aspetteremmo che il nostro universo sia più speciale di quanto è necessario per produrre la vita. Di conseguenza, le condizioni iniziali potrebbero essere complicate anziché matematicamente semplici. Tale previsione può essere, in linea di principio, verificata sperimentalmente. Perciò la nostra ipotesi dei molti universi conduce ad una previsione verificabile, e dunque non appartiene alla metafisica ma alla fisica. Si potrebbe obiettare alla nosta teoria che essa, se pure indirettamente verificabile, è comunque insoddisfacente rispetto alle teorie concorrenti, perché non in armonia con il principio del Rasoio di Occam, che richiede di scegliere, fra più teorie in grado di giustificare i dati sperimentali, quella più semplice, che abbia cioè bisogno del minor numero di assunzioni arbitrarie. Noi postuliamo "addirittura" :-) un'infinità di universi ! Ci sembra invece che l'assunzione in contrasto col Rasoio di Occam sia l'esclusione di tutti gli infiniti universi possibili eccetto uno. Il nostro gruppo di ricerca ritene che questo principio richieda di imporre il minimo vincolo possibile sulla realtà, compatibilmente a quanto osserviamo. Questo è appunto ciò che si ottiene con l'ipotesi dei molti universi. Recentemente, specialmente grazie ai lavori di Andrei Linde, è stato mostrato come gran parte dei modelli inflazionari prevedano l'esistenza di regioni dello spazio che continuano in eterno ad espandersi esponenzialmente e a generare nuovi universi. Se i modelli di Linde sono auto-consistenti dal punto di vista logico, allora secondo la nostra ipotesi dovrebbero esistere nella realtà. Sarebbe prezioso comprendere più a fondo il concetto di auto-consistenza logica degli universi. Il nostro lavoro attuale è indirizzato principalmente su un problema diverso, quello dell'identificazione della materia oscura. La nostra teoria, secondo la quale la materia oscura consiste soprattutto di neutrini di massa diversa da zero. Questi decadono in fotoni che sono in grado di ionizzare l'idrogeno. Abbiamo suggerito che tali fotoni sono i principali responsabili della diffusa ionizzazione dell'idrogeno nelle galassie, che è un fatto difficile da spiegare nelle teorie più convenzionali. (Si accettano commenti !)...

[UP][TOP]

(26.08.2003)-Dio, un'ipotesi ingombrante

Alcune riflessioni notturne...

Nel ragionare dei rapporti tra scienza e fede, generalmente ci si sente in due posizioni assai diverse tra loro. C'è chi, particolarmente se non è credente, ritiene che possano "incontrarsi" -se si incontrano -su una qualche frontiera che delimita due domini ben separati; c'è chi, all'opposto, essendo credente, si preoccupa di conciliarne ogni proposizione in modo che condividano un qualche contenuto comune di "verità". È evidente che la separazione in domini, nel primo caso, nasce da un forte sospetto di incompatibilità piuttosto che di complementarità; e il non-credente propende per una soluzione in cui si riconosca che il dominio della fede è, in realtà, vuoto, sebbene riempito di affermazioni umane di tipo suggestivo. Nel secondo caso, invece, la fede induce il credente a ritenere che essa sia la chiave interpretativa di ogni "verità", dunque anche delle verità naturali, che sono viste come un sottoinsieme più vasto che include quello che, non a caso, è chiamato soprannaturale. Gli atteggiamenti degli scienziati su questi problemi sono, almeno a prima vista, diversi; ma la distinzione non sembra passare tra credenti e non-credenti, Per esempio, il biologo François Jacob ha scritto: "Quel che ha reso possibile la scienza moderna è senza dubbio la struttura del mito giudaico cristiano. La scienza occidentale infatti è fondata sulla dottrina monistica di un universo ordinato, creato da un Dio che resta fuori della natura e la governa secondo leggi accessibili alla ragione umana". Al contrario, il fisico Alan Cromer sostiene: "L'ebraismo, il cristianesimo e l'Islam sono religioni monoteistiche basate sugli insegnamenti dei profeti [...]. Il pensiero scientifico non si è evoluto - e non poteva evolversi - dalla tradizione profetica del giudaismo e del cristianesimo; è derivato da una tradizione totalmente differente". Devo ammettere che l'affermazione di Cromer mi è decisamente più congeniale, sulla scorta di altre fonti, anche se la frase di Jacob, su cui tornerò tra un momento, tolta dal contesto, non rende giustizia all'autore. Tra le fonti, importante mi sembra John William Draper che scriveva: "Il partito pagano [...] sosteneva che la conoscenza va conseguita solo tramite l'uso solerte dell'osservazione e della ragione umane. Il partito cristiano sosteneva che ogni conoscenza va ricercata nella Scrittura e nelle tradizioni della Chiesa; e che, nella rivelazione scritta, Dio ci ha dotati non solo di un criterio di verità, ma ci ha anche muniti di tutto ciò che Egli voleva che noi conoscessimo. Perciò, la Scrittura contiene la totalità, il fine di ogni conoscenza. Il clero, spalleggiato dall'Impero, non avrebbe tollerato concorrenza intellettuale alcuna [...]. [La Chiesa] divenne uno scoglio per il progresso intellettuale europeo per oltre un millennio". L'affermazione di Draper, ben presto rinforzata da argomenti ben illustrati da Aridrew Dickson White, viene vigorosamente contestata o ammorbidita da una pletora di studiosi o religiosi ma, dice Lindberg, "nell'opinione popolare la tesi Draper-White è ancora prevalente". Che vi fossero difficoltà è innegabile. A me ha sempre fatto impressione un espediente retorico inventato quasi mille anni fa da Guillaume de Conches e ricordato da Pierre Duhem; è forse una delle migliori "definizioni" di quale sia la differenza tra aspirazioni della religione e aspirazioni della scienza: "So benissimo che Dio, se vuole, può fare nascere un vitello da un albero; a me però interessa sapere perché non lo ha mai fatto". Con questo, posso tornare a Jacob. Uno dei problemi presenti nell'epistemologia ancora oggi è quello della natura metafisica dell'esistenza di leggi fisiche, cioè di un sistema coerente di regole interpretative dell'ordine naturale. Si dice che l'idea di ordine naturale e quindi dell'esistenza di leggi che lo regolano discenda dall'idea della creazione perfetta dovuta alla divinità. Naturalmente, si può bene obiettare che il rapporto leggi-divinità è affatto gratuito e che, come sarebbe piaciuto a David Hume, l'esistenza delle leggi è un dato empirico, come la ripetibilità dei fenomeni a parità di condizioni; perciò, non si può dire che Jacob creda nella concezione divina delle leggi ma solo che ne ricorda una certa compatibilità con le opinioni cristiane. Infatti, Jacob si affretta ad aggiungere: "Probabilmente, è un'esigenza della mente umana avere una rappresentazione del mondo unificata e coerente. Se manca, compare l'ansia e la schizofrenia. E bisogna pur riconoscere che in fatto di unità e di coerenza la spiegazione mitica vince di molto su quella scientifica. La scienza infatti non mira subito a una spiegazione completa e definitiva dell'universo [...]. Si accontenta di risposte parziali o provvisorie. Magici, mitici o religiosi che siano, gli altri sistemi di spiegazioni invece abbracciano tutto, sono applicabili in ogni campo e danno conto dell'origine, del presente e persino del futuro dell'universo [...] essi rispondono a ogni problema e risolvono ogni difficoltà con un unico e semplice argomento a priori". Dunque, l'accusa al sistema di spiegazioni della religione è quella di banalità intellettuale; ma si tratta della stessa "banalità virtuosa" che è usata per fare passare principi morali che, in parte, sono regole di convivenza e in parte sono meri indicatori di controllo dell'obbedienza alla gerarchia ecclesiastica (le questioni patibile circa il sesso, l'osservanza dei riti, la confessione e la preghiera, ecc.). Non si capisce, perciò in che senso possa, essere mai stato vero (e oggi non più) ciò che afferma un teologo del rango di Joseph Ratzinger quando dice: "Rivolgendo lo sguardo indietro, possiamo dire che la forza che ha trasformato il cristianesimo in una religione mondiale è consistita nella sua sintesi tra ragione, fede e vita, è precisamente questa sintesi che è sintetizzata nell'espressione "religio vera". E a maggior ragione si impone allora la domanda: perché questa sintesi non convince più oggi ? Perché la razionalità e il cristianesimo sono, al contrario, considerati oggi contraddittori o addirittura reciprocamente esclusivi ? Che cosa è cambiato nella razionalità? Che cosa è cambiato nel cristianesimo ?". Nel suo sorprendente procedere, la scienza va verso l'accumulo delle conoscenze sulla realtà naturale, delle quali non dichiarerà mai che sono "vere" ma solo "plausibili", spesso "altamente plausibili". La parola verità può essere usata solo in relazione alle strutture simboliche della matematica, nel qual caso sta a significare che il risultato è coerente, in corrispondenza uno a uno, con le premesse: quasi un gioco di tautologie, se non fosse che la forma in cui i risultati si presentano è così varia e ricca da offrire continuamente nuovi problemi. La plausibilità prevede che tutti possano verificare, che i risultati siano trasparenti e non mostrino parti oscure o misteriose: questo genera un'etica speciale, tutta interna alla scienza, l'etica della credibilità. Uno scienziato che non documenti credibilmente i suoi risultati è immediatamente un reietto e sarà espulso dalla comunità. Queste parole, credibilità, plausibilità, evocano costantemente il dubbio e la natura assai concreta dell'indagine scientifica. Detto questo, cercare ragioni di fede nelle scienze della natura, per confronto con metafore anche reinterpretate ma conservate nella narrazione e nei catechismi, è, per la religione, non soltanto troppo difficile (salvo nelle argomentazioni rivolte agente di scarsa sensibilità e cultura), ma anche assai rischioso. Ovviamente, la storia degli smacchi delle verità rivelate a fronte dei risultati delle scienze è tanto nota che, se non la si usa pesantemente nelle scuole e in ogni pubblica occasione per ridicolizzare il "sistema di spiegazioni" religioso è solo per un tradizionale fair-play dei laici, forse non del tutto immemori di passati rischi (Giordano Bruno, Galileo Galilei, per restare a due nomi centrali). C'è tuttavia un rigurgito recente in questa direzione, e viene dallo stretto ambito scientifico: il principio antropico, secondo il quale l'universo che conosciamo per esperienza diretta è il solo compatibile con l'esistenza dell'intelligenza umana, il che ripropone il "progetto", la "finalità", quindi il superiore progettista, Dio. Tuttavia, John D. Barrow, uno degli autori del principio, è categorico nel rifiutare questo uso (non solo lui !): "... le coincidenze antropiche forti non possono costituire la base di una persuasiva argomentazione a favore dell'esistenza di Dio che parta dall'apparente progetto antropocentrico dell'universo". In ultima analisi, il principio antropico non "dimostra" oggi che esiste Dio più di quanto lo facessero le eleganti leggi all'epoca di Newton, a meno di non sottolineare daccapo narcisticamente che l'uomo è lo scopo del creato. Più sottile può apparire il tentativo di affidare la verità alla logica simbolica o a sue parafrasi metaforiche, la dimostrazione dell'esistenza di Dio con un argomento che consenta l'identificazione degli elementi che fanno da supporto a una conclusione del tipo vero/falso. Ma di prove ontologiche è stato già detto tutto quello che si poteva dire e ripetere gli argomenti che le rendono non credibili è assolutamente superfluo oltreché noioso. Piuttosto, io credo che gli atei, in questo, se la potrebbero passare male per un motivo che sinora non mi è capitato di incontrare nella letteratura (vedi ad esempio: Barrow J. D., Il mondo dentro il mondo, Adelphi, 1993) ma che mi sembra assai interessante, una specie di quelli che i miei colleghi chiamano "no-go theorems". Penso che non esista possibile dimostrazione della non esistenza di una cosa che non esiste. Già così, suona vagamente antinomica. Forse assomiglia al paradosso di Hempel sui corvi ("Tutti gli oggetti non neri non sono corvi" non prova induttivamente che "Tutti i corvi sono neri"). Si potrebbe dare un esercizio per studenti di filosofia: "Dimostrare che non esiste il re degli Elfi", ecc. Dunque, se un interlocutore credente mi dice che crede per fede nell'esistenza di Dio e che questo lo esonera da ogni dimostrazione a mio uso, sono alla paralisi; non ho niente da dimostrargli a mio modo. Ovvero, posso piantarlo in asso, rompere i rapporti con lui, il che potrebbe spiacermi per altri motivi; meglio di tutto sarebbe fare un accordo, quello di regolare ogni nostro problema etsi deus non daretur, il che potrebbe essere da lui accettato se veramente sentisse che Dio guida comunque la sua coscienza anche quando non tenta di usarlo con me come principio regolatore (ma dubito che i credenti engagés siano così discreti). Bisognerebbe comunque insistere sul fatto che il concetto di "esistenza" ha un chiaro significato solo in relazione a realtà finite, che hanno in comune cioè il concetto concreto di finitezza, quasi un certificato d'esistenza. La pervasività universale non è un buon punto di partenza per l'identificazione: come nel principio di Pierre Curie secondo il quale solo le simmetrie rotte sono osservabili. Lo sanno persino i poeti come Robert Frost che ha scritto:

Stai cercando, caro Joe,/ Cose che non esistono. / Intendo gli inizi./ La fine e l'inizio./ Fine e inizio: non esistono / cose del genere / Esiste solo ciò che è in mezzo.

Essendomi occupato di fisica per 25 anni, ho accumulato motivi forti per non credere e per sentirmi laico senza incertezze. Ma so che la laicità è un fatto personale, è solitudine; che non impedisce di avere salde regole di convivenza, magari attribuendole a qualche forma di altruismo sociobiologico di cui già si parla e su cui varrebbe la pena di riflettere. Dunque, parlare di laicità serve a poco. Ma questo non corrisponde a totale indifferenza verso le incursioni delle religioni nei propri campi di interesse. Verso la pretesa di introdursi nelle scuole e di "indottrinare i minori non in grado di intendere e di volere"; verso le difficoltà psicologiche create con la confusione tra colpa e peccato, specie nei problemi del sesso; verso gli anatemi su settori di ricerca (biotecnologie, per esempio) assai delicati; verso la copertura offerta a prelati che contravvengono alle leggi del paese che li ospita; verso l'indulgente atteggiamento nelle manifestazioni più assurde della superstizione popolare; verso le discriminazioni tra chi crede echi non crede in tanti settori della vita pubblica. In parole povere, sono convinto del fatto che, oggi, non serva dichiararsi laico, ma sia indispensabile dichiararsi anticlericale. È un pò come una dichiarazione di resistenza a un invasore; cioè, a un potere estraneo e non generalmente condiviso, l'ultima manifestazione indisturbata di autoritarismo al mondo; e gli estremismi dominanti, per esempio, in Iran, Iraq o in Afganistan, non fanno altro che esemplificare di che cosa sarebbe capace ogni sistema religioso monoteista governato da sacerdoti se non fosse tenuto a bada da forze progressiste nei paesi sviluppati. Alla formazione della mentalità libera di queste forze, che includono fortunatamente molti credenti, ha certamente contribuito il pensiero scientifico nel suo sviluppo storico, ahimé, ancora recente: non contrapposto ma, essenzialmente, indifferente. Si invera così nella pratica la risposta di Pierre Sirnon de Laplace a Napoleone che lo interrogava commentando il suo Exposition du système du monde: "Dio ? non abbiamo bisogno di questa ipotesi".

[UP][TOP]

Where Are They ?

 


Maybe we are alone in the galaxy after all

By Ian Crawford

How common are other civilizations in the universe ? This question has fascinated humanity for centuries, and although we still have no definitive answer, a number of recent developments have brought it once again to the fore. Chief among these is the confirmation, after a long wait and several false starts, that planets exist outside our solar system.Over the past five years more than three dozen stars like the sun have been found to have Jupiter-mass planets. And even though astronomers have found no Earth-like planets so far, we can now be fairly confident that they also will be plentiful. To the extent that planets are necessary for the origin and evolution of life, these exciting discoveries certainly augur well for the widely held view that life pervades the universe. This view is supported by advances in our understanding of the history of life on Earth, which have highlighted the speed with which life became established on this planet. The oldest direct evidence we have for life on Earth consists of fossilized bacteria in 3.5- billion-year-old rocks from Western Australia, announced in 1993 by J.William Schopf of the University of California at Los Angeles. These organisms were already quite advanced and must themselves have had a long evolutionary history. Thus, the actual origin of life, assuming it to be indigenous to Earth, must have occurred closer to four billion years ago. Earth itself is only 4.6 billion years old, and the fact that life appeared so quickly in geologic time--probably as soon as conditions had stabilized sufficiently to make it possible--suggests that this step was relatively easy for nature to achieve. Nobel prize–winning biochemist Christian de Duve has gone so far as to conclude, "Life is almost bound to arise ... wherever physical conditions are similar to those that prevailed on our planet some four billion years ago." So there is every reason to believe that the galaxy is teeming with living things. Does it follow that technological civilizations are abundant as well ? Many people have argued that once primitive life has evolved, natural selection will inevitably cause it to advance toward intelligence and technology. But is this necessarily so ? That there might be something wrong with this argument was famously articulated by nuclear physicist Enrico Fermi in 1950. If extraterrestrials are commonplace, he asked, where are they? Should their presence not be obvious ? This question has become known as the Fermi Paradox.

COLONIZATION OF THE GALAXY 

COLONIZATION OF THE GALAXY


This problem really has two aspects: the failure of search for extraterrestrial intelligence (SETI) programs to detect radio transmissions from other civilizations, and the lack of evidence that extraterrestrials have ever visited Earth. The possibility of searching for ETs by radio astronomy was first seriously discussed by physicists Giuseppe Cocconi and Philip Morrison in a famous paper published in the journal Nature in 1959. This was followed the next year by the first actual search, Project Ozma, in which Frank D.Drake and his colleagues at the National Radio Astronomy Observatory in Green Bank, W.Va., listened for signals from two nearby stars. Since then, many other SETI experiments have been performed, and a number of sophisticated searches, both all-sky surveys and targeted searches of hundreds of individual stars, are currently in progress [see "The Search for Extraterrestrial Intelligence," by Carl Sagan and Frank Drake; SCIENTIFIC AMERICAN, May 1975; "Is There Intelligent Life Out There?" by Guillermo A. Lemarchand; SCIENTIFIC AMERICAN PRESENTS: Exploring Intelligence, Winter 1998]. In spite of all this activity, however, researchers have made no positive detections of extraterrestrial signals. Of course, we are still in the early days of SETI, and the lack of success to date cannot be used to infer that ET civilizations do not exist. The searches have so far covered only a small fraction of the total "parameter space"--that is, the combination of target stars, radio frequencies, power levels and temporal coverage that observers must scan before drawing a definitive conclusion. Nevertheless, initial results are already beginning to place some interesting limits on the prevalence of radio-transmitting civilizations in the galaxy. The Fermi Paradox becomes evident when one examines some of the assumptions underlying SETI, especially the total number of galactic civilizations, both extant and extinct, that it implicitly assumes. One of the current leaders of the field, Paul Horowitz of Harvard University, has stated that he expects at least one radio-transmitting civilization to reside within 1,000 light-years of the sun, a volume of space that contains roughly a million solar-type stars. If so, something like 1,000 civilizations should inhabit the galaxy as a whole. This is rather a large number, and unless these civilizations are very long-lived, it implies that a truly enormous number must have risen and fallen over the course of galactic history. (If they are indeed long-lived--if they manage to avoid natural or self-induced catastrophes and to remain detectable with our instruments--that raises other problems, as discussed below.) Statistically, the number of civilizations present at any one time is equal to their rate of formation multiplied by their mean lifetime. One can approximate the formation rate as the total number that have ever appeared divided by the age of the galaxy, roughly 12 billion years. If civilizations form at a constant rate and live an average of 1,000 years each, a total of 12 billion or so technological civilizations must have existed over the history of the galaxy for 1,000 to be extant today. Different assumptions for the formation rate and average lifetime yield different estimates of the number of civilizations, but all are very large numbers. This is what makes the Fermi Paradox so poignant. Would none of these billions of civilizations, not even a single one, have left any evidence of their existence ?

Extraterrestrial Migration

This problem was first discussed in detail by astronomer Michael H.Hart and engineer David Viewing in independent papers, both published in 1975. It was later extended by various researchers, most notably physicist Frank J.Tipler and radio astronomer Ronald N.Bracewell. All have taken as their starting point the lack of clear evidence for extraterrestrial visits to Earth. Whatever one thinks about UFOs, we can be sure that Earth has not been taken over by an extraterrestrial civilization, as this would have put an end to our own evolution and we would not be here today.

STELLAR CORPSES


STELLAR CORPSES

 

There are only four conceivable ways of reconciling the absence of ETs with the widely held view that advanced civilizations are common. Perhaps interstellar spaceflight is infeasible, in which case ETs could never have come here even if they had wanted to. Perhaps ET civilizations are indeed actively exploring the galaxy but have not reached us yet. Perhaps interstellar travel is feasible, but ETs choose not to undertake it. Or perhaps ETs have been, or still are, active in Earth’s vicinity but have decided not to interfere with us. If we can eliminate each of these explanations of the Fermi Paradox, we will have to face the possibility that we are the most advanced life-forms in the galaxy. The first explanation clearly fails. No known principle of physics or engineering rules out interstellar spaceflight. Even in these early days of the space age, engineers have envisaged propulsion strategies that might reach 10 to 20 percent of the speed of light, thereby permitting travel to nearby stars in a matter of decades [see "Reaching for the Stars," by Stephanie D. Leifer; SCIENTIFIC AMERICAN, February 1999]. For the same reason, the second explanation is problematic as well. Any civilization with advanced rocket technology would be able to colonize the entire galaxy on a cosmically short timescale. For example, consider a civilization that sends colonists to a few of the planetary systems closest to it. After those colonies have established themselves, they send out secondary colonies of their own, and so on. The number of colonies grows exponentially. A colonization wave front will move outward with a speed determined by the speed of the starships and by the time required by each colony to establish itself. New settlements will quickly fill in the volume of space behind this wave front. Assuming a typical colony spacing of 10 light-years, a ship speed of 10 percent that of light, and a period of 400 years between the foundation of a colony and its sending out colonies of its own, the colonization wave front will expand at an average speed of 0.02 light-year a year. As the galaxy is 100,000 light-years across, it takes no more than about five million years to colonize it completely. Though a long time in human terms, this is only 0.05 percent of the age of the galaxy. Compared with the other relevant astronomical and biological timescales, it is essentially instantaneous. The greatest uncertainty is the time required for a colony to establish itself and spawn new settlements. A reasonable upper limit might be 5,000 years, the time it has taken human civilization to develop from the earliest cities to spaceflight. In that case, full galactic colonization would take about 50 million years. The implication is clear: the first technological civilization with the ability and the inclination to colonize the galaxy could have done so before any competitors even had a chance to evolve. In principle, this could have happened billions of years ago, when Earth was inhabited solely by microorganisms and was wide open to interference from outside. Yet no physical artifact, no chemical traces, no obvious biological influence indicates that it has ever been intruded upon. Even if Earth was deliberately seeded with life, as some scientists have speculated, it has been left alone since then. It follows that any attempt to resolve the Fermi Paradox must rely on assumptions about the behavior of other civilizations. For example, they might destroy themselves first, they might have no interest in colonizing the galaxy, or they might have strong ethical codes against interfering with primitive life-forms. Many SETI researchers, as well as others who are convinced that ET civilizations must be common, tend to dismiss the implications of the Fermi Paradox by an uncritical appeal to one or more of these sociological considerations. But they face a fundamental problem. These attempted explanations are plausible only if the number of extraterrestrial civilizations is small. If the galaxy has contained millions or billions of technological civilizations, it seems very unlikely that they would all destroy themselves, be content with a sedentary existence, or agree on the same set of ethical rules for the treatment of less developed forms of life. It would take only one technological civilization to embark, for whatever reason, on a program of galactic colonization. Indeed, the only technological civilization we actually know anything about--namely, our own--has yet to self-destruct, shows every sign of being expansionist, and is not especially reticent about interfering with other living things. Despite the vastness of the endeavor, I think we can identify a number of reasons why a program of interstellar colonization is actually quite likely. For one, a species with a propensity to colonize would enjoy evolutionary advantages on its home planet, and it is not difficult to imagine this biological inheritance being carried over into a space-age culture. Moreover, colonization might be undertaken for political, religious or scientific reasons. The last seems especially probable if we consider that the first civilization to evolve would, by definition, be alone in the galaxy. All its SETI searches would prove negative, and it might initiate a program of systematic interstellar exploration to find out why.

Resolving the Paradox ?

Furthermore, no matter how peaceable, sedentary or uninquisitive most ET civilizations may be, ultimately they will all have a motive for interstellar migration, because no star lasts forever. Over the history of the galaxy, hundreds of millions of solar-type stars have run out of hydrogen fuel and ended their days as red giants and white dwarfs. If civilizations were common around such stars, where have they gone? Did they all just allow themselves to become extinct ?

RESULTS OF SETI PROGRAMS

RESULTS OF SETI PROGRAMS


The apparent rarity of technological civilizations begs for an explanation. One possibility arises from considering the chemical enrichment of the galaxy. All life on Earth, and indeed any conceivable extraterrestrial biochemistry, depends on elements heavier than hydrogen and helium--principally, carbon, nitrogen and oxygen. These elements, produced by nuclear reactions in stars, have gradually accumulated in the interstellar medium from which new stars and planets form. In the past the concentrations of these elements were lower--possibly too low to permit life to arise. Among stars in our part of the galaxy, the sun has a relatively high abundance of these elements for its age. Perhaps our solar system had a fortuitous head start in the origins and evolution of life. But this argument is not as compelling as it may at first appear. For one, researchers do not know the critical threshold of heavy-element abundances that life requires. If abundances as low as a tenth of the solar value suffice, as seems plausible, then life could have arisen around much older stars. And although the sun does have a relatively high abundance of heavy elements for its age, it is certainly not unique [see "Here Come the Suns," by George Musser; SCIENTIFIC AMERICAN, May 1999]. Consider the nearby sunlike star 47 Ursae Majoris, one of the stars around which a Jupiter-mass planet has recently been discovered. This star has the same element abundances as the sun, but its estimated age is seven billion years. Any life that may have arisen in its planetary system should have had a 2.5-billion-year head start on us. Many millions of similarly old and chemically rich stars populate the galaxy, especially toward the center. Thus, the chemical evolution of the galaxy is almost certainly not able to fully account for the Fermi Paradox. To my mind, the history of life on Earth suggests a more convincing explanation. Living things have existed here almost from the beginning, but multicellular animal life did not appear until about 700 million years ago. For more than three billion years, Earth was inhabited solely by single-celled microorganisms. This time lag seems to imply that the evolution of anything more complicated than a single cell is unlikely. Thus, the transition to multicelled animals might occur on only a tiny fraction of the millions of planets that are inhabited by single-celled organisms. It could be argued that the long solitude of the bacteria was simply a necessary precursor to the eventual appearance of animal life on Earth. Perhaps it took this long--and will take a comparable length of time on other inhabited planets--for bacterial photosynthesis to produce the quantities of atmospheric oxygen required by more complex forms of life. But even if multicelled life-forms do eventually arise on all life-bearing planets, it still does not follow that these will inevitably lead to intelligent creatures, still less to technological civilizations. As pointed out by Stephen Jay Gould in his book Wonderful Life, the evolution of intelligent life depends on a host of essentially random environmental influences. This contingency is illustrated most clearly by the fate of the dinosaurs. They dominated this planet for 140 million years yet never developed a technological civilization. Without their extinction, the result of a chance event, evolutionary history would have been very different. The evolution of intelligent life on Earth has rested on a large number of chance events, at least some of which had a very low probability. In 1983 physicist Brandon Carter concluded that "civilizations comparable with our own are likely to be exceedingly rare, even if locations as favorable as our own are of common occurrence in the galaxy." Of course, all these arguments, though in my view persuasive, may turn out to be wide of the mark. In 1853 William Whewell, a prominent protagonist in the extraterrestrial-life debate, observed, "The discussions in which we are engaged belong to the very boundary regions of science, to the frontier where knowledge ... ends and ignorance begins." In spite of all the advances since Whewell's day, we are in basically the same position today. And the only way to lessen our ignorance is to explore our cosmic surroundings in greater detail.That means we should continue the SETI programs until either we detect signals or, more likely in my view, we can place tight limits on the number of radio-transmitting civilizations that may have escaped our attention. We should pursue a rigorous program of Mars exploration with the aim of determining whether or not life ever evolved on that planet and, if not, why not.

 

Mars 28.08.2003 1:34:00 UT C8+WEBCAM (GPS Log. +45°38'35'' Lat. -0h 55m+37dec.)

We should press ahead with the development of large space-based instruments capable of detecting Earth-size planets around nearby stars and making spectroscopic searches for signs of life in their atmospheres. And eventually we should develop technologies for interstellar space probes to study the planets around nearby stars.Only by undertaking such an energetic program of exploration will we reach a fuller understanding of our place in the cosmic scheme of things. If we find no evidence for other technological civilizations, it may become our destiny to embark on the exploration and colonization of the galaxy.

DIGRESSIONE...

16 Gennaio 2004 MARTE. Beagle 2, sconfitta a metà Alcune riflessioni...

Ora che anche l'ennesimo tentativo di collegamento è fallito, agli scienziati dell'European Space Agency (ESA) restano ben poche speranze di recuperare Beagle 2, il lander (un piccolo robot) sganciatosi dalla sonda Mars Express cheMULTIMEDIA EXPERIENCE: Rovers' Landing Sites Flash Animation-ADSL or ISDN 128Kb/s- avrebbe dovuto esplorare la superficie marziana alla ricerca di tracce di vita. Nel frattempo, le immagini inviate da Spirit, il rover della Nasa atterrato senza problemi, fanno il giro del mondo. Che conseguenze avrà la scomparsa di Beagle 2 per la "sfida" tra ESA e NASA nell'esplorazione del pianeta rosso ? Io penso in realtà non molte. La verità è che Beagle 2 era una parte marginale e accessoria della missione, rappresentava una frazione piccola del costo complessivo, e comunque si sapeva che era una missione ad altissimo rischio. Inoltre, vale la pena di ricordare che non era un progetto ESA ma piuttosto un passeggero della sonda Mars Express. (Beagle 2 è stata infatti costruita da un consorzio britannico, guidato da Colin Pillinger della Open University). Non è come se fosse affondata la nave, semmai è affondata una scialuppa che si era sganciata dalla nave. Per quanto riguarda il proseguo della missione; la sonda Mars Express è in orbita attorno al pianeta ed è perfettamente funzionante. In questi giorni verrà attivato il primo spettrometro a infrarossi, con cui si potrà osservare la superficie del pianeta e indagare la composizione mineralogica. Poi entrerà in funzione la telecamera ad alta risoluzione, che servirà a realizzare immagini dettagliate di aree selezionate della superficie marziana. Infine saranno aperte due grandi antenne radar, che entreranno in funzione intorno alla metà di febbraio e serviranno ad analizzare la crosta del pianeta fino a diversi chilometri di profondità, cercando acqua e ghiaccio. Si deve osservare che il ruolo dei due lander della NASA, è completamente diverso. Spirit e Opportunity, i due lander della NASA (che sono due solo per ridondanza, non perché abbiano funzioni diverse) sono state fatte atterrare in due zone che danno l'impressione di avere ospitato acqua in passato. Arrivate lì verificheranno (in modo in realtà abbastanza rudimentale) se i dati mineralogici confermano questa supposizione. È quindi un'indagine locale, limitata alla superficie di alcune aree del pianeta. La nostra missione cerca di compiere un'analisi globale, che includa il sottosuolo e l'atmosfera. Con gli spettrometri è possibile studiare la presenza di carbonati, che significano antica presenza di acqua. Inoltre verrà studiata l'evaporazione nell'atmosfera marziana per capire quante molecole volatili perde ogni giorno: in base a questi dati potrà essere calcolato in che periodo della storia di Marte ci fosse un'atmosfera che consentiva la presenza di acqua in superficie. Speriamo che le missioni verso Marte dell'ESA continuino dopo Mars Express. Ma dipenderà dai finanziamenti che verranno concessi. All'inizio del 2005 verrà presentata una richiesta di fondi per il programma di studio 'Aurora', che prevede di arrivare nel 2030 all'installazione di una colonia umana su Marte. Prima saranno necessarie molte altre missioni per completare una sorta di studio di fattibilità: proprio come si fa quando si costruisce un palazzo, si dovrà individuare un luogo con le caratteristiche geologiche adatte, in cui sia più facile l'accesso alle risorse, come per esempio una falda acquifera. Per quanto riguarda i tempi delle missioni spaziali, questi diendono solo dall'entità dei finanziamenti. Quando gli Stati Uniti decisero di portare un uomo sulla Luna lo fecero nel giro di pochi anni dall'inizio del progetto. La cosa certa è che l'Europa da sola non potrà avere le risorse per completare questo piano. Sarebbe opportuno "giocare" d'anticipo e individuare subito le nicchie in cui inserirci e far valere la nostra esperienza per un progetto comune, anziché arrivare dopo a raccogliere le briciole di un progetto NASA.(Miltimedia Experience...)

A view of Spirit's landing site taken by the Mars Global Surveyor shows the rover's planned route.

THE ROUTE: A view of Spirit's landing site taken by the Mars Global Surveyor shows the rover's planned route. Engineers plan to send the rover about 820 feet (250 meters) from the green point to the rim of a nearby crater. Spirit will then head toward the East Hill Complex. Their tops are about 1-2 miles (2-3 kilometers) from the rover's estimated landing site.

[UP][TOP] 

22.01.2004 Marte, la Nasa ha perso i contatti con Spirit

Secondo i tecnici dell'agenzia spaziale americana, l'interruzione dei segnali sarebbe dovuta a un guasto tecnico. La NASA ha perso i contatti con Spirit, la sonda che da giorni sta esplorando Marte. Secondo i tecnici dell'agenzia spaziale americana, l'interruzione dei segnali sarebbe dovuto a un guasto tecnico. Intanto, domenica, alle 6,30 ora italiana, dovrebbe atterrare su Marte la gemella di Spirit, Opportunity. In un briefing al Jet propulsion laboratory a Pasadena, in California, il responsabile del progetto, Pete Theisinger, ha spiegato che si é registrata ''un'anomalia molto seria'' e che non ci sono piu' contatti con la Spirit da 24 ore. La sonda spaziale americana era arrivata su Marte il 4 gennaio scorso, mandando subito dopo i primi segnali e qualche giorno dopo le prime immagini del pianeta rosso.

[UP][TOP]

26.01.2004 MARS EXPRESS: C'è acqua sul Pianeta Rosso.

È la risposta che tutti attendevano. Mars Express, la sonda dell'Agenzia spaziale europea (ESA), ha trovato le prime tracce della presenza di acqua sul Pianeta Rosso. I risultati delle ultime osservazioni sono stati presentati in una conferenza stampa nello Space Operation Centre di Darmstadt in Germania. La sonda dell'ESA era entrata in orbita intorno al pianeta lo scorso 25 dicembre dopo un viaggio di sette mesi iniziato il 2 giugno dalla piattaforma di lancio di Baikonur in Kazakistan. Il principale obiettivo della missione, oltre allo studio della composizione atmosferica e geologica del pianeta, era la ricerca di prove della presenza di acqua. Tra tutti i pianeti del Sistema Solare, Marte è infatti quello con le caratteristiche più favorevoli allo sviluppo della vita dopo la Terra e la scoperta della sonda europea avvalora ulteriormente l'ipotesi. La presenza di acqua e anidride carbonica congelate nella calotta polare sud del pianeta era già stata registrata il 18 gennaio da Omega, uno degli strumenti istallati su Mars Express. Il dispositivo osserva il pianeta con una telecamera combinata con uno spettrometro infrarosso, un apparecchio in grado di eseguire analisi chimiche a distanza. L'informazione è stata poi confermata dallo PFS, un altro spettrometro presente sulla sonda, dotato di maggiore sensibilità. Un'ulteriore verifica è venuta infine dal MaRS, un ricetrasmettitore radio che ha inviato verso Marte un segnale che dopo essere stato riflesso dalla superficie del pianeta ha potuto essere captato e analizzato sulla Terra. Le indicazioni ottenute in passato erano tutte indirette. Questa è la prima osservazione diretta di molecole d'acqua su Marte.

FINE DIGRESSIONE

[UP][TOP]

Planetary survivor strategy: Outeat, outweigh, outlast
HARVARD-SMITHSONIAN CENTER FOR ASTROPHYSICS RELEASE
Posted: December 29, 2003

Of the first 100 stars found to harbor planets, more than 30 stars host a Jupiter-sized world in an orbit smaller than Mercury's, whizzing around its star in a matter of days (as opposed to our solar system where Jupiter takes 12 years to orbit the Sun). Such close orbits result from a race between a nascent gas giant and a newborn star. In an issue of The Astrophysical Journal Letters, astronomers Myron Lecar and Dimitar Sasselov showed what influences this race. They found that planet formation is a contest, where a growing planet must fight for survival lest it be swallowed by the star that initially nurtured it. The endgame is a race between the star and its giant planet. In some systems, the planet wins and survives, but in other systems, the planet loses the race and is eaten by the star. Although Jupiter-sized worlds have been found orbiting incredibly close to their parent stars, such giant planets could not have formed in their current locations. The oven-like heat of the nearby star and dearth of raw materials would have prevented any large planet from coalescing. It's a lousy neighborhood to form gas giants. But we find a lot of Jupiter-sized planets in such neighborhoods. Explaining how they got there is a challenge. Theorists calculate that so-called "hot Jupiters" must form farther out in the disk of gas and dust surrounding the new star and then migrate inward. A challenge is to halt the planet's migration before it spirals into the star. A Jupiter-like world's migration is powered by the disk material outside the planet's orbit. The outer protoplanetary disk inexorably pushes the planet inward, even as the planet grows by accreting that outer material. Lecar and Sasselov showed that a planet can win its race to avoid destruction by eating the outer disk before the star eats it. Our solar system differs from the "hot Jupiter" systems in that the race must have ended quite early. Jupiter migrated for only a short distance before consuming the material between it and the infant Saturn, bringing the King of Planets to a halt. If the protoplanetary disk that birthed our solar system had contained more matter, Jupiter might have lost the race. Then it and the inner planets, including Earth, would have spiraled into the Sun. If Jupiter goes, they all go!. It's too early to say that our solar system is rare, because it's easier to find 'hot Jupiter' systems with current detection techniques. But we certainly can say we're fortunate that Jupiter's migration stopped early. Otherwise, the Earth would have been destroyed, leaving a barren solar system devoid of life. Headquartered in Cambridge, Mass., the Harvard-Smithsonian Center for Astrophysics is a joint collaboration between the Smithsonian Astrophysical Observatory and the Harvard College Observatory. CfA scientists, organized into six research divisions, study the origin, evolution and ultimate fate of the universe.

[UP][TOP]

 

L'equazione per scovare ET

 

E' più facile ottenere un 6 lanciando due volte un dado, oppure lanciando due dadi insieme ? E... se non ottenete un 6 dopo aver lanciato un dado per cinque volte, è più facile ottenerlo con il prossimo lancio ?

Se avete risposto affermativamente ad entrambi i quesiti, siete incorsi in alcuni tipici errori del giocatore. Tuttavia, siete in buona compagnia: Jean d'Alembert, il grande matematico francese del XVIII secolo, pensava che i risultati ottenibili lanciando tre volte una moneta fossero diversi dal lanciarle insieme. E credeva, come molti, che dopo una serie di teste, una croce fosse più probabile. Le brevi note seguenti, più che un'introduzione ai princìpi del calcolo delle probabilità, sono finalizzate a discutere l'equazione di Drake (vedi in basso). La probabilità che si verifichi un certo evento, tra i vari possibili, è definita come il rapprto tra i casi favorevoli ed i casi possibili. Per esempio, la probabilità di ottenere un 6 lanciando un singolo dado è:


casi favorevoli = 1 (ossia la faccia che mostra il numero 6);

casi possibili = 6 (ossia la faccia che mostra il numero 6 e le altre 5 facce).

Dunque, la probabilità di ottenere un 6 è 1/6 = 0,16 circa.Ovviamente, una probabilità non è una certezza. Infatti, può benissimo accadere che su sei lanci non si presenti mai la faccia con il numero 6; tuttavia, aumentando il numero di lanci, si può constatare che effettivamente la frequenza con cui si presenta il numero 6 è molto vicina ad 1/6. Però, occorre fare attenzione: ogni volta che lanciamo un dado, la probabilità di ottenere un 6 rimane la stessa. Così, dopo sei lanci, e si faccia attenzione su questo punto, la probabilità, P, non si può calcolare come somma delle probabilità:


P = 1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 6 x 1/6 = 1


infatti, si otterrebbe un valore 1, corrispondente alla certezza in quanto il numero di casi favorevoli ed il numero di casi possibili coincidono. Più avanti (vedi riquadro) vedremo come si calcola la probabilità per un numero successivo di lanci. Ora proviamo a calcolare una situazione più complicata: qual è la probabilità che lanciando due dadi si ottengano due 6 ?

 Possibili combinazioni risultanti dal lancio di due dadi.

(Vedi figura)-Possibili combinazioni risultanti dal lancio di due dadi. Le facce che si possono presentare per il primo dado (indicato da una freccia), vanno accoppiate con le singole facce che si possono presentare per il secondo dado: in questo modo si ottengono 6 coppie di colonne che corrispondono a 36 coppie possibili.

Come risulta dalla figura sopra, solo l'ultima colonna mostra due dadi che presentano entrambi la faccia con il numero 6; quindi, abbiamo:

casi favorevoli = 1 (l'unica combinazione in cui si presentano due facce con il numero one che mostrano il numero 6);

casi possibili = 36 (ossia tutte le combinazioni di due dadi che si possono presentare, comprese quelle con il 6).


Dunque, la probabilità di ottenere un doppio 6 è 1/36 = 0,03 circa. Ed è una probabilità molto bassa, come del resto è facile verificare. Ovviamente, si ha la stessa probabilità di ottenere una combinazione doppia con tutti gli altri numeri (due 1, due 2, ecc.). In particolare, si può dimostrare che la probabilità cercata si può anche calcolare moltiplicando tra loro le singole probabilità di ottenere un 6:

1/6 x 1/6 = 1/36.

Più in generale, questa regola vale anche per più dadi. Così, la probabilità di ottenere quattro 6 lanciando quattro dadi è

1/6 x 1/6 x 1/6 x 1/6 = 1/1296 = 0,00077 circa !

In base a quanto discusso, possiamo vedere il procedimento corretto per calcolare la probabilità di ottenere un solo 6 dopo sei lanci consecutivi. E' ovvio che lanciare sei volte lo stesso dado o lanciare sei dadi identici insieme, non cambia le cose. Ciò premesso, abbiamo appena visto che la probabilità di ottenere con un doppio lancio una coppia di 6 è data dal prodotto delle singole probabilità. Anche adesso lanciamo due dadi insieme, però vogliamo calcolare la probabilità che esca un solo 6. Per far questo, cominciamo col calcolare la probabilità che non esca neanche un 6. Evidentemente i casi sfavorevoli sono 5 ed i casi possibili (che comprendono il 6) sono 6. Quindi, per ogni lancio c'è la probabilità di 5/6 che non si presenti la faccia con il 6. In tal caso, la probabilità che con un lancio simultaneo di due dadi non esca neanche un 6 è il prodotto delle singole probabilità:

P = 5/6 x 5/6 = 0,70

e dunque, la probabilità che esca un 6 con due lanci successivi è la differenza fra la certezza (1) ed il numero di casi sfavorevoli: 1 - 0,70 = 0,30. In modo analogo, si può calcolare che la probabilità di non ottenere un 6 con sei lanci successivi è 0,67; con venti lanci successivi è 0,03 e dunque, la probabilità di ottenere un 6 è 0,33 con due lanci e 0,97 con venti. Come possiamo constatare, non c'è certezza, a meno di fare un notevole numero di lanci. Occorre tener conto che a rigore, quando si vuol calcolare la probabilità di ottenere almeno un 6 (o un altro numero) dopo n lanci, non si sta calcolando una probabilità (che comunque rimane costante ad ogni lancio), bensì la frequenza delle probabilità. Il senso di questa osservazione può essere compreso solo all'interno di una trattazione specifica, che però esula dalle intenzioni divulgative di questa critica all'equazione di DRAKE.

Ed ora, torniamo a ET... Il radiostronomo Frank Drake, sotto la cui direzione fu sviluppato il progetto OZMA, propose un'equazione molto citata da coloro che discutono della possibilità di vita nell'Universo o, più concretamente, nella nostra Galassia. Qui appresso è riportata l'equazione di Drake, limitata - per le finalità di questa discussione - a cinque termini (invece che sette):


N = R . f1 . f2 . f3 . f4


N è il numero di civiltà evolute nella nostra Galassia; R è un parametro legato alle caratteristiche che deve avere una certa stella perché un suo eventuale sistema planetario possa ospitare forme viventi; f1, f2, ecc., sono rispettivamente la frazione di stelle simili al Sole che possiedono pianeti; la frazione di pianeti in cui la vita si può sviluppare; la frazione di pianeti che ospitano forme di vita intelligenti; la frazione di pianeti in cui si sviluppa una tecnologia. E' facilmente intuibile che a parte il parametro R, tutti gli altri sono il risultato di valutazioni del tutto arbitrarie; per cui, il valore di N può variare da 1 a qualche centinaio di migliaia, a seconda del livello di ottimismo del "cacciatore di extraterrestri". Ora, sebbene sia ragionevole ammettere che l'esistenza di forme di vita extraterrestre, anche evoluta, è del tutto possibile e probabile, è criticabile il fatto che, con il numero N si voglia calcolare non la probabilità che ci sia vita extraterrestre, ma addirittura il numero di civiltà extraterrestri. La bizzarria di questo calcolo, sarà più chiara con un esempio:

(*)-Qual è la probabilità che ci sia qualche forma di vita nell'universo ? Bèh, ci può essere o non essere; quindi, diciamo un 50 per cento che non ci sia.
(*)-Qual è la probabilità che la vita nell'universo non sia intelligente ? Bèh, può esserlo o no; quindi, diciamo un 50 per cento che non sia intelligente.
(*)-Qual è la probabilità che la vita nell'universo sia evoluta come la nostra ? Bèh, per le stesse ragioni, diciamo un 50 per cento che non sia evoluta.
(*)-Qual è la probabilità che la vita nell'universo sia intelligente e più evoluta della nostra ? Bèh, sempre per le stesse ragioni, diciamo un 50 per cento che non sia più evoluta della nostra.

La probabilità che non ci sia vita (1/2), né che sia intelligente (1/2), né che sia evoluta come la nostra (1/2), né che sia più evoluta della nostra è:

0.5 x 0.5 x 0.5 x 0.5 = 0.0625

La probabilità che ci sia vita nell'universo e che sia intelligente ed evoluta, anche più della nostra, è dunque la differenza tra la certezza e la probabilità contraria:

1-0.0625 = 0.9375,

ossia quasi il 94 per cento... più dell'ipotesi iniziale (50 per cento)!

Quanto discusso, è un modo per presentare il principio di ragione non sufficiente. Questo principio, in sostanza, dice che se non abbiamo valide ragioni per supporre che qualcosa sia vero o falso, tendiamo ad associare una probabilità eguale ad ognuna delle eventualità. Ora, con l'equazione di Drake, sembra che il principio di ragione non sufficiente non sia chiamato in causa, in quanto le probabilità f1, f2, ecc., vengono calcolate singolarmente e con una certa accuratezza. Tuttavia, in questo caso, l'errore è legato ad un altro elemento (presente anche nell'esempio appena proposto): abbiamo supposto che gli eventi (esistenza di vita, vita intelligente, vita evoluta. più evoluta) siano tra loro indipendenti... In effetti, quando abbiamo accennato ad alcuni procedimenti per calcolare le probabilità di ottenere una combinazione doppia (due 6, per esempio) lanciando due dadi, non abbiamo precisato la condizione necessaria perché il risultato del calcolo sia corretto... Gli eventi per i quali vogliamo calcolare la probabilità del loro verificarsi, devono essere indipendenti ! Per esempio, quando lanciamo due dadi, non ha importanza che il lancio sia contemporaneo: possiamo lanciarli insieme, oppure uno dopo l'altro. Infatti, possiamo essere certi che l'eventuale presenza di un 6 sulla faccia del primo dado, non influenzerà l'esito del secondo lancio (a parte la nostra emozione). In questo caso, gli eventi sono indipendenti. Nel caso dell'equazione di Drake, gli eventi non sono indipendenti ed è per questo che possono solo portare a risultati in linea con... le nostre aspettative più o meno ottimistiche. Certamente, a questo punto avrete dei dubbi. Per chiarirli, proviamo a calcolare la probabilità di estrarre un asso da un mazzo di 40 carte:


casi favorevoli = 4 (ossia i 4 assi contenuti nel mazzo);

casi possibili = 40 (ossia tutte carte che si possono estrarre, comprese quelle con gli assi).


dunque, la probabilità di ottenere un asso è 4/40 = 0,1. Come secondo passo, calcoliamo la probabilità di estrarre un secondo asso senza rimescolare le carte. Evidentemente sono possibili due casi, a seconda che abbiamo già estratto o no un asso:

casi favorevoli = 3 (ossia i 3 assi ancora contenuti nel mazzo);

casi possibili = 39 (ossia tutte carte rimaste, comprese quelle con gli assi rimasti).

Dunque, nel caso che abbiamo già estratto un asso, la probabilità di estrarne un altro è 3/39 = 0,076 circa, cioè minore della prima estrazione. Però, se alla prima estrazione non abbiamo preso un asso, la probabilità di estrarlo ora è un pò maggiore di prima, infatti:


casi favorevoli = 4 (ossia i 4 assi ancora contenuti nel mazzo);

casi possibili = 39 (ossia tutte carte rimaste, comprese quelle con gli assi).

Dunque, nel caso che non abbiamo già estratto un asso, la probabilità di estrarlo subito dopo è 4/39 = 0,102 circa, cioè - come previsto - maggiore della prima estrazione. E' ovvio che se estraiamo 20 carte senza ottenere un asso, all'undicesima estrazione, la probabilità di estrarne uno è 4/20 = 0,2. Se poi siamo così "sfortunati" da non prendere un asso dopo 35 tentativi, forse nessuno scommetterà contro di noi al prossimo tentativo; infatti, allora la probabilità di estrarre un asso sarà: 4/5 = 0,8. E' certo comunque che nessuno scommetterà contro di noi nel caso che dopo 36 tentativi ancora non abbiamo preso un asso: 4/4 = 1 = cento per cento. Gli esempi con le carte mostrano come le probabilità di estrarre un secondo asso siano dipendenti dalla "storia" delle estrazioni precedenti. Riflettendo sull'equazione di Drake, dovrebbe essere chiaro perché le sue previsioni permettono, sia pure solo con i numeri, di materializzare... quello che desideriamo. Questa equazione, sulla cui base nel 1960 è stato varato il progetto OZMA, è costata al contribuente milioni di dollari. Tuttavia, anche se non c'è stato l'atteso contatto con gli extraterrestri, i soldi sono stati ben spesi. Nel 1967 furono registrati segnali periodici regolari provenienti dalle stelle Tau Ceti ed Epsilon Eridani, e successivamente dalle radiosorgenti denominate CTA 102 e CTA 104. Poiché più di un astronomo pensò che questi segnali fossero di origine artificiale, vennero battezzati segnali LGM, acronimo di Little Green Men (piccoli uomini verdi). Ma non erano extraterrestri: si scoprì che i segnali erano prodotti da "pulsars": stelle di neutroni in rapida rotazione attorno al proprio asse. Se questa discussione non vi convince (la vita extraterrestre può esistere indipendentemente dall'equazione di Drake, quella che si critica è la possibilità di effettuarne una stima numerica), SI ACCETTANO CRITICHE...

NOTA: OZMA project. The Ozma Project led the way in 1969, followed by numerous similar programs in many countries throughout the globe Radio astronomy developed from the use of radar during the Second World War. One of the pioneers in the field was Frank Drake, who in 1960 started the Ozma Project, named after a queen who appears in "The Wizard of Oz.". Ozma directed a telescope at the Epsilon star of the Eridanes Constellation ation and the Tau star of the Cetus Constellation. Unfortunately, Drake did not make contact with any other life forms, but his Ozma Project paved the way for the creation of SETI, which drew involvement from people throughout the globe.

[UP][TOP]

11.11.2003 Aminoacidi extraterrestri

La vita potrebbe aver avuto origine negli spazi cosmici. Nelle nubi interstellari e nei meteoriti sono stati trovati diversi aminoacidi, ma alcune omissioni e molte curiose similarità con la vita sulla Terra costituiscono un vero e proprio enigma extraterrestre. Perché nei meteoriti sono presenti solo alcuni aminoacidi mentre altri sono assenti ? E perché sembrano preferire la stessa struttura molecolare "sinistrorsa" degli aminoacidi degli esseri viventi terrestri ? Rispondere a queste domande potrebbe consentire di risolvere una delle questioni fondamentali della scienza: dove e come è cominciata la vita ? Sappiamo che questi materiali provengono dallo spazio. Mi riferisco in particolare a otto degli aminoacidi trovati in un certo tipo di meteorite, una condrite carbonacea. Tutti gli otto aminoacidi sono identici a quelli usati sulla Terra dagli esseri viventi. Questo parrebbe indicare un'origine cosmica per questi mattoncini biologici di base. L'ipotesi è rinforzata dal fatto che la Terra primordiale venne continuamente bombardata da meteoriti e che l'aminoacido glicina è stato rivelato all'interno di nubi molecolari interstellari. Le implicazioni sull'origine cosmica degli aminoacidi terrestri sono state discusse in dettaglio il 3 novembre in una sessione speciale del convegno annuale della Geological Society of America a Seattle.

[UP][TOP]

12.01.2004 La vita nacque da un minerale ?


La colemanite avrebbe convertito molecole organiche interstellari in ribosio. Un team di ricercatori dell'Università della Florida avrebbe individuato in determinati minerali la chiave di alcuni dei processi iniziali che hanno formato la vita sulla Terra. In particolare, un minerale contenente borace, chiamato colemanite, può contribuire a convertire le molecole organiche trovate nelle nubi di polvere interstellare in uno zucchero, il ribosio, che fa parte del materiale genetico noto come RNA. Lo studio, pubblicato sul numero del 9 gennaio della rivista "Science", rappresenta un passo avanti verso la soluzione del mistero dell'origine della vita. Steven Benner, Alonso Ricardo, Matthew Carrigan e Alison Olcott si sono basati su un celebre esperimento effettuato 50 anni or sono da Stanley Miller. Nel 1953, Miller mostrò che scariche elettriche in un'atmosfera primitiva producevano aminoacidi, i mattoncini che costituiscono le proteine. L'esperimento di Miller, però, non riuscì a identificare gli zuccheri necessari per il materiale genetico. Il ribosio può essere formato da precursori interstellari in condizioni prebiotiche. Ma questo zucchero è troppo instabile per sopravvivere nelle condizioni di Miller, che infatti sostenne che il primo materiale genetico non avrebbe potuto contenere ribosio o altri zuccheri a causa della loro instabilità. Benner e colleghi hanno scoperto che alcuni composti esistenti nella polvere interstellare, come la formaldeide, possono formare ribosio e altri zuccheri se trattati in presenza di materiali di base come calce o, meglio ancora, colemanite.

Glossario...

Gli acidi nucleici

Sono biomolecole formate da C, H, O, N, P organizzati in catene di nucleotidi, infatti questo tipo di macromolecola è la più complessa che ci sia. I due tipi di acidi nucleici più importanti e conosciuti sono il DNA (acido desossiribonucleico) e l'RNA (acido ribonucleico).

RIBOSIO

Il ribosio è uno zucchero a cinque atomi di carbonio.

Il RIBOSIO si trova NELL’ACIDO RIBONUCLEICO.

RIBOSIO: C5H10O5

L'RNA MESSAGGERO

L'RNA messaggero è una sostanza chimica che serve a trasportare l’informazione genetica contenuta nel DNA, dal nucleo ai ribosomi.Giunto nel citoplasma il filamento dell'RNA messaggero, inizia il processo di "traduzione", cioè di costruzione della proteina.

RNA DI TRASPORTO

L'RNA di trasporto o t-RNA è una molecola che ha la funzione di agganciare e trasportare ai ribosomi i vari aminoacidi sparsi nel citoplasma. Ogni molecola di RNA di trasporto è capace di riconoscere la tripletta di RNA messaggero che codifica per un dato aminoacido e in seguito di legare l'aminoacido stesso e trasportarlo al ribosoma.

L'RNA ribosomiale

L'RNA ribosomiale è un tipo di rna presente nei ribosomi, e la funzione non è ben chiara.

Le differenze tra DNA e RNA

Le differenze tra DNA e RNA sono principalmente tre.

L'RNA è formato da un monosaccaride, che è il ribosio

(C5H10O5), mentre nel DNA c'è sempre un monosaccaride però è il deossiribosio (C5H10O4) perché ha un atomo di ossigeno in meno. Un'altra differenza sta nelle basi azotate: nell’RNA c'è l'uracile, mentre nel DNA c'è la timina. Ultima differenza sta nella struttura: l'RNA è formato da un'unica catena di nucleotidi, mentre il DNA da due catene unite tra di loro.

[UP][TOP]

29.01.2004 Ossigeno ed evoluzione della VITA

Metodi di datazione molecolari descrivono l'evoluzione eucariotica. Secondo una ricerca pubblicata sulla rivista "BMC Evolutionary Biology", l'ossigeno ha svolto un ruolo chiave nell'evoluzione degli organismi complessi. Lo studio mostra infatti che la complessità delle forme di vita è aumentata prima di quanto si pensasse, e in parallelo con la disponibilità di ossigeno come fonte di energia. In quello che è lo studio finora più vasto non dedicato esclusivamente ai vertebrati, i ricercatori della Pennsylvania State University hanno usato metodi di datazione molecolare per creare una nuova linea temporale dell'evoluzione eucariotica. Aggiungendo informazioni sul numero di differenti tipi di cellule possedute da ciascun gruppo di organismi, i ricercatori hanno ricostruito come la complessità della vita è aumentata nel corso del tempo. Lo studio mostra che gli organismi contenenti tipi di cellula più diversificati si sono evoluti in seguito ad aumenti dell'ossigeno atmosferico. Per costruire un organismo multicellulare complesso, con tutte le comunicazioni e le segnalazioni fra le cellule che richiede, c'è bisogno di energia. In assenza di ossigeno o di mitocondri (mitocondrio: elemento granulare presente nelle cellule, che partecipa alla respirazione e alla produzione di energia), gli organismi complessi non sarebbero stati in grado di svilupparsi. Lo studio ha rivelato infatti che gli organismi contenenti più di due o tre diversi tipi di cellula sono apparsi solo quando l'ambiente di superficie divenne ossigenato, circa 2.300 milioni di anni fa. Proprio a quell'epoca le cellule divennero in grado di estrarre l'energia dall'ossigeno grazie alla comparsa dei mitocondri.

[UP][TOP]

Miller & Miller

Ovvero: c'è sempre un Miller nella storia della Vita :-)

Il nome Miller non dice molto a chi non si occupa di bioastronomia e potrebbe trarre in inganno i biologi i quali potrebbero pensare, non a torto, ad un Miller di più datata memoria. Di cosa si tratta ? Nel 1952 un gruppo di scienziati, tra cui Harold Urey, formulò l'ipotesi che la vita si fosse originata su una giovane Terra che aveva un'atmosfera dalla composizione molto diversa da quella attuale. La Terra, da poco emersa da una intensa pioggia di grossi meteoriti pioggia durata da 20 a 200 milioni di anni e probabilmente innescata dalla migrazione di Urano e Nettuno verso le regioni più esterne del sistema solare, era priva di ossigeno libero: nell'atmosfera si trovavano metano, ammoniaca, molto vapor d'acqua e anche idrogeno. In essa arrivava molta energia sotto forma di radiazione visibile, raggi ultravioletti e cosmici; le scariche dei fulmini, il decadimento radioattivo di taluni isotopi contenuti nella crosta terrestre e i vulcani contribuivano, anche loro, a immettere energia nell'atmosfera. Non vi era uno strato di ozono che potesse bloccare gli ultravioletti che, così, potevano attraversare tutta l'atmosfera giungendo indisturbati fino al suolo. Essi, sufficientemente energetici come erano (e sono!), potevano rompere i legami tra gli atomi delle molecole presenti nell'aria dando luogo alla formazione di "frammenti" che, combinandosi in vario modo, avrebbero potuto originare nuovi composti, nuove molecole cioè, tra le quali potevano trovarsi, perché no ?, anche quelle tipiche degli organismi viventi o precorritrici di queste. Era questa l'idea di Urey e colleghi quando, un anno dopo, un allievo di Urey, Stanley L. Miller appunto, realizzò un apparato con il quale sottopose a verifica l'ipotesi del maestro. In una sorta di pallone - bollitore a circolazione forzata introdusse una miscela di gas a composizione simile a quella dell'atmosfera primordiale. In un altro comparto dell'apparecchiatura l'aria era attraversata da scariche elettriche che mimavano le scariche dei fulmini dell'atmosfera primordiale. A valle di questa zona una condensazione forzata del vapore presente nell'aria, riportava l'acqua, e tutto ciò che in essa si fosse eventualmente solubilizzato, sul fondo del recipiente, nel liquido da cui essa era precedentemente evaporata. Molti cicli simili di evaporazione, scariche elettriche e condensazione furono fatti susseguire per circa una settimana, alla fine della quale, esaminando la composizione del liquido, si scoprì che esso conteneva molecole precedentemente in esso non presenti e, tra queste, molte che entrano nella composizione di un organismo vivente : aminoacidi ( i "mattoni" necessari per la costruzione delle proteine), acidi organici e inorganici, urea ecc. Urey aveva previsto giusto: nell'atmosfera primordiale (che, per dirla con i chimici, era riducente e non ossidante come quella attuale) sussistevano le condizioni sufficienti per dare origine alle molecole tipiche dei viventi. Il liquido dell'esperienza di Miller (equivalente al mare della Terra dei primordi) arricchendosi di composti organici si trasformava in una sorta di "brodo primordiale" dal quale, in qualche modo e su opportuni substrati, potevano originarsi le prime macromolecole biologiche e le prime semplici forme di vita. Dunque, Stanley L. Miller aveva dimostrato che una tappa indispensabile per l'origine della Vita, l'evoluzione chimica (la quale, partendo da molecole inorganiche, portava a molecole organiche molte delle quali presenti negli organismi viventi) era possibile nella Terra dei primordi. Si poteva, dopo Miller, affrontare dunque il discorso dell'origine della vita sulla Terra partendo da una sicura acquisizione: quella dell'origine autoctona delle molecole organiche. Poco importava che molecole organiche formatesi nello spazio potessero aver raggiunto la Terra con i meteoriti: esse avrebbero soltanto contribuito, in una qualche misura, all'arricchimento del brodo primordiale formatosi in loco . A questo proposito non è da sottovalutare la concomitanza temporale di due eventi la cui acquisizione è patrimonio di due scienze diverse quali la biologia e l'astronomia. Secondo le più recenti vedute, le prime cellule viventi sarebbero comparse sulla Terra in un intervallo di tempo compreso tra 750 e 1100 milioni di anni dopo la sua origine mentre, dallo studio dei crateri da impatto presenti sulla Luna, risulta che circa 600 milioni di anni dopo la sua origine la Terra fu investita, come la Luna, da una intensa pioggia di asteroidi e comete. Se questi corpi oltre a portare acqua abbiano portato anche molecole organiche che andavano ad aggiungersi a quelle in via di formazione nell'atmosfera terrestre, non lo sappiamo, ma è probabile che ciò sia avvenuto. Ma chi è l'altro Miller ? Molti sicuramente ricorderanno che negli anni '70 partirono dalla Terra, con destinazione Marte, due missioni Viking. Ciascuna di esse disponeva di un lander con il quale furono fatti alcuni esperimenti per verificare l'eventuale presenza di microrganismi nel suolo marziano. In uno di questi esperimenti si ottennero dei dati che facevano pensare allo sviluppo di gas dovuto ad un qualche metabolismo "alieno". L'opposizione dei chimici, i quali obiettarono che taluni composti presenti anche nel suolo marziano potevano dare lo sviluppo di gas osservato, fece rientrare l'entusiasmo di chi credeva di aver trovato la prova dell'esistenza di forme di vita marziane. D'altra parte, anche i biologi teorizzarono molto sulla cosa concludendo che era inevitabile che l'esperimento desse risultati dubbi : non è possibile, essi sostenevano, definire prima di vederlo vivere, che cosa faccia un organismo vivente sconosciuto e dire, quindi, come si comporterebbe in un certo esperimento (quasi come la molteplicità di stati delle particelle che ci impedisce di dire come si mostrerà una di esse, prima di … vederla - fissarla in uno di essi con l'esperimento fatto per rivelarla). Bene: riesaminando i dati raccolti in quell'esperimento, il biologo Joseph Miller ha trovato che lo sviluppo di gas primitivamente attribuito al metabolismo di microrganismi alieni è andato avanti per un tempo troppo lungo per poter essere spiegato con semplici reazioni chimiche abiotiche, esterne cioè a organismi viventi, e con un andamento, per giunta, che fa pensare ad un ritmo quasi giornaliero ("circadiano") ma calibrato sull'esatta lunghezza del giorno marziano. Di queste due caratteristiche, da poco scoperte con una travagliata e fortunosa rivisitazione dei dati, la prima esclude che si tratti di reazioni non viventi mentre la seconda fa proprio pensare che si tratti di fenomeni a carico di organismi viventi. Dunque, di nuovo un Miller nella storia della vita e di nuovo una scoperta importante. Tutto qui ? No! La scoperta di questo 2° Miller, se confermata, renderà più difficile sostenere, a priori, che è impossibile trovare batteri in un meteorite marziano quale, appunto, ALH84001. E questo potrebbe rilanciare, con le opportune correzioni, l'ipotesi di Sir Fred Hoyle secondo la quale l'origine della vita sulla Terra, e anche la sua evoluzione, sarebbero state influenzate dall'arrivo dallo spazio di microrganismi e DNA . Certo: è troppo presto per concludere che ci sia la vita al di fuori della Terra. Ma il quadro che si va delineando (sia pure "ospitando" in esso scoperte che potrebbero essere dovute a errori strumentali) e il modo con cui esso si sta costruendo, modo che richiama alla mente le migliori costruzioni del pensiero scientifico, lascia ben sperare sia nel futuro della bioastronomia sia nella prossima, forse imminente, scoperta di forme di vita aliene alla nostra Terra.

Note...

1-Dell'esistenza nello spazio di vari tipi di molecole complesse si sapeva già, ma quale ne fosse la fucina era ancora ignoto. Un recente esperimento condotto su un gas dalla stessa composizione, temperatura e pressione delle nubi molecolari che si trovano disseminate qua e là nello spazio, sembra aver chiarito anche questo punto: esso ha infatti dimostrato che, se opportunamente bombardato con raggi ultravioletti, in questo gas (contenente CH4 , NH3, CH3OH ecc. e a T= 10° K) possono formarsi centinaia di composti diversi anche molto complessi.
2-L'ipotesi dell'origine aliena (nelle fredde e buie nubi molecolari) di almeno una parte dei composti alla base della vita è suffragata dal fatto che gli aminoacidi utilizzati dai viventi siano tutti nella configurazione L e, per lo più, levogiri : ciò potrebbe essere dovuto al fatto che la luce UV emessa dal Sole nelle sue primissime fasi di vita o da altre stelle che popolavano la nube dalla quale sarebbe nato il Sole, era polarizzata circolarmente e ciò avrebbe portato ad una distruzione di un numero maggiore i aminoacidi destrogiri provocando un aumento del numero di quelli levogiri impiegati poi nella genesi della vita.
3-In termini biologici la cosa suona così: non è possibile definire la nicchia ecologia occupata da un organismo prima che questi … la occupi. A proposito della teoria dell'origine esogena della vita terrestre, giova ricordare che, nel passato, più volte sono piovuti sulla Terra meteoriti scagliati nello spazio da impatti cometari avvenuti sulla superficie di Marte. Se questi meteoriti ospitavano batteri questi, opportunamente protetti dal reticolo cristallino dei minerali di tali rocce, avrebbero potuto raggiungere la Terra e portarvi la scintilla della vita. E' anche vero, però, che dalla Terra molte volte sono partiti, per la stessa ragione, frammenti di superficie che avrebbero poi raggiunto Marte. A testimonianza, questo, di quanto complessa sia la questione dei diritti di primogenitura della vita nel sistema solare…e di quanto indispensabile sia, per risolvere tale questione, che biologi e astronomi lavorino sempre più sotto uno stesso tetto che ospiti, necessariamente, "un telescopio e una provetta". In ogni caso il fatto che brandelli di superfici planetarie, eventualmente ospitanti la vita, possano essere scagliati nello spazio da violenti impatti cosmici, depone a favore della panspermia: cioè di una più diffusa distribuzione della vita, ovunque vi siano le condizioni adatte.

[UP][TOP]

19.01.2004 Un'immagine di stelle che nascono

 Nebulosa della Tarantola.

Il telescopio a infrarossi consente di osservare la formazione di stelle massive. Una nuova immagine del telescopio spaziale Spitzer della NASA, noto in precedenza come Telescopio Spaziale a Infrarossi, mostra la nascita di nuove stelle all'interno di una nube luminosa. I sensibili strumenti del telescopio Spitzer hanno penetrato il velo al centro della nebulosa della Tarantola per dare uno sguardo senza precedenti alle gigantesche stelle neonate. L'immagine è disponibile on-line cliccando [QUI]. Ora, possiamo osservare i dettagli di quello che accade all'interno di questa attiva regione di formazione stellare. Lanciato il 25 agosto 2003 da Cape Canaveral, il telescopio Spitzer può rivelare la radiazione infrarossa, ovvero il calore, proveniente dagli oggetti più freddi e lontani dell'universo. Uno di questo oggetti è la Nebulosa della Tarantola, una brillante nube di gas e polvere situata nella galassia nota come Grande Nube di Magellano. La nebulosa è una delle regioni di formazione stellare più dinamiche del nostro gruppo locale di galassie, ospita alcune delle più grandi stelle conosciute ed è l'unica nebulosa visibile a occhio nudo fuori dalla nostra galassia.

[UP][TOP][RELOAD]

 

Utenti connessi...:

 

CHANDRAst

Se vuoi scrivermi, basta un click!