Home page Mi presento Curriculum Pubblicazioni Ultimo numero Altri articoli Chaos and
complexity
SETI Medicine
complementari
Scrivimi link utili webmaster


Tutti gli articoli raccolti in questa sezione sono stati pubblicati con cadenza settimanale sulle pagine del Lavoro - Repubblica, nella rubrica "La scienza e i miti", a partire dall'ottobre del 2000.

20 settembre 2001 - Contro i terrorismi non solo tecnologia
13 settembre 2001 - Ma quei cerchi sono sospetti
21 giugno 2001 - A zonzo nello spazio cercando clorofilla
14 giugno 2001 - Il mistero senza tempo dei ventuno paradigmi
7 giugno 2001 - Quante coincidenze nella fredda tecnologia
24 maggio 2001 - Anche mutando l'auto la velocità non muta
17 maggio 2001 - L'ipotesi di Riemann è proprio un problema
10 maggio 2001 - Dal "re degli ignoranti" una lezione per tutti
3 maggio 2001 - L'universo intelligente creatura di Fred Hoyle
26 aprile 2001 - Siamo piccoli dettagli in un grande disegno
19 aprile 2001 - Intelligenza artificiale tra realtà e fantascienza
12 aprile 2001 - Ricordando Shannon il "padre" di tutti i bit
5 aprile 2001 - La tastiera "Qwerty" e la legge di mercato
29 marzo 2001 - Uno spazzino cosmico ci salva dagli asterodi
22 marzo 2001 - Giordano Bruno martire non moderno
15 marzo 2001 - Un mondo di batteri all'origine della vita
8 marzo 2001 - Robot, viaggi spaziali e Von Neumann
1 marzo 2001 - Seti, ascoltando l'infinito silenzio
22 febbraio 2001 - Il 2001, ma senza odissea nello spazio
15 febbraio 2001 - Quando lo scienziato si sente superiore
8 febbraio 2001 - Feyerabend, un eretico
1 febbraio 2001 - Se c'è il raggio laser addio effetti speciali
25 gennaio 2001 - Paganini, un cannone per la mente e per il corpo
18 gennaio 2001 - La guerra di Troia? Si svolse in Finlandia
11 gennaio 2001 - 2000, le grandi bufale dei futurologi
4 gennaio 2001 - Come teletrasportare un fotone e una bufala
28 dicembre 2000 - Quarant'anni di lavoro per il teorema infinito
21 dicembre 2000 - Medicina e genetica eccessivo ottimismo
14 dicembre 2000 - La vita oltre la terra non è roba da marziani
7 dicembre 2000 - Le "Sfere di Dyson" impossibili 'creature'
23 novembre 2000 - Un lucido pessimismo per impedire il peggio
16 novembre 2000 - Il metodo di Einstein? Non tutto è operativo
8 novembre 2000 - Computer intelligenti? Usano la forza bruta
2 novembre 2000 - Previsioni del tempo o indovinello a premi?
25 ottobre 2000 - La ricerca tra "bufale" e geni misconosciuti


La ricerca tra "bufale" e geni misconosciuti - 25 ottobre 2000

"Mito" è parola ambivalente, che può essere intesa sia in senso positivo, come quando si dice "sei un mito", sia in senso negativo, come sinonimo di "favola" o perfino, talvolta, di "inganno deliberato". In questa rubrica si parlerà da un lato di tutti quegli aspetti della scienza che in genere vengono, appunto, mitizzati dalla divulgazione scientifica, impedendone una corretta comprensione, dall'altro di quelle scoperte che sono davvero particolarmente importanti, ma non vengono riconosciute come tali, o perché non ben capite o perché tuttora misconosciute (succede anche questo, e più spesso di quanto non si creda).
L'idea, che in realtà mi ronzava in testa già da un po' di anni, è nata da una semplice constatazione: nel nostro mondo la scienza ha un'importanza sempre crescente, ma a ciò non corrisponde un proporzionale aumento della conoscenza di essa da parte del grande pubblico. A parte i problemi che la travagliano attualmente, la scuola non può comunque bastare, da sola, ad assolvere a questo compito, perché il continuo progresso richiede ormai un aggiornamento altrettanto continuo, anche dopo il diploma o la laurea. Questo dovrebbe essere il compito della divulgazione scientifica, che però non sempre si dimostra all'altezza, per svariate ragioni, che non è ora il caso di discutere. Il principale problema, però, mi è sempre sembrato essere la difficoltà a comunicare (e, prima ancora, a comprendere) il reale significato delle diverse scoperte scientifiche che vengono via via annunciate.
Al di là delle distorsioni che purtroppo spesso si verificano a livello della comunicazione di massa, c'è qui un reale problema di fondo: è infatti molto difficile oggi (e lo sarà sempre di più in futuro) che una stessa persona possa avere le competenze tecniche necessarie per comprendere cosa realmente succede nel mondo della scienza e al tempo stesso una preparazione filosofica sufficiente per darne una valutazione non superficiale. Come filosofo della scienza, io ho perciò scelto una strada diversa, quella sempre elogiata, ma non sempre altrettanto praticata del lavoro interdisciplinare. Nel corso degli anni ho cioè cercato all'interno della comunità scientifica persone che avessero l'apertura mentale e l'interesse a discutere delle materie di loro competenza da un punto di vista non esclusivamente specialistico, ma collocandole all'interno di un orizzonte più ampio, che non escludesse le domande di fondo, comprese a volte anche quelle scomode.
Personalmente ritengo che i risultati fin qui raggiunti, grazie anche alla collaborazione di tante persone, e che tenterò ora di presentarvi siano estremamente interessanti. Vedremo se anche voi sarete della stessa opinione. Fermo restando comunque, come si dice in questi casi, che la responsabilità di quanto scriverò sarà mia e solo mia, e non coinvolgerà in alcun modo quella dei miei amici scienziati.


Previsioni del tempo o indovinello a premi? - 2 novembre 2000

Doveva essere l'estate più torrida del secolo. Invece sappiamo tutti com'è andata. Tra imprecazioni di rito e note di colore, nessuno ha però spiegato chiaramente perché errori simili accadano anche nel 2000.
La colpa è di un particolare aspetto del più generale fenomeno detto "caos deterministico", scoperto nel 1962 proprio da un giovane meteorologo, Edward Lorenz del MIT di Boston. Lorenz stava provando al computer un semplice modello matematico per le previsioni del tempo. Un giorno, per una serie di circostanze fortutite, gli accadde di trovarsi in mano due tracciati eseguiti in base agli stessi dati. In teoria avrebbero dovuto essere identici: invece, sorprendentemente, dopo breve tempo non avevano più nulla in comune. La cosa pareva priva di senso, ma Lorenz, che era un vero scienziato, non l'accantonò (come purtroppo spesso accade) come una fastidiosa anomalia: cercò invece la causa e la trovò.
Era successo che, mentre nel primo caso erano stati usati numeri con sei decimali, nel secondo i numeri erano stati presi dalla stampante, che ne riportava solo tre: e quella minima differenza di appena un decimillesimo aveva prodotto (a causa di una caratteristica detta "non linearità", che non riguarda tutti i sistemi fisici, ma che nel caso del tempo è sempre presente) due risultati completamente opposti: in un caso pioggia, nell'altro sole. Lorenz battezzò il fenomeno (tecnicamente chiamato "sensibilità alle condizioni iniziali") "effetto farfalla", perché, come egli disse, "una farfalla che batte le ali in Brasile può causare un tornado in Texas".
Badate che ciò è vero alla lettera! Anzi, Michael Berry e David Ruelle hanno dimostrato che perfino l'attrazione gravitazionale esercitata sulla nostra atmosfera da un singolo elettrone posto ai confini dell'universo produce effetti rilevanti in non più di due settimane! Questo è dunque in ogni caso il limite teorico massimo ed insuperabile all'attendibilità delle previsioni del tempo. Quello pratico, ovviamente, sarà ancora inferiore, perché perturbazioni anche ben più consistenti di questa (e che dunque si amplificano molto più in fretta) sono ancora troppo piccole (e soprattutto troppo numerose) per poter mai esser prese in considerazione. Ma anche all'interno di tali limiti l'affidabilità assoluta non è raggiungibile, in quanto potrà sempre accadere che un effetto farfalla particolarmente accentuato porti cambiamenti imprevedibili anche su tempi più brevi.
Margini di miglioramento ce ne sono ancora, tuttavia i limiti sopra indicati sono di principio, in quanto dipendono dalla matematica e non dalla tecnologia, e pertanto non potranno mai essere superati. Cerchiamo di ricordarcene quando, come periodicamente accade (l'ultima volta ancora poche settimane fa), verrà annunciato il prossimo mirabolante progetto ipertecnologico (e ipermiliardario...) per le previsioni del tempo su vasta scala.


Computer intelligenti? Usano la forza bruta - 8 novembre 2000

Scoop: Deep Blue non ha affatto battuto Gary Kasparov! Dopo un attento riesame della questione (tornata d'attualità in questi giorni a seguito della sconfitta dello stesso Kasparov nel campionato mondiale contro Kramnik) la Federazione scacchistica internazionale ha stabilito che il computer era andato ripetutamente in Zeitnot (aveva cioè superato il tempo limite concesso per pensare) e l'ha squalificato.
La notizia, ovviamente, è falsa. Ma dovrebbe essere vera. Infatti il mito dei robot scacchistici si regge su un equivoco di fondo, se non su una vera e propria truffa, giacché la loro forza sta tutta nella possibilità di provare milioni o miliardi di mosse contemporaneamente. Si dirà che proprio in questo sta la prova della loro superiore intelligenza: ma le cose non stanno affatto così. Quello che fa infatti il computer è provare materialmente le mosse, una per una, sulle numerosissime "scacchiere virtuali" contenute nei suoi circuiti, su ciascuna delle quali viene impostata una strategia differente, e poi confrontare ogni risultato con i modelli preimpostati dai suoi programmatori. Giocare contro un computer, quindi, non significa in realtà giocare contro un avversario intelligentissimo, ma contro milioni di avversari estremamente stupidi, che però godono del vantaggio di poter scegliere ogni volta la mossa migliore tra tutte quelle che ciascuno di loro ha provato. Insomma, nessuna intelligenza superiore (anzi, nessuna intelligenza e basta), ma solo il vecchio motto "l'unione fa la forza".
La situazione presenta qualche analogia con le "sfide multiple" (in cui appunto un campione affronta in contemporanea molti avversari di livello inferiore), ma è in realtà profondamente diversa, perché in quel caso ogni giocatore fa la sua partita, mentre in questo tutti giocano la stessa partita.
Il risultato è che la "folla di imbecilli concentrata in poco spazio" che compone il computer (definizione di Alessandro Calzolaro) ha in realtà a disposizione un tempo molto più lungo (milioni di volte più lungo) per "riflettere" rispetto al giocatore umano.
Se quindi si volesse davvero un confronto ad armi pari bisognerebbe che il tempo di riflessione concesso al computer venisse diviso per il numero di "giocatori virtuali" in esso contenuti: così infatti l'aumento della potenza di calcolo (cioè della "forza bruta") diventerebbe ininfluente e resterebbe rilevante soltanto il miglioramento dell'euristica, ovvero dei criteri-guida forniti dai programmatori, che è poi l'IA in senso proprio. Anche in questo caso un'eventuale vittoria del computer non dimostrerebbe la sua intelligenza, perché comunque esso non sa quello che fa: ma sono convinto che se la mia proposta venisse accettata non avremmo più bisogno di queste sottili distinzioni, in quanto il computer non vincerebbe mai.
Proprio per questo sono altresì convinto che essa non verrà accettata.


Il metodo di Einstein? Non tutto è operativo - 16 novembre 2000

Nonostante le straordinarie scoperte per cui è giustamente celebre, è possibile che il più importante contributo dato da Albert Einstein alla scienza sia di ordine metodologico. Infatti con la sua raccomandazione ai colleghi di non accettare mai nelle loro teorie nessun concetto che non sia stato definito operativamente, per la prima volta è stato esplicitato e chiarito fino in fondo che cosa la scienza stessa realmente è. In tale prospettiva oggetto della scienza è qualsiasi aspetto della realtà che sia individuabile tramite operazioni standard (cioè definite senza ambiguità e ripetibili): il che è ben di più che dire genericamente che "la scienza procede per via sperimentale", perché spiega in che cosa il "metodo sperimentale" esattamente consista. Senza questa consapevolezza, la stessa teoria della relatività non sarebbe mai nata: è stato infatti solo chiedendosi come possiamo in pratica misurare lo spazio e il tempo che Einstein potè accorgersi che, contrariamente alle apparenze, essi non erano assoluti, cioè non si comportavano allo stesso modo per tutti i possibili osservatori.
Ovviamente ciò non significa che gli altri aspetti della realtà non esistano: significa solo che non possono essere studiati tramite quel particolare metodo che chiamiamo "scientifico". Tuttavia la tentazione di compiere questo passaggio indebito esiste ed è in parte favorita proprio dal fatto che Einstein abbia usato l'espressione (infelice, ma ormai di uso comune) "definire operativamente". Ciò può infatti indurre a pensare che un concetto possa essere, in senso letterale, definito tramite (cioè ridotto a) operazioni: e da qui al dubbio che quei concetti che invece non possono essere definiti in tal modo siano in realtà privi di senso, il passo è breve. Consideriamo proprio le celebri "definizioni operative" della relatività. Per esse lo spazio è "quella grandezza che si misura con i regoli" e il tempo "quella grandezza che si misura con gli orologi". Ma "misurare con un regolo" significa "prendere un'asta, farne coincidere un'estremità con l'estremità dell'oggetto, poi riportarlo su di esso tante volte quante ne occorrono per giungere all'estremità opposta". Divertitevi ora a contare quante volte nel corso di questa breve descrizione abbiamo presupposto (piu o meno esplicitamente) il concetto di spazio che avremmo invece dovuto definire! Lo stesso accade per il concetto di tempo e per qualsiasi altro concetto fondamentale.
In realtà, quindi, ciò che si fa realmente quando si dà una "definizione operativa" è indicare attraverso operazioni (e quindi in modo non ambiguo) a quali oggetti e in quale senso esatto si applica un determinato concetto, il cui significato, dunque, doveva ovviamente già essere stato capito prima, anche se magari solo in modo approssimativo. Perciò il significato precede e fonda la scienza, e non viceversa.


Un lucido pessimismo per impedire il peggio - 23 novembre 2000

"Mucca pazza" tiene banco per le sue drammatiche conseguenze pratiche. Ma solo Claudio Magris (Corriere della Sera di domenica) ha saputo cogliere il nodo che l'ha resa possibile: che non è pratico, ma concettuale. Egli parte infatti dalla constatazione (verissima) che "se anni fa qualcuno avesse detto che ciò poteva accadere sarebbe stato preso per pazzo": e ciò, nota, a causa della tendenza ("assai poco razionale e scientifica") di molti scienziati a dare garanzie di sicurezza basandosi soltanto su quel che si sa, scordando che esiste anche "l'accidente inimmaginabile" e che spesso possibilità reali possono sembrare "comicamente fantascientifiche" finché non le si conosce.
Ciò accade anche perché troppo spesso le denunce dei possibili rischi della tecnologia sono fondate sulla "fede in una pretesa natura autentica da difendere contro l'artificio della tecnica": fede irrazionale, poiché in certo senso "tutto è natura", in quanto qualsiasi possibile combinazione di atomi è tale perché permessa dalle sue leggi (così come, aggiungo, in un altro tutto è artificiale, in quanto qualsiasi essere vivente - e l'uomo più di tutti - modifica l'ambiente con la propria attività). E' però altrettanto vero che "certe condizioni della natura sono propizie alla nostra specie e altre no": non possiamo infatti mangiare tutto, né vivere dovunque. La purezza della natura non sarà dunque minacciata dalla tecnica, ma la nostra sopravvivenza sì. Sicché la lezione da trarre perché simili tragedie non si ripetano oggi, pur nelle diverse circostanze (un esempio non a caso: la genetica), è che "solo un lucido pessimismo può impedire il peggio".
E' invece purtroppo un ottimismo assai poco lucido che traspare dall'articolo di Tony Blair (la Repubblica di lunedì) in difesa delle biotecnologie. "Lasciamo scoprire alla scienza i fatti", egli dice: "dopo daremo il nostro giudizio". Ma anche la non pericolosità delle farine animali e l'impossibilità della trasmissione di malattie da una specie all'altra sembravano "fatti scoperti dalla scienza", qualche anno fa. Il fatto è che la scienza è oggettiva, ma gli scienziati no: possono sbagliare (e di fatto sbagliano); e possono mentire (e di fatto mentono). E' giusto opporsi alla violenza e alle intimidazioni. Ma è profondamente sbagliato qualificare come tale l'atteggiamento di chiunque si rifuti di accettare che "i fatti" siano solo quelli ritenuti tali dagli "esperti". Senza contare, poi, che buona parte dei meravigliosi traguardi da lui prospettati, soprattutto in campo medico, sono (purtroppo!), allo stato, non meno "comicamente fantascientifici" dei rischi paventati dai suoi avversari.
Che proprio il premier del Paese colpito per primo e più duramente dal morbo della mucca pazza dimostri di non aver imparato nulla da una tale tragedia è molto preoccupante. Quanto alle fantasiose prospettive di cui sopra, ci torneremo presto: è troppo importante.


Le "Sfere di Dyson" impossibili 'creature' - 7 dicembre 2000

Spesso, quando si vuole sottolineare la superiorità della scienza moderna sui sistemi di pensiero pre-scientifici, si sottolinea come in essi si andasse a caccia di mitiche entità come il flogisto, il calorico, gli unicorni e le altre creature dei cosiddetti "Bestiari". Ma anche la scienza moderna ha i suoi "animali" fantastici, di cui va ostinatamente a caccia nonostante tutte le evidenze in contrario. Uno degli esempi più incredibili è costituito dalle cosiddette "sfere di Dyson".
L'idea, proposta appunto dal grande fisico Freeman Dyson nel 1963, era che degli esseri progrediti viventi attorno ad una stella la cui energia cominciasse a diminuire avrebbero potuto decidere di costruire intorno al loro Sole morente una gigantesca sfera capace di trattenere parte della sua luce e del suo calore, in modo da compensarne la progressiva attenuazione.
Secondo Dyson la cosa era fattibile, benché richiedesse di smantellare un intero pianeta. Inoltre una struttura del genere sarebbe stata individuabile dai radiotelescopi, perché avrebbe prodotto molte radiazioni infrarosse: avremmo perciò avuto in mano uno strumento formidabile per andare alla ricerca di altre civiltà.
Quasi subito, però, venne dimostrato che la cosa è impossibile perché la forza di gravità della stella ridurrebbe in breve la sfera ad una ciambella rotante, tipo gli anelli di Saturno, impedendole così di svolgere la sua funzione. Dyson ripiegò quindi su uno sciame di 200.000 "sferette" di un milione di chilometri di diametro ciascuna. Di nuovo, venne dimostrato che neanche questa soluzione poteva funzionare, perché la massa totale era troppo grande per poter essere reperita, quella di ogni sfera era troppo piccola per trattenere un'atmosfera e in ogni caso la radiazione infrarossa prodotta dallo sciame sarebbe stata indistinguibile da quella originata da una nube di polvere cosmica. Ciononostante Dyson non si arrese: anzi, arrivò al punto di sostenere che il fatto che una simile struttura non fosse mai stata individuata era la prova non già dell'inattendibilità della sua teoria, bensì dell'assenza di altre civiltà tecnologicamente evolute nella galassia!
Questo tuttavia si può ancora capire: anche gli scienziati sono uomini, dopo tutto! La cosa veramente incredibile è che ancora oggi ci sia chi gli dà retta, e non solo a parole. L'estate scorsa, nel corso di Bioastronomy 99, ho visto ben tre scienziati che relazionavano sulla ricerche da loro condotte (ovviamente coi soldi dei contribuenti, e ovviamente con esito totalmente negativo) alla caccia delle fantomatiche "sfere". Ricapitolando: al più importante convegno di bioastronomia del mondo, che la Nasa organizza ogni tre anni per fare il punto sulla ricerca della vita nel cosmo, è stata ammessa con tutti i crismi gente che da anni cerca qualcosa che da decenni si sa con certezza non esistere! Sì, decisamente anche la scienza moderna ha i suoi "Bestiari".


La vita oltre la terra non è roba da marziani - 14 dicembre 2000

La scoperta di rocce sedimentarie (indizio di antichi oceani) su Marte ha rilanciato il dibattito tra fautori e negatori della vita extraterrestre, con l'ormai abituale prevalenza dei primi.
Le valutazioni al riguardo vengono spesso illustrate attraverso la cosiddetta "equazione di Drake":


in cui N è il numero (da calcolare) di civiltà esistenti, R* il tasso di formazione delle stelle, fp la frazione di stelle con pianeti, ne il numero di pianeti adatti per stella, fl la frazione di pianeti adatti su cui la vita inizia effettivamente, fi la frazione di catene evolutive che giungono a sviluppare l'intelligenza ed L la lunghezza della vita media di una civiltà tecnologica. L'unico dato noto con certezza è R*, che implica circa 100 miliardi di stelle per galassia. Dopo le recenti scoperte di pianeti extrasolari è inoltre ragionevole supporre che fp si avvicini ad 1. E questo è tutto.
A questo punto i sostenitori dell'esistenza di altre civiltà ragionano in genere più o meno così: è vero che non sappiamo bene che valore attribuire agli altri termini, tuttavia se anche solo un pianeta su dieci è adatto alla vita, solo in uno su dieci la vita si sviluppa effettivamente e solo in un caso su dieci giunge all'intelligenza, abbiamo ancora almeno 100 milioni di civiltà che dovrebbero essersi sviluppate. E concludono (un po' moralisticamente) che la vera incognita è la loro durata, almeno guardando al nostro cattivo esempio.
In realtà queste cifre sono totalmente campate in aria. Per esempio, non considerano che tutti i pianeti extrasolari finora scoperti hanno orbite incompatibili con la vita. Quanto poi alla vita stessa e all'intelligenza, tanto ottimismo è in stridente contrasto con le quasi infinite variabili presenti nell'evoluzione. Quindi, per quanto ne sappiamo, anche uno su cento o uno su mille sarebbero valori perfettamente accettabili. Ma già così il totale scenderebbe rispettivamente a 100.000 o addirittura a sole 100 civiltà, mentre per valori appena superiori dovremmo concludere che siamo soli, almeno nella nostra galassia. Certo di galassie ce ne sono 100 miliardi. Ma molti altri fattori potrebbero essere determinanti. Per esempio la Luna, essenziale per stabilizzare la rotazione del nostro pianeta, ha dimensioni molto fuori dal comune. Poi pare che l'orbita del Sole sia una delle poche che non entrano mai nei pericolosissimi "bracci" a spirale della galassia, dove, causa l'alta densità di stelle, avvengono in continuazione eventi altamente catastrofici. E si potrebbe continuare.
La verità è che l'unico elemento davvero a favore dell'ipotesi ottimistica è che 100 miliardi (di stelle) per 100 miliardi (di galassie) sembra un numero enorme. Ma in realtà, come abbiamo visto, bastano 6 o 7 fattori appena un po' improbabili per "mangiarselo" tutto. Per cui l'ipotesi opposta è, malgrado le apparenze, almeno altrettanto plausibile. Insomma: sappiamo solo di non sapere.


Medicina e genetica eccessivo ottimismo - 21 dicembre 2000

L'intervento di Dulbecco venerdì scorso a Telethon mi permette di tornare sulla questione del troppo ottimismo circa l'utilizzo della genetica in campo medico, aperta dall'articolo di Tony Blair. Naturalmente tutti ci auguriamo che i luminosi traguardi annunciati vengano presto raggiunti. Onestà vorrebbe, però, che oltre alle speranze venissero illustrate anche le difficoltà, che purtroppo sono molte e serie.
Innanzitutto va chiarito che un gene di per sé non codifica affatto un carattere, come in genere si sente dire. Un gene codifica una proteina. A volte tale proteina è in grado di determinare univocamente un carattere, ma assai più spesso non è così: la maggior parte dei caratteri macroscopici infatti dipende da molte proteine, e quindi dall'azione combinata di un gran numero di geni. Il punto è che in questo caso diventa essenziale anche l'ordine in cui tali geni vengono attivati, perché, come per qualsiasi oggetto minimamente complesso, i "pezzi" non possono essere assemblati come ci pare, ma secondo uno schema preciso.
Ora, il problema è che se è vero che la genetica ha ormai raggiunto una grande precisione nel prelevare i geni desiderati, essa non dispone invece attualmente di alcun metodo affidabile nell'installarli. Il meglio che si sa fare finora è di inserire il gene in un virus (reso innocuo con opportune tecniche) e iniettarlo nel paziente, in modo che vada ad inserirsi nel Dna delle sue cellule. Naturalmente però il punto preciso dove si innesterà il Dna virale contenente il gene sarà completamente casuale. Dunque tale metodo potrà funzionare solo per quelle disfunzioni provocate dall'assenza di una sola proteina, e anche in questo caso con notevoli difficoltà: di fatto, finora su circa 3.000 tentativi di terapia genica solo 3 sono andati a buon fine (benché essi siano tra i più recenti, il che fa ben sperare).
In ogni caso, per le disfunzioni poligeniche bisognerà trovare metodi radicalmente diversi, per i quali non esiste finora nemmeno un'ipotesi di lavoro. Naturalmente ciò non significa che si debba rinunciare, anzi! Forse però bisognerebbe ricuperare un maggiore equilibrio tra questo tipo di ricerche e le terapie più tradizionali (tra cui la stessa assistenza ai malati), destinate ad alleviare le sofferenze di persone che comunque per molto tempo ancora (molto più, purtroppo, di quanto sostengano questi disinvolti cantori) non potranno in alcun modo essere curate dalla genetica. Un esempio solo, ma clamoroso: la quasi totalità delle malattie monogeniche era già nota prima dell'avvio del tanto decantato Progetto Genoma, la cui utilità immediata dal punto di vista medico è quindi, allo stato, pressoché nulla. Certamente era una cosa da fare, ma altrettanto certamente non c'era tutta questa fretta. Non sarebbe stato meglio finire un po' dopo, ma lasciare un po' più di risorse per approcci alla sofferenza meno spettacolari e redditizi, ma, almeno per ora, sicuramente più utili?


Quarant'anni di lavoro per il teorema infinito - 28 dicembre 2000

Vi è mai capitato di lamentarvi per la lunghezza di un teorema di matematica? Bene, consolatevi: poteva capitarvi di peggio! Esiste infatti un teorema, detto Teorema di classificazione dei gruppi semplici, che ha richiesto per la sua completa dimostrazione 40 anni di lavoro e circa 550 articoli (per quasi 15.000 pagine) ad opera di oltre 100 matematici di Stati Uniti, Gran Bretagna, Germania, Australia, Canada e Giappone.
Per gruppo in matematica si intende un insieme di grandezze sulle quali è possibile operare trasformazioni simmetriche. Almeno uno lo conosciamo tutti: è quello delle ore dell'orologio. Esso è costituito dai numeri da 1 a 12 e l'operazione è, ovviamente, l'addizione. Essa risulta simmetrica perché quando si passa il 12 si ricomincia da capo: così quando sono le 5 se passano altre 5 ore si arriva alle 10, ma se ne passano altre 5 non si arriva a 15, ma si torna alle 3. Se invece ne usassimo uno con indicate tutte le 24 ore del giorno avremmo un gruppo della stessa classe (cioè che "funziona" allo stesso modo), ma con un periodo, ovviamente, doppio. L'orologio da 12 ore, quindi, è in certo senso una "immagine rimpicciolita" (detta perciò "immagine telescopica") di quello da 24, che però funziona secondo le stesse regole e dando gli stessi risultati per le stesse operazioni.
I gruppi che non hanno immagini telescopiche si dicono gruppi semplici. Essi, quindi, hanno un po' la stessa funzione dei numeri primi nella scomposizione in fattori: sono gli elementi minimi non ulteriormente scomponibili, gli "atomi" della teoria dei gruppi. Per questo divenne a un certo punto importante tentare di classificarli in modo ordinato e, possibilmente, completo. L'impresa cominciò nel 1940 e venne conclusa soltanto nell'estate del 1980 dal matematico Ronald Solomon dell'Ohio State University. Alla fine risultò che esistevano in tutto 18 famiglie (ciascuna composta da un numero infinito di gruppi semplici) e 26 gruppi semplici irregolari, detti "sporadici" (5 dei quali, peraltro, erano già noti fin dal 1860). Il più piccolo di questi ultimi è composto da 7920 elementi, mentre il più grande è un "mostro" contenente nientemeno che 808.017.424.794.512.875.886.459.904.961.710.757.005.754.368.000.000.000 elementi. Pensate che il matematico Robert Griess, che ne determinò la struttura nel 1980, eseguì a mano tutti i calcoli necessari! Siccome tuttavia il suo studio risultò più facile di quanto le sue dimensioni facessero pensare, Griess lo ribattezzò "il gigante amichevole". Il Teorema di classificazione non ha un significato particolarmente profondo, né dal punto di vista pratico né da quello filosofico. Esso però comunica come pochi altri quella particolare vertigine dello sconfinato che solo la matematica sa dare e che ne costituisce da sempre, a ben vedere, il fascino più sottile e duraturo. Per questo ho voluto concludere con esso il 2000, Anno Internazionale della Matematica. Auguri a tutti!


Come teletrasporare un fotone e una bufala - 4 gennaio 2001

Se dovessi votare la bufala scientifica del millennio appena trascorso, non avrei dubbi. 23 ottobre 1998: un équipe di fisici del Caltech avrebbe realizzato nientemeno che il teletrasporto, per ora solo di un fotone, ma già il loro capo Jeff Kimble discuteva (chiedendo adeguati finanziamenti...) con Anton Zeilinger, autore di un esperimento simile, se per il prossimo passo sarebbe stato meglio usare un virus o un batterio.
Parafrasando Gorgia, possiamo dire: il teletrasporto non è; se anche fosse, resterebbe inapplicabile; e se anche fosse applicabile, resterebbe impraticabile.
  1. Non c'è stato nessun teletrasporto. Esso infatti consisterebbe nel prendere della materia, convertirla in energia (secondo la celebre formula di Einstein E=mc2 ), trasmetterla alla velocità della luce in un luogo desiderato e ritrasformarla nella materia originale. Ma ciò richiederebbe di conoscere tutte le proprietà delle particelle originali, cosa vietata dal principio di indeterminazione di Heisenberg. Perciò Zeilinger e Kimble hanno sfruttato un particolare procedimento (detto EPR perché ideato da Einstein, Podolski e Rosen) che genera particelle "gemelle", nel senso che se si modifica una proprietà della prima la seconda, a qualunque distanza si trovi, ne assumerà istantaneamente un'altra ad essa correlata, ottenendo quindi una "clonazione a distanza" della particella originale. Questo è certamente un risultato molto importante. Altrettanto certamente, però, si tratta di una cosa ben diversa dal trasmettere a distanza la particella stessa.
  2. Comunque il metodo non è applicabile ad oggetti macroscopici. Bisognerebbe infatti produrre tante particelle "gemelle" quante quelle originali. Ma l'EPR funziona soltanto finché le particelle non interagiscono. Ovviamente se ne spariamo svariati miliardi in uno stesso punto le interazioni saranno inevitabili (e fuori dal laboratorio ci sarebbero anche quelle con l'atmosfera, o, nello spazio, con la polvere interstellare e i raggi cosmici).
  3. Ma se anche lo fosse, non lo sarebbe comunque in pratica. Solo gli hard disk necessari per memorizzare i dati relativi ad un uomo, infatti, formerebbero una pila alta circa 10.000 anni-luce (più o meno un terzo della distanza tra noi e il centro della Galassia), con un tempo di scrittura di circa 30.000 miliardi di anni (più o meno 2.000 volte l'età dell'universo)!
Conclusione: il solo teletrasporto in vista è quello di un bel po' di soldi dalle tasche dei contribuenti a quelle dei due furbi professori.


2000, le grandi bufale dei futurologi - 11 gennaio 2001

Uno dei miti scientifici più tenacemente radicati è che "il progresso supera sempre le nostre più audaci previsioni". In realtà spesso accade il contrario: basta guardare quali erano le più accreditate per il 2000. Per esempio, tra gli scrittori "futurologi" sorti sulla scia delle grandi rivoluzioni scientifiche tra Otto e Novecento era pressoché unanime la convinzione che il nostro tempo sarebbe stato caratterizzato soprattutto dal volo, inteso sia come volo spaziale che come diffusione di mezzi aerei personali al posto delle auto. Molto gettonati erano anche i marciapiedi mobili, le metropolitane ad aria compressa, i motori elettrici e i robot di aspetto e intelligenza quasi umani. In tempi più recenti, oltre a congegni ancor più avveniristici che avrebbero dovuto rendere possibili i viaggi nel tempo, il teletrasporto, l'antigravità, e la distorsione dello spazio (come nel famoso "motore a curvatura" di Star Trek) e al quasi certo primo contatto con gli extarterrestri, molti hanno vaticinato la crisi della civiltà umana (per le più diverse ragioni: epidemie, guerra nucleare, crisi economica, avvento di animali mutanti o computer superintelligenti, invasioni aliene, meteoriti…) e l'instaurarsi di terribili dittature o, in alternativa, di un non meno cupo "Medioevo tecnologico".
Si dirà che era solo fantascienza. Ma, a parte il fatto che molte di queste previsioni erano state condivise da scienziati famosi, anche sentendo direttamente il loro parere non è che vada meglio. Per esempio, solo vent'anni fa era data pressoché per certa la costruzione delle prime colonie spaziali abitate stabilmente, sia in stazioni orbitanti che sulla Luna. Anche i viaggi spaziali verso altri pianeti, se non addirittura verso altre stelle, riscuotevano molti consensi. Oggi non solo non vi siamo ancora arrivati, ma siamo molto più pessimisti al proposito. In genere si riteneva che il petrolio sarebbe stato ormai prossimo all'esaurimento, ma che avremmo avuto a disposizione nuove fonti energetiche "pulite" su vasta scala, come il solare o la fusione nucleare. Di ecologia si era appena cominciato a parlare e dell'effetto serra non esisteva nemmeno il concetto. In fisica regnava l'ottimismo e le speranze riposte nell'Intelligenza Artificiale erano esagerate. Anche lo sviluppo della "realtà virtuale" è stato molto sovrastimato, soprattutto (per fortuna) quanto al suo possibile utilizzo come "droga elettronica". In compenso nessuno (se non lo scrittore Pihlip K. Dick, il visionario profeta del "cyberpunk") aveva minimamente immaginato la diffusione capillare dei personal computer, né tanto meno un fenomeno come Internet. In campo medico, infine, si era certi che le malattie infettive fossero ormai debellate: non si immaginava né il sorgere di nuovi ceppi batterici resistenti agli antibiotici (causato proprio dal loro eccessivo utilizzo) né la scoperta di nuovi agenti infettivi come i prioni (responsabili della "mucca pazza") né qualcosa come il virus dell'Aids, capace di mettere in crisi le tradizionali tecniche per lo sviluppo dei vaccini. Forse solo la chirurgia ha mantenuto le sue promesse, e - in parte - la genetica (sia nel bene che nel male, però, e restando ancora ben lontana dalla possibilità di un suo utilizzo terapeutico diretto). Né si era assolutamente previsto il "boom" delle medicine "alternative".


La guerra di Troia? Si svolse in Finlandia - 18 gennaio 2001

"Ogni tanto sonnecchia anche il buon Omero", ci dicevano a scuola per giustificare le molte e spesso incomprensibili inesattezze contenute nei suoi poemi, riproposti nei giorni scorsi alla nostra attenzione dai due Angela. Ebbene, è possibile che non un sonnellino, ma una colossale dormita l'abbiano fatta invece tutti i suoi studiosi, a cominciare dai più antichi fino ai giorni nostri, e noi con loro. Questo, almeno, secondo il libro di Felice Vinci Omero nel Baltico (Palombi Ed.).
Per Vinci, infatti, gli Achei (la cui origine nordica è ormai certa) edificarono la loro civiltà sulle rive del Mar Baltico, tra 4 e 6000 anni fa, approfittando del cosiddetto "optimum climatico", un periodo eccezionalmente caldo in cui la Scandinavia godette di un clima mediterraneo. Sul declinare di esso, tra il 2000 e il 1800 a.C., con un clima più fresco, ma ancora accettabile, avvenne la guerra di Troia e Omero scrisse i suoi celebri poemi. Poi, un paio di secoli dopo, col tracollo definitivo del clima, essi scesero lungo il Dnepr in cerca di zone più calde e attraverso i Dardanelli giunsero infine in Grecia, dove (come secoli dopo i coloni inglesi in America) diedero i nomi della loro antica patria ai luoghi che più assomigliavano a quelli originari, favoriti in ciò dalla notevole somiglianza tra i due bacini del Baltico e dell'Egeo. La corrispondenza però non poteva ovviamente essere perfetta, e questo spiega le molte incongruenze geografiche dei poemi omerici, nonché il loro clima (freddo, sovente nebbioso, certamente non mediterraneo), che è, a ben vedere, forse più strano ancora.
Naturalmente per una tesi così rivoluzionaria ci vogliono fior di prove. Ma qui sta il punto: Vinci le ha! Tanto che un'esperta omerica del calibro di Rosa Calzecchi Onesti gli ha scritto un'entusiastica prefazione. Tutta la sua ricerca è partita da un passo di Plutarco, che colloca Ogigia, l'isola della dea Calipso, "a 5 giorni di navigazione dalla Britannia, in direzione occidente". In questa posizione vi sono le Färoer, su una delle quali (Stora Dimun) sorge, guarda caso, il monte Høgoyggj! Vinci ha quindi identificato la terra dei Feaci, la Scheria, con la costa occidentale della Norvegia (dove vi è un fiume Figgjo!); poi Itaca, nell'isola di Lyø, la cui geografia interna è identica a quella descritta nell'Odissea e al cui fianco, proprio nella posizione esatta, vi sono Tåsinge (Zacinto!) e Langeland, "L'isola lunga", corrispondente all'omerica Dulichio (il cui nome significa appunto "Isola lunga"!), la quale non esiste, posizionata in quel modo, non solo nel Mediterraneo, ma in tutto l'orbe terracqueo; il Peloponneso, sempre descritto come un'isola pianeggiante, mentre in Grecia è una penisola montuosissima, identificato con la piatta isola di Sjælland; il "catalogo delle navi" partecipanti alla spedizione, che in Grecia risulta a casaccio, mentre nel Baltico procede in perfetto senso antiorario; il fenomeno della "notte chiara", tipico del Circolo Polare; le "rupi erranti" dell'Odissea e Cariddi (rispettivamente gli iceberg e il Maelström); e, infine, Troia stessa, identificata in una zona della Finlandia meridionale dove ancor oggi sorge una Toija!
In 480 pagine non ho trovato una virgola fuori posto. Se fossi un archeologo avrei già cominciato a scavare.


Paganini, un cannone per la mente e per il corpo - 25 gennaio 2001

Sorpresa (bella, una volta tanto): da qualche tempo escono libri sull'eterno problema mente - corpo e non tutti sono riduzionisti!
Per il riassunto dello status quaestionis rimando a quanto scritto qualche giorno fa da Franco Prattico proprio su Repubblica. Io vorrei invece mettere in luce qual è secondo me il punto essenziale. E cominciamo dicendo che cosa esso non è.
Il principale equivoco da evitare (anche da parte degli stessi scienziati) è infatti a mio giudizio quello di credere che tutto si riduca a decidere se l'io abbia un rapporto privilegiato con qualche area particolare del cervello o sia invece legato al suo funzionamento globale.
Nonostante le apparenze, infatti, la prima alternativa non porta di per sé al riduzionismo (né la seconda, di per sé, vi si oppone). Immaginiamo di avere qui con noi Niccolò Paganini.
E' chiaro che egli, pur essendo il più grande violinista della storia, non potrà esprimersi nello stesso modo se gli diamo un violino da quattro soldi anziché il suo fedele Guarnieri del Gesù: questo però non tocca ciò che egli in se stesso è. Sempre Paganini, poi, secondo la leggenda era uso talvolta spezzare qualche corda del suo violino e proseguire il concerto con le rimanenti.
Ora, è evidente che neanche lui avrebbe più potuto farlo se le avesse spezzate tutte: ma ciò non significa che la sua musica fosse "localizzata" nelle corde!
Allo stesso modo, il fatto che lesioni di determinate parti del cervello possano inibire in parte o anche in tutto l'espressione della coscienza non implicherebbe affatto che essa sia ivi "localizzata", nel senso di essere "fatta" di tale specifica materia (gli "atomi di coscienza", su cui giustamente ironizza Edelman): significherebbe solo che tali aree sono indispensabili alla sua espressione.
Né ciò vorrebbe dire che essa sarebbe possibile senza il resto del cervello (nonché dei vari organi di senso: quindi, in ultima analisi, del corpo), ma solo che essa può sopportare una percentuale di danni maggiore in tali zone che in altre (proprio come la musica di Paganini potrebbe sopravvivere a danni alla cassa armonica più estesi che alle corde, ma non alla sua completa distruzione).
Le due prospettive, quindi, non che essere antitetiche, potrebbero perfino completarsi l'un l'altra.
Ciò che è invece decisivo per l'antiriduzionismo è il fatto che il cervello, come il violino, non "suoni" da solo: cioè che sia comunque necessaria (in una prospettiva come nell'altra) la presenza di "qualcos'altro" perché quelle che sono sempre, in ultima analisi, semplici scariche elettriche vengano "lette" come immagini, suoni, pensieri, sentimenti...
Qualità e integrità dello "strumento" contano, eccome, ma la radice ultima dell'originalità di ciascuno di noi sta proprio in questo "altro", che come Paganini, non si ripete mai. Almeno alcuni dei libri citati sembrano, finalmente, riconoscerlo. E questa, al di là dei tecnicismi, è la vera buona notizia.


Se c'è il raggio laser addio effetti speciali - 1 febbraio 2001

Ammettiamolo: sono loro i veri protagonisti dei film di fantascienza. Sarà che assomigliano tanto al fulmine di Zeus di omerica memoria o che con loro anche la morte sembra una cosa meno sporca, o forse, più banalmente, è solo perché altrimenti dovremmo rinunciare a tanti effetti speciali: fatto sta che la fantascienza senza i raggi della morte non sarebbe più la stessa.
E la scienza? Non potrebbe un giorno arrivare a produrli davvero? In effetti in un certo senso il "raggio della morte" esiste già, ed è il laser, il cui uso bellico torna periodicamente di attualità con i vari tentativi (l'ultimo, di Bush, pochi giorni fa) di riproporre il cosiddetto "scudo spaziale" del Presidente Reagan. Ma, benché in particolari circostanze esso possa (forse) risultare utile, un suo impiego su vasta scala appare invece improbabile. La ragione è facilmente comprensibile: il laser infatti, pur essendo più "chirurgico", per distruggere il bersaglio deve centrarlo in pieno, mentre una bomba può permettersi anche di mancarlo, bastandole esplodergli vicino (e la distanza utile cresce in proporzione alla sua potenza).
Comunque gli amanti degli effetti speciali (tra i quali anch'io) non devono essere troppo delusi: la maggior parte di quelli che nei film vengono associati ai raggi della morte non potrebbero infatti esistere nella realtà. Tanto per cominciare, noi vediamo la luce solo quando viene riflessa da qualcosa: anche quando ci pare di vedere direttamente i raggi del Sole, è solo perché si riflettono sulla polvere sospesa nell'aria. Addio quindi ai fantasmagorici traccianti colorati di UFO Robot e Independence Day: a meno che si svolga nell'atmosfera (oppure in una nebulosa molto densa), una battaglia a raggi laser sarebbe del tutto invisibile per gli spettatori.
Ma c'è di più: essa sarebbe invisibile anche per i protagonisti. Quando infatti l'eroe "vede partire il colpo e all'ultimo momento riesce a schivarlo" lo può fare (almeno in teoria...) perché il proiettile, per quanto veloce, è pur sempre molto più lento della luce, sicché la vampata dello sparo ci raggiunge prima di esso. Ma un raggio di energia viaggia alla stessa velocità della luce, per cui vampata e proiettile coincidono e reagire è impossibile, non solo a distanza ravvicinata (pensate che già a 300 km si viene colpiti in un millesimo di secondo!), ma a qualsiasi distanza: infatti non si può vederlo (neanche con gli strumenti, badate!) se non nell'istante stesso in cui ci colpisce. Addio quindi anche alle strabilianti "manovre evasive" dei film di cui sopra: in una battaglia a raggi di energia l'unica cosa da fare è evitare di finire nella linea di tiro dell'avversario, perché una volta inquadrati non c'è più rimedio. E addio anche ai terrificanti rumori delle esplosioni: il suono infatti non si propaga nel vuoto.
Una battaglia a colpi di raggi della morte nello spazio profondo, quindi, sarebbe in realtà la più povera di effetti speciali che si possa immaginare: vedremmo solo una lotta di manovre nel buio, astronavi che cercano di sfuggirsi silenziosamente l'un l'altra, ogni tanto ne sparisce una, senza una ragione percepibile, con un lampo che si spegne all'istante, in silenzio. Qualcosa, insomma, che ricorderebbe assai più le partenze della Coppa America che Guerre stellari.


Feyerabend, un eretico - 8 febbraio 2001

Sette anni fa, l'11 febbraio del 1994, moriva a Ginevra, a soli 69 anni, per un tumore fulminante al cervello, Paul K. Feyerabend.
Feyerabend (prima l'allievo più brillante e poi il più feroce critico di Popper) è stato, secondo la vulgata corrente, il negatore dell'esistenza stessa di un "metodo" scientifico quale che sia (Contro il metodo si chiama, non a caso, il suo libro più famoso - benché non il migliore), il teorico dell'anarchismo epistemologico (per cui, secondo il suo famoso motto preso a prestito da "Nata ieri", "Anything goes": nella scienza, come nella vita, "qualsiasi cosa può andar bene" purché funzioni) e insomma il massimo rappresentante dell'irrazionalismo nell'ambito della filosofia della scienza contemporanea.
In questa immagine vi è certo qualcosa di vero, ed egli stesso, almeno per parecchio tempo, l'ha alimentata, o quantomeno non ha fatto nulla per modificarla. Io stesso, quando mi sono imbattuto per la prima volta in lui, nel corso della mia tesi di laurea (in cui difendevo il valore conoscitivo della scienza), l'avevo inizialmente classificato tra i "nemici". Poi, però, qualcosa cominciò lentamente a cambiare. Me ne accorsi per la prima volta quando mi sorpresi a pensare che in fondo mi era più simpatico lui di tanti altri autori teoricamente miei "alleati". Decisi allora che valeva la pena approfondire la conoscenza: dico "la conoscenza" (come prima ho detto che mi imbattei "in lui", non "nelle sue idee") perché se è vero che nessun uomo si riduce mai interamente alle proprie idee, questo è vero in massimo grado per Paul Feyerabend.
Cominciai così a capire che il suo preteso irrazionalismo, al di là di certe esagerazioni che il suo spirito polemico e il suo gusto del paradosso continuamente gli suggerivano, era tale solo se valutato con i canoni del razionalismo esasperato tipico della scienza (e della filosofia della scienza) di ispirazione positivista, oggi come allora largamente dominante, del quale (come peraltro egli stesso - ma ormai inascoltato - aveva cominciato a chiarire) intendeva rappresentare la reductio ad absurdum. Scoprii, anche, che egli difendeva il diritto ad esistere per tutte le concezioni del mondo, anche le più grottesche e insensate, non perché le ritenesse davvero tutte uguali, ma perché pensava che libertà significa anche, eventualmente, libertà di sbagliare: e, soprattutto, perché prendeva sul serio tale principio. Scoprii, soprattutto, che egli amava la scienza (che conosceva molto meglio di qualsiasi altro filosofo, a cominciare da Popper), benché spesso detestasse gli scienziati: quelli, almeno, che si fanno forti della propria autorità per imporre come verità certa ciò che in realtà è solo espressione di interessi economici o di pregiudizi ideologici. Alcune sue considerazioni su medicina "ufficiale" e "alternativa" mi aprirono gli occhi su una mia difficile situazione personale e non esagero se dico che contribuirono a salvarmi la vita. Quando avevo ormai deciso di cercare di conoscerlo di persona, se non altro per ringraziarlo, mi giunse la notizia della sua morte.
Leggete i libri di Paul Feyerabend, soprattutto i più recenti e meno famosi. Con tutti i loro eccessi e i loro difetti, restano un prezioso antidoto ad ogni rischio di avvelenamento da "pensiero unico".


Quando lo scienziato si sente superiore - 15 febbraio 2001

Premessa: non sono un Verde, ritengo deleterio il fondamentalismo ecologista e sono stato anch'io più volte assalito dalla tentazione di emigrare davanti alla scoraggiante situazione della ricerca in Italia. Dovrei dunque essere incondizionatamente favorevole alla protesta degli scienziati. Se non lo sono (e aggiungo: purtroppo!) è esclusivamente per colpa degli scienziati stessi. C'è infatti qualcosa di profondamente ambiguo e inquietante in molti dei discorsi sentiti in questi giorni.
In primo luogo, non è affatto chiaro quale sia il vero obiettivo. Se davvero si trattasse solo della "libertà di ricerca" sarebbe difficile non essere d'accordo: non esistono infatti (e non devono esistere) "verità proibite" e anche a proposito di tecniche potenzialmente pericolose è sempre bene saperne il più possibile. In realtà però sembra che la maggior parte degli scienziati intenda con ciò libertà non solo di studiare, ma anche di applicare, il che è ben diverso.
Poi è grave che per sostenere le proprie ragioni gli scienziati non rinuncino, neanche in questa occasione ufficiale, a certi argomenti propagandistici. Solo per fare un esempio, vorrei ricordare a tutti cosa disse proprio Dulbecco l'anno scorso in occasione del famigerato "Tebio". Domanda dell'intervistatore: "Cosa si è fatto per capire se ci sono cose che non vanno bene nelle tecniche genetiche?" Risposta (virgolettata): "Finora nulla." Domanda: "Questa innovazione produce benefici per i Paesi più poveri?" Risposta: "Finora no." Cosa è successo, in soli nove mesi, per far cambiare idea in modo così radicale all'illustre professore?
La cosa più intollerabile (e sottolineo: intollerabile) è però la pretesa di una sorta di superiorità morale da parte degli scienziati stessi (che sarebbero per questo in grado di "autoregolarsi"), affermata da molti, tra cui pure Veronesi nella sua intervista a Repubblica di lunedì (in cui si permetteva inoltre - il che è gravissimo, venendo da un ministro in carica - di irridere chiunque non condivida il suo credo nichilista, basato sui triti argomenti pseudoscientifici di Monod, da lui presentati come verità indiscutibili). Se c'è una cosa certa, invece, è che gli scienziati sono uomini come gli altri, quindi mossi (salvo poche eccezioni) certo non dalla "intenzione di nuocere" (voglio ben sperarlo!), ma neanche da superiori motivazioni etiche, bensì innanzitutto dai loro personali interessi: posto di lavoro, soldi, carriera, prestigio. Niente di scandaloso: così fan tutti. Scandaloso è però il non riconoscerlo, pretendendo di rappresentare per definizione l'interesse generale e rifiutando quindi il controllo della politica (cioè di noi cittadini: vediamo di non dimenticarcelo), segno evidente di una mentalità elitaria ed antidemocratica che in America - visto che la si porta sempre, giustamente, a modello - sarebbe impensabile (e infatti il contraltare della libertà che là vige è un sistema di controlli molto più agile ed efficiente, ma anche molto più severo, dove chi sbaglia paga, ma paga veramente, fino a poter essere ridotto sul lastrico da cause per danni da migliaia di miliardi). Finché dunque i nostri scienziati non impareranno a rispettare chi (magari a torto) non è d'accordo con loro, un dialogo sereno sarà, con gran danno di tutti, impossibile.


Il 2001, ma senza odissea nello spazio - 22 febbraio 2001

Il 2001 è arrivato, ma nessuna Odissea nello spazio è in vista. Peggio ancora, essa appare improbabile anche in futuro, almeno per quanto riguarda i viaggi fuori dal sistema solare.
Il loro problema principale è, come noto, la durata: di per sé infatti le difficoltà (assenza di gravità, permanenza in spazi ristretti, mancanza di cibo fresco, ecc.) non sarebbero molto diverse da quelle di un semplice viaggio sulla Luna, solo che gli esseri umani non possono tollerarle oltre un tempo limitato (oggi si pensa intorno ai 2 anni). Ma, dice molta fantascienza (e - ahimé - anche molta divulgazione scientifica), a ciò si potrebbe ovviare sfrutttando la contrazione del tempo prevista dalla relatività di Einstein. In realtà però, poiché tale effetto è esponenziale (cioè cresce molto piano all'inizio e molto in fretta alla fine), bisognerebbe andare almeno al 99% della velocità della luce per avere qualche vantaggio. Purtroppo con la velocità cresce anche la massa (cioè il "peso") del razzo. Inoltre, per non uccidere gli astronauti non si può accelerare di colpo, ma gradualmente. Bisognerebbe perciò portarsi dietro un'enorme quantità di carburante. Ma siccome anche il carburante ha il brutto vizio di pesare, ciò richiederebbe altro carburante ancora, e così via. Il fisico americano Edward Purcell ha calcolato che con un razzo a fusione nucleare (il meglio realisticamente immaginabile) ci vorrebbe un miliardo di tonnellate di carburante per ogni tonnellata di carico utile! Ma perfino in un ipotetico (e quasi certamente irrealizzabile) motore ad antimateria, dove si avrebbe la totale conversione in energia, cioè un rendimento del 100%, il rapporto sarebbe ancora di 40.000 a uno! E' chiaro che già questo è semplicemente impensabile, ma non basta. Solo per la partenza, infatti, si avrebbe un emissione di raggi gamma (letali per ogni forma di vita) pari a un miliardo di miliardi di watt! Cosicché, nota Purcell, il problema non sarebbe tanto "schermare l'astronave, il problema è schermare la Terra"! Con tutto ciò, un viaggio anche solo fino alla stella più vicina (Proxima Centauri, a 4,2 anni luce) durerebbe ancora 28 anni per noi, e 10 di "tempo rallentato" per gli astronauti. Probabilmente è già troppo: in ogni caso certamente per viaggi più lunghi occorre andare ancor più veloci. Ma, per quanto detto prima, ogni pur minimo passo avanti in quell'ultimo 1% comporterebbe un aumento enorme della già insostenibile energia richiesta.
Ma in fondo sono tutti discorsi oziosi. Anche lo spazio più vuoto, infatti, contiene in media un atomo di idrogeno per centimetro cubo. A velocità basse come quelle dei nostri attuali razzi-lumaca (circa 30.000 km all'ora) non sono pericolosi, ma già a un decimo della velocità della luce (30.000 km al secondo) si trasformano in palle di cannone. Quindi qualsiasi astronave relativistica finirebbe inesorabilmente tritata da questa "grattugia cosmica" ben prima che la contrazione del tempo diventi percepibile. La rotta verso le stelle potrà dunque essere aperta (se mai lo sarà...) soltanto dallo sfruttamento dell'altro effetto previsto dalla relatività: non cioè la contrazione del tempo, ma quella dello spazio. Non a caso alla NASA (e anche altrove) hanno già iniziato discretamente a lavorarci. Ma di questo vi parlerò un'altra volta.


Seti, ascoltando l'infinito silenzio - 1 marzo 2001

Dopo Contact e Independence Day è difficile che qualcuno non abbia mai sentito nominare il programma Seti (Search for Extra - Terrestrial Intelligence), al quale io stesso collaboro. Quanti però sanno esattamente di che si tratta?
Il Seti (che non va quindi confuso con l'ufologia) parte dal presupposto che i viaggi interstellari sono impossibili (vedi la scorsa puntata), sicché l'unico contatto possibile è quello via radio. La ricerca procede in due modi. La prima, mirata (targeted), sorveglia le stelle che hanno più probabilità di ospitare la vita e privilegia alcune frequenze "speciali", in particolare quella dell'idrogeno a 1420 MHz, che è la più diffusa in natura. Ciò è però costosissimo, richiedendo l'uso di un radiotelescopio in esclusiva. Per questo la maggior parte della ricerca Seti, compresa quella italiana, che si svolge presso l'osservatorio del CNR di Medicina (BO) diretto da Stelio Montebugnoli, avviene in modo "parassitario", sfruttando i dati della radioastronomia ordinaria e rianalizzandoli con un apposito software (sistema Serendip), praticamente a costo zero.
Iniziato nei primi anni '60, il Seti ha all'attivo molti falsi allarmi (fin dal primo tentativo di Frank Drake, che captò un aereo spia), un'importante scoperta (quella delle pulsar, stelle di neutroni in rapidissima rotazione che inviano un segnale radio estremamente regolare) e un certo numero di segnali "sospetti" (circa 35), tra cui uno (The "Wow" Signal) particolarmente forte: nessuno si è però ripetuto. Tuttavia bisogna tener conto che le difficoltà tecniche, contrariamente a ciò che si crede, sono enormi (solo lo studio preliminare di fattibilità ha richiesto un libro di 244 pagine!). Che si possa stabilire un contatto semplicemente captando per caso una trasmissione TV, come in Contact, è vero in teoria, in pratica è fantascienza. Di fatto, per svariate ragioni, quello che si ritiene più probabile trovare è una portante radio, vale a dire un segnale inviato intenzionalmente, su un'unica frequenza, per concentrarne al massimo la potenza: una specie di "faro" cosmico, insomma, che non significa altro se non "Hey, siamo qui!" (per questo si parla di self-proclaiming message). Perciò è presto per disperare.
In caso di successo è previsto che la notizia venga immediatamente resa pubblica dall'ONU. Ma poi? A parte il (grossissimo) problema del linguaggio da usare (su cui tornerò un'altra volta, dato che è ciò a cui lavoro), anche per stelle molto vicine passerebbero centinaia d'anni tra l'invio di una eventuale risposta e la successiva replica: un dialogo sarebbe perciò molto difficile, anche se credo che andrebbe comunque tentato.
Venerdì 16 marzo si terrà a San Marino, col patrocinio del Governo locale, la seconda edizione di un interessante convegno (per informazioni: tel. 0549/882412, fax 0549/882575, e-mail statoturismo@omniway.sm) dedicato interamente a questi temi, la cui peculiarità è di essere di tipo divulgativo, ma con esperti di altissimo livello internazionale (basti dire che interverrà lo stesso Frank Drake). Ulteriori notizie sul Seti si trovano su due siti web (www.radiotelescopio.bo.cnr.it; www.seti-inst.edu), da cui si può anche scaricare gratuitamente un pacchetto di dati e il software necessario per analizzarli. In caso di successo, il Nobel è assicurato.


Robot, viaggi spaziali e Von Neumann - 8 marzo 2001

Di nuovo per la serie "I Bestiari della scienza". Qualche tempo fa avevo raccontato di come ancor oggi parecchi scienziati scrutino il cosmo alla ricerca delle fantomatiche "sfere di Dyson", benché da oltre trent'anni si sappia con certezza che esse non possono esistere. Degne di fare il paio con loro sono senz'altro le "sonde di Von Neumann".
Rendendosi conto che i viaggi nello spazio sono in realtà assai più difficili e costosi di quel che si dice (vedi rubrica del 22/2), Von Neumann pensò che la difficoltà si sarebbe potuta superare inviando dei robot al posto degli uomini. I robot infatti avrebbero potuto viaggiare molto più a lungo, rendendo inutile la ricerca di velocità eccessive. Inoltre ne sarebbero bastati pochissimi: bastava infatti dotarli di un apposito programma ed essi una volta giunti a destinazione avrebbero costruito altre copie di se stessi e poi nuove astronavi, che avrebbero spedito a loro volta in giro. In un milione di anni, egli calcolò, si potrebbe colonizzare tutta la galassia.
A prima vista (e al di là del fatto che non se ne capisce bene il senso) la cosa potrebbe anche sembrare fattibile. In realtà essa è completamente folle.
In primo luogo, infatti, occorrerebbe almeno essere prima in grado di individuare dalla Terra quali pianeti posseggono non solo un ambiente adatto, ma anche gli elementi necessari ai robot per riprodursi: e non è detto che ciò sia possibile. Anche riuscendovi, sarebbe comunque impensabile guidare la spedizione via radio, perché anche dalla stella più vicina ogni singolo messaggio ci metterebbe degli anni tra andare e tornare. L'unica soluzione, quindi, è che i robot possano essere dotati di intelligenza nel senso stretto del termine, che è poi quello che aveva in mente Von Neumann. I lettori di questa rubrica sanno che io lo ritengo impossibile. In ogni caso i robot dovrebbero viaggiare per secoli, forse per millenni. Ora, è noto che l'elettronica si deteriora rapidamente (anni, al massimo decenni), e tanto più in fretta quanto più è sofisticata: è quindi impensabile che resista così a lungo. Bisognerebbe perciò imbarcare grandi quantità di pezzi di ricambio: ma allora addio all'economicità del viaggio. Il problema più grosso, comunque, arriva una volta giunti a destinazione. Infatti solo nelle storie di Zio Paperone i coraggiosi esploratori sbarcano dall'astronave e cominciano immediatamente ad estrarre minerali e a lavorarli a proprio piacimento. Nella realtà invece i materiali necessari per costruire anche solo una lavastoviglie sono dispersi su tutta la faccia del pianeta, spesso sotto di essa, a grandi profondità o addirittura sotto i mari. Pensate a quali impianti sarebbero necessari per la loro estrazione e poi per il trasporto, ai macchinari per la lavorazione, al combustibile... Insomma, i robot dovrebbero essere in grado di riprodurre non appena se stessi, ma l'intera civiltà terrestre! Quindi ci si ritrova in un circolo: per costruire una civiltà i robot devono potersi riprodurre, ma per farlo hanno bisogno di avere alle spalle una civiltà.
Conclusione: anche concedendo tutte le probabilmente impossibili condizioni richieste per la loro realizzazione, le sonde di Von Neumann non potrebbero comunque funzionare. Eppure c'è tuttora chi ci crede. E (ovviamente a nostre spese) ci studia sopra!


Un mondo di batteri all'origine della vita - 15 marzo 2001

Nei giorni scorsi due notizie hanno riproposto con forza il problema della vita nel cosmo: la scoperta di batteri in una meteorite proveniente da Marte e quella che anche la grande estinzione del Permiano è stata causata, come quella del Cretaceo che sterminò i dinosauri, da una meteorite.
Cominciamo dalla prima. In realtà è sempre la solita ALH84001, scoperta nel 1984 in Antartide e nella quale già nel '96 la NASA annunciò di aver trovato batteri fossili. La novità è che ora alcuni scienziati ritengono di avere la prova definitiva dell'origine biologica di queste formazioni. Avendo tra l'altro assistito alcuni mesi fa ad un dibattito sul tema presso l'Abdus Salam di Trieste con quasi tutti i massimi esperti mondiali (fra cui anche Schopf e McKay), posso solo dire che la questione è molto complessa e tecnica, per cui non mi sento di prendere posizione. Qui vorrei invece discutere il significato di un'eventuale soluzione positiva.
Apparentemente ciò sembrerebbe implicare che la vita sia diffusissima nell'universo: una sua nascita indipendente in due luoghi così vicini sarebbe infatti estremamente improbabile se essa non fosse in se stessa un fenomeno comunissimo. Questo è vero, a patto però che di due origini indipendenti realmente si tratti. Ora, proprio il fatto che i presunti batteri siano stati trovati in una meteorite pone un problema al riguardo: infatti è anche possibile che la vita sia sorta solo su uno dei due pianeti e poi sia stata trasportata sull'altro in questo modo. E' vero che i batteri suddetti erano allo stato fossile, ma non si può escludere che in circostanze diverse possano giungere a destinazione ancora vivi: anzi, proprio al convegno di cui sopra è stato presentato uno studio (della tedesca Gerda Horneck) che dimostra come la cosa, almeno all'interno del sistema solare, sia possibile. Chiaramente la questione non potrà mai essere risolta dalle analisi sui fossili, ma solo dall'esame di batteri marziani vivi (se ce ne sono ancora). La portata reale della scoperta sarebbe quindi in ogni caso minore di quel che può sembrare a prima vista.
Ancor più problematica è poi la sua valutazione rispetto alla diffusione della vita complessa (cioè, in parole povere, quella animale) e, in particolare, di quella intelligente. Oggi si tende a dare per scontato che il grande problema sia l'origine della vita, perché a questo riguardo ci sono ancora solo vaghe ipotesi, mentre abbiamo un quadro abbastanza ragionevole (benché per niente affatto completo) di come funzioni l'evoluzione. Ciò però non implica che quest'ultima sia in se stessa più semplice o più probabile dell'altra, e proprio l'anno scorso un libro di due scienziati americani (Rare Earth, di Ward e Brownlee) ha suscitato grande sensazione facendo per la prima volta un esame approfondito e completo dei fattori determinanti per la genesi di organismi complessi, giungendo alla sorprendente conclusione che mentre la vita batterica potrebbe essere perfino più comune di quanto fin qui creduto (a causa della loro adattabilità agli ambienti più estremi), ciononostante quella animale potrebbe essere invece rarissima, al limite anche unica. Tra tali fattori un posto importante è rivestito proprio dalle estinzioni di massa e dagli impatti meteoritici. Ne parleremo la prossima volta.


Giordano Bruno martire non moderno - 22 marzo 2001

Un articolo di Piergiorgio Odifreddi su Repubblica di domenica scorsa (L'uomo che scoprì l'universo infinito) mi costringe a rimandare alla prossima settimana la discussione dell'ipotesi della "Terra rara". Non posso infatti non replicare alle clamorose inesattezze (chiamiamole così...) ivi contenute.
Primo. Secondo Odifreddi il Papa avrebbe "perso l'occasione di chiedere perdono, nel Giubileo del 2000", per l'uccisione di Bruno. Falso. Il Papa l'ha fatto, precisamente con una lettera indirizzata all'importante convegno dedicato al Nolano dalla Facoltà Teologica di Napoli nel centenario della morte (17-18 febbraio 2000), riportata con ampio risalto da tutti i giornali e della quale conservo ancora copia.
Secondo. Per Odifreddi una delle imputazioni che ne causarono la condanna sarebbe "l'aver sostenuto l'esistenza di mondi innumerevoli ed eterni". Falso anche questo: la cosa fu discussa nel corso del processo, ma nella sentenza (che gli contesta solo la dottrina della reincarnazione e "l'eresia Novatiana") non ve n'è traccia.
Terzo. Per Odifreddi questa concezione dell'universo infinito sarebbe la prova della "modernità" di Bruno, contrapposta all'oscurantismo dei suoi avversari. Peccato però che l'universo della moderna cosmologia scientifica, per quanto smisurato, non sia affatto infinito, né nel tempo né nello spazio, tant'è vero che sappiamo calcolarne, almeno approssimativamente, sia l'età che la massa totale (l'ultima stima è proprio di pochi giorni fa). Né più "moderne" (anzi!) erano poi le sue motivazioni. La prima (e principale, almeno per Bruno) era infatti squisitamente teologica: se Dio è infinito, solo una creazione infinita è degna di Lui ("principio di pienezza"). La seconda era invece scientifica, ma errata: l'universo dev'essere infinito perché altrimenti "fuori" di esso dovrebbe esserci il nulla! Su questo punto aveva decisamente le idee più chiare Aristotele, per il quale sia il tempo che lo spazio sono proprietà dei corpi e non "contenitori assoluti", e dunque è assurdo chiedersi che cosa ci sia "fuori" dall'universo anche supponendolo finito (Fisica, D 4-11). Perciò non so quanto la concezione bruniana abbia realmente influenzato gli scienziati a lui posteriori, ma, nel caso, si tratterebbe semmai di un influsso negativo: se Newton su ciò avesse dato retta ad Aristotele avremmo potuto avere la relatività con oltre 200 anni di anticipo!
Ma, quarto e ultimo, la verità è che Bruno non fu affatto uno spirito "laico" e "moderno". Le considerazioni scientifiche sono infatti in lui sempre funzionali al discorso principale, che è fondamentalmente esoterico. Anche l'accenno a Copernico "più studioso de la matematica che de la natura" era assai più una critica che una "difesa", come vorrebbe Odifreddi: egli infatti riteneva che non con la matematica, ma solo con la filosofia (e la cabala!) si potesse raggiungere la natura profonda delle cose! E, si badi, queste non sono mie opinioni, ma ciò che oggi vien dato per scontato da tutti i più autorevoli studiosi
. Conclusione. Non è affatto necessario fare di Bruno ciò che egli non era (e, soprattutto, non voleva essere) per compiangerne e deprecarne la sorte. Alla prossima.


Uno spazzino cosmico ci salva dagli asterodi - 29 marzo 2001

Due settimane fa ho accennato alla scoperta che anche l'estinzione del Permiano, 250 milioni di anni fa, è stata causata da un meteorite (che distrusse oltre il 96% delle specie allora esistenti), nonché all'importanza che tali eventi rivestono nell'ipotesi della Rare Earth ("Terra rara") di Ward e Brownlee. Ora vediamo perché.
Esistono due modelli per la formazione dei pianeti. Per il primo essi nascono dalla materia strappata ad una stella (per impatto o per attrazione gravitazionale) da un "incontro ravvicinato" con un altro corpo celeste. Per il secondo tutto inizia invece da un disco di polvere cosmica rotante, al cui centro, per condensazione, nasce la stella, mentre nelle zone esterne si formano piccoli ammassi di particelle che poi, attraverso continue collisioni, danno origine a corpi sempre più grandi, fino ai pianeti. Mentre nel primo modello la loro formazione è un evento molto raro, nel secondo (che pare confermato dalle più recenti scoperte astronomiche) è invece molto comune, ma ciò ha come conseguenza necessaria anche la formazione di molti asteroidi (che sono i "residui" del processo).
Chiaramente gli impatti con quelli più grossi avverranno in genere all'inizio, a causa della maggiore attrazione gravitazionale tra di essi e i pianeti (e infatti pare che la vita sulla Terra sia nata proprio poco dopo la fine di tale prima fase di bombardamento "pesante"), tuttavia anche tra quelli successivi ce ne saranno ancora di abbastanza grandi da distruggere completamente la vita. Perché a noi non è successo? Forse la nostra fortuna ha un nome: Giove. Il pianeta gigante infatti fa un po' da "spazzino cosmico", attirando su di sé gran parte dei corpi più pericolosi. Ciò potrebbe voler dire, però, che la presenza di un "Giove" nei dintorni è necessaria perché la vita su un pianeta possa evolversi verso forme complesse. Finora tutti i pianeti extrasolari scoperti sono di questo tipo, sicché questo non sembrerebbe un problema. Ma non è così semplice. Infatti un pianeta gigante rischia di destabilizzare le orbite di quelli più piccoli, "sparandoli" letteralmente nello spazio. Giove non lo fa solo perché la sua orbita è molto regolare, quasi sferica. Ma tutti i pianeti extrasolari giganti fin qui scoperti hanno invece orbite molto eccentriche: avere il Giove "giusto" potrebbe quindi essere tutt'altro che facile.
Ma c'è di più. Secono i due americani, infatti, le estinzioni di massa hanno anche un ruolo positivo. Dall'analisi dei fossili sembra proprio che l'evoluzione, contrariamente alla classica visione darwiniana "gradualista", proceda per balzi successivi: e i "balzi" più grandi avvengono sempre dopo le più grandi estinzioni! E' come se la vita, giunta ad un certo livello di complessità, avesse bisogno che venga liberata di colpo la maggior parte delle "nicchie evolutive" disponibili, per poter tornare ad occuparle con forme di complessità maggiore. Se è così, allora l'ascesa dai batteri verso gli animali superiori si gioca tutta sul sottile crinale tra eventi distruttivi "quasi globali", che la stimolano, e globali, che la annientano: ed ecco perché anche l'eventuale universale diffusione dei primi non implicherebbe affatto necessariamente quella dei secondi. Ma esistono molti altri fattori del genere, oltre ai meteoriti: ci torneremo ancora.


La tastiera "Qwerty" e la legge di mercato - 5 aprile 2001

Vi siete mai chiesti perché le tastiere dei computer (e, prima di loro, delle macchine per scrivere) a parte alcuni dettagli hanno tutte i caratteri disposti nello stesso modo? Certamente tale configurazione non è arbitraria: infatti bisogna tener conto di quali sono i caratteri (e soprattutto i gruppi di caratteri) più frequentemente usati e disporli in modo tale da facilitarne la battitura. Tuttavia possiamo dire che la tastiera Qwerty (così chiamata dalle prime sei lettere della prima riga), oggi universalmente diffusa, sia la più efficiente possibile? Ebbene, la sorprendente risposta è no! Non solo, ma addirittura sappiamo che essa fu progettata (da Christopher Scholes nel 1873) col preciso scopo di rallentare i dattilografi troppo veloci (in quanto nelle macchine di allora se si batteva troppo velocemente i martelletti tendevano ad incastrarsi nella piastrina). Perché allora essa si è diffusa fino a questo punto? Semplicemente perché all'epoca la Remington Sewing Machine Company lanciò una produzione in grande stile di macchine per scrivere dotate di tastiera Qwerty, sicché moltissimi dattilografi vi si abituarono e per questo anche altre ditte concorrenti la adottarono, innescando così un feedback positivo che finì per condurre alla sua pressoché universale adozione.
Questo meccanismo (detto anche "a rendimenti crescenti" o lock-in) in realtà è molto diffuso in economia, ma la sua esistenza è stata riconosciuta solo di recente (grazie, tra l'altro, all'opera di Brian Arthur, un economista legato al mitico Istituto di Santa Fe per lo studio dei sistemi complessi: vedi M. M. Waldrop, Complessità, Instar Libri) perché turbava la tradizionale e rassicurante visione del mercato come inevitabilmente propenso a selezionare le tecnologie migliori. Ma esso esiste anche in natura. La storia della tastiera Qwerty, per esempio, è stata raccontata (in Bravo brontosauro, Feltrinelli) da Stephen Jay Gould, il teorico dei cosiddetti "equilibri punteggiati", come un esempio della sua teoria per cui non sempre l'affermarsi di un determinato carattere implica necessariamente un migliore adattamento all'ambiente: a volte ciò può anche essere determinato da una prevalenza iniziale dovuta ad eventi casuali che poi le circostanze tendono ad amplificare.
Tutto ciò ci insegna due importanti lezioni. Primo: dimostra come anche nelle vicende umane possono avere un gran peso dinamiche autogenerate indipendenti dai comportamenti dei singoli. Quando un sistema funziona male, eppure non si riesce a correggerlo, noi tendiamo sempre a pensare che sia per colpa di qualcuno. Spesso è così, ma a volte è solo un fenomeno di lock-in. Prendiamo l'inquinamento. Se non si sono ancora adottate certe tecnologie "pulite" già da tempo disponibili non è solo per colpa di Bush e della lobby dei petrolieri: è anche perché ciò richiederebbe di riconvertire gran parte del nostro sistema industriale, il che ha un costo pazzesco. Prima o poi andrà fatto, ma chi pensa che sia facile (e soprattutto indolore) si sbaglia di grosso. Secondo: poiché nei casi di tipo Qwerty una volta presa una strada è difficilissimo tornare indietro, l'unica soluzione è pensarci prima, quando le alternative sono ancora equivalenti. Non vorrei sembrar fissato, ma mi sa tanto che uno di questi casi è proprio la genetica.


Ricordando Shannon il "padre" di tutti i bit - 12 aprile 2001

Apprendo solo ora che il 28 febbraio scorso è morto a Cambridge all'età di 84 anni Claude Shannon.
Probabilmente il suo nome non vi dirà molto, eppure poche persone più di lui meriterebbero di essere celebri in questa epoca. Nel 1938, infatti, egli per primo teorizzò il sistema binario, che sta alla base degli attuali computer (e da cui viene anche il termine "bit", che sta per "binary digit"). Successivamente, insieme al suo maestro Norbert Wiener e ad altri scienziati americani, diede il primo impulso alla cibernetica e all'Intelligenza Artificiale, coniandone perfino il nome. Ma soprattutto Shannon è stato il padre della Teoria dell'informazione, la quale insegna ad ottimizzare i segnali in un dato canale di trasmissione, consentendo ai computer e ai telefoni (e soprattutto ai telefonini...) le odierne e sempre più stupefacenti prestazioni. Certamente molti altri hanno contribuito a portarla all'attuale sviluppo (per esempio Gregory Chaitin, di cui vi parlerò prima o poi, o Benoît Mandelbrot, lo scopritore dei frattali, il quale dimostrò che anche i disturbi in una linea telefonica hanno una struttura frattale e non possono quindi mai essere completamente eliminati, il che condusse alla strategia oggi in uso, fondata principalmente sul "rinforzo" del segnale tramite la ridondanza), ma i concetti basilari si devono incontestabilmente a lui.
Personalmente "incontrai" Shannon durante i miei studi di Dottorato sui sistemi non lineari, a causa di una definizione di complessità che proprio dalla sua teoria era stata tratta e che mi permise di gettare almeno un'occhiata nel mondo da lui scoperto. Non fu davvero più che un'occhiata, ma mi lasciò comunque affascinato: infatti, pur non riuscendo a dare una misura "assoluta" della complessità (che era quel che io stavo cercando -io, ma non lui), la sua definizione ne forniva però una "relativa", che permetteva, tra l'altro, di distinguere una sequenza di simboli caratterizzata da un ordine complesso ed "aperto" (come il linguaggio o la musica, per esempio) sia da una casuale che da una ripetitiva. Ciò può sembrare poco, perché non consente, ovviamente, di risalire al significato della sequenza: in realtà è moltissimo, perché consente di riconoscere che essa ha un significato pur non conoscendolo. In certi casi ciò è fondamentale: per esempio, tutta la strategia del SETI (vedi rubrica dell'1/3) si basa su questo. Ma anche nello studio dei linguaggi animali (per esempio dei delfini) essa si sta dimostrando preziosa
. Non ho mai avuto occasione di incontrare Shannon di persona, ma gli ero affezionato per la profonda intelligenza del reale e l'altrettanto profonda serietà davanti ad esso che traspare da tutta la sua opera, così in contrasto con le pose di certe "star" mediatiche che alla scienza, poi, spesso hanno dato assai meno di lui. Così anche voi, la prossima volta che accenderete un computer o risponderete al vostro telefonino, ricordatevi di Claude Shannon: si, è vero, a volte questi aggeggi ci fanno impazzire, ma è per merito suo se questo non succede ancora più spesso.
P.S. Informo tutti i lettori che a partire dalla settimana prossima sarà finalmente attivo il mio sito personale, www.filosofiadellascienza.it, dove potrete trovare tutti gli articoli pubblicati nella rubrica nonché molte altre cose ancora. Vi aspetto!


Intelligenza artificiale tra realtà e fantascienza - 19 aprile 2001

Ci risiamo! Ogni volta che nel campo della (sedicente) Intelligenza Artificiale (IA) si verifica qualche scoperta un po' innovativa, subito veniamo sommersi da scenari fantascientifici privi di qualsiasi legame coi fatti e destinati a sgonfiarsi miseramente alla prima verifica un po' seria. Questa volta tocca al russo Vitalij Valzev, il quale, come ci informa Piero Bianucci su La Stampa di martedì, ha annunciato di aver costruito un apparato di IA che per la prima volta imita "l'architettura dei neuroni che costituiscono il cervello umano". Per questo, egli sostiene, è "in grado di apprendere come un bambino" e, bontà sua, si premura di informarci che sta "educandolo" in modo che diventi un genio anziché un criminale! Che il signor Valzev abbia tutto l'interesse a fare un po' di chiasso intorno alla sua probabilmente non troppo rivoluzionaria invenzione è comprensibile. Meno comprensibile è invece che gli si dia credito. In primo luogo infatti è evidente già a priori che la cosa, letteralmente intesa, è impossibile, per la semplice ragione che "l'architettura del cervello" ci è tuttora in gran parte ignota. Quindi vedrete che presto tutta la faccenda verrà riportata alla sola dimensione che realisticamente può avere (sempre che non sia una bufala pura e semplice), ovvero quella di un'innovazione tecnica limitata atta a migliorare l'efficienza delle reti neurali (che già da anni sono capaci di "apprendere" senza per questo essere genii né criminali). Anche Bianucci avanza qualche perplessità, ma ritiene che la cosa potrebbe comunque essere fatta "in un futuro non troppo lontano" grazie ai computer quantistici, coi quali "in 100 grammi di materia si può codificare tutta l'informazione di un miliardo di cervelli umani". Cioè, per lui è solo una questione di quantità! Invece sappiamo che è stato dimostrato (da Doyne J. Farmer, nel 1991) come qualsiasi rete neurale sia equivalente a un programma di computer di tipo "classico": quindi è impossibile (in linea di principio) costruirne una, non importa modellata su cosa, che sappia fare qualcosa di diverso da una computazione, ovvero, ultimamente, da un calcolo logicomatematico. Qualsiasi cosa abbia inventato Valzev (e qualsiasi cosa altri possano inventare in futuro), dunque, tutto si riconduce sempre (senza nessuna novità) al solito problema: la nostra mente funziona solo in base alla logica formale? Che la risposta sia no è un fatto certo al di là di ogni dubbio, benché gli esperti di IA, per ovvie ragioni, non se ne vogliano dare per intesi: ho già fornito alcune prove di ciò in precedenti puntate (8/11 e 25/1) e altre ne darò ancora in futuro. E questo evidentemente significa che nel nostro cervello l'architettura non è tutto. Ma Bianucci, non pago, afferma addirittura che il congegno di Valzev sarebbe il "primo passo verso l'utopia di Von Neumann", ovvero la colonizzazione della galassia (nel giro di un milione di anni) tramite astronavi guidate da robottini intelligenti! Perché tale idea sia assurda e impraticabile ho cercato di spiegarlo nella puntata dell'8/3 (ora consultabile, con tutte le altre, nel mio sito web). A Bianucci invece farò solo presente che se ciò fosse possibile qualcun altro l'avrebbe già fatto: perciò o siamo soli (antropocentrismo!) o bisognerebbe dar ragione agli ufologi. Che orrore!


Siamo piccoli dettagli in un grande disegno - 26 aprile 2001

Nelle vacanze di Pasqua ho trascorso qualche giorno nella nostra casa di Fénis, una delle zone più colpite dall'alluvione dello scorso autunno. Ho così potuto vederne di persona i segni, ancora evidentissimi, ricavandone due impressioni.
La prima. Senza voler con ciò assolutamente sminuire la gravità dei tanti scempi inflitti al nostro territorio, qui essi non c'entrano nulla. Le frane si sono infatti verificate in zone non cementificate, dove la montagna è ancora "vissuta" e curata dalla gente del luogo e ricoperta da un fitto e bellissimo bosco. Semplicemente, è venuta giù troppa acqua tutta in una volta: e la terra, quando si bagna troppo, diventa fango; e il fango, se è su un piano inclinato, scivola giù; e se ci sono alberi se li porta dietro (il negozio degli alimentari è stato sventrato proprio da un albero).
Mi par già di sentire le proteste. È infatti difficile per noi accettare una spiegazione così banale: condizionati dalle opposte ideologie dell'ecologismo radicale (per cui la natura è sempre e comunque buona e i disastri avvengono solo perché noi non sappiamo adeguarci ad essa) e dello scientismo (per cui la tecnologia può controllare tutto e se non lo fa è solo perché la usiamo male) e sempre più lontani dalla natura, ce ne siamo fatti un'idea del tutto irrealistica e non ammettiamo più la possibilità stessa della fatalità, per cui quando succede una disgrazia deve sempre essere colpa di qualcuno ("la magistratura ha aperto un'inchiesta" è l'immancabile e rassicurante conclusione dei servizi dei vari Tg). Ma non è così. La seconda impressione l'ho avuta l'ultimo giorno, quando siamo saliti in quota, verso SaintBarthelemy. Viste dall'alto, nella loro vera dimensione, nel contesto delle montagne circostanti, quelle frane per noi così impressionanti non erano niente più che piccoli graffi superficiali. E le montagne stesse, che a noi appaiono così maestose, non sono altro (guardate un mappamondo in scala!) che pieghe quasi impercettibili sulla superficie della Terra. Insomma, quella che per noi è stata una catastrofe tra le peggiori del secolo non è che una manifestazione minima, quasi irrilevante, delle forze che hanno plasmato e tuttora plasmano il nostro pianeta. Nulla vale, naturalmente, come vedere certi spettacoli coi propri occhi, tuttavia per farvene almeno un'idea vi suggerirei di leggere Jurassic Park di Crichton, in particolare la discussione finale tra Ian Malcolm e John Hammond.
È fuor di dubbio, checché ne dicano certi ambientalisti, che la tecnologia ci abbia consentito di proteggerci da molti pericoli (anche se altri potrebbero sorgere proprio dal suo abuso), ma davanti a tali forze anche il suo potere è e sarà sempre molto limitato. Non voglio con ciò suggerire conclusioni nichiliste. Fondamentalmente la natura non ci è estranea, e tantomeno nemica: abbiamo visto proprio di recente (15/3 e 29/3), e ancora ne vedremo, quante straordinarie coincidenze, a volte quasi incredibili, permettano la nostra esistenza, e perfino (ve ne parlerò, prima o poi) quella della nostra stessa civiltà tecnologica. Tuttavia dobbiamo renderci conto che il disegno di cui facciamo parte è più grande di noi e della nostra capacità di comprendere e di intervenire. Continuare a sognare che non sia così serve solo ad esporci ai più bruschi e amari risvegli.


L'universo intelligente creatura di Fred Hoyle - 3 maggio 2001

Ancora per la serie "I Bestiari della scienza", ovvero quando rispettabili e celebri scienziati si mettono a caccia di entità mitologiche. Nella puntata di oggi vi parlerò del famoso astronomo Fred Hoyle e della sua intelligenza guida del futuro infinito.
Va detto che tale bizzarra teoria è nata da uno spunto serio: la sua critica dell'evoluzionismo ortodosso. Hoyle aveva infatti svolto un calcolo che dimostrava come, se davvero il motore dell'evoluzione fosse il puro caso, essa sarebbe talmente improbabile da risultare di fatto impossibile (Hoyle, L'universo intelligente, Mondadori). L'evoluzione, egli concluse, è dunque guidata. Il suo intento era infatti (e dichiaratamente) quello di opporsi "al nichilismo che ha dominato il pensiero scientifico per tutto il XIX secolo" e che a suo parere è ormai giunto a minacciare la stessa sopravvivenza della nostra civiltà. Tuttavia il suo viscerale rifiuto di qualsivoglia religione (che lo porta addirittura a negare il Big Bang solo perché, dice, "mi ricorda troppo la Genesi"!) lo costringeva a cercare una soluzione diversa. Il modo in cui lo fece rappresenta, credo, qualcosa di unico nella storia del pensiero, a suo modo un capolavoro, benché di insensatezza.
Hoyle ragionò infatti così: 1) Se l'evoluzione è guidata, ciò implica un'intelligenza che la guidi. 2) Ma poiché tale intelligenza non può essere Dio, essa deve trovarsi all'interno dell'universo, quindi nel tempo, quindi o nel passato o nel futuro. 3) Ma noi vediamo che in genere andando dal passato verso il futuro le cose si degradano, mentre l'evoluzione, al contrario, procede verso una complessità sempre crescente. 4) Dunque per gli esseri viventi il tempo deve procedere al contrario. 5) Dunque l'intelligenza guida non può mandare i suoi segnali dal passato al futuro, ma viceversa. 6) Dunque essa si trova nel futuro. 7) Per inviare i segnali dal futuro al passato essa deve servirsi di singole particelle quantistiche, per le quali le leggi della fisica non distinguono tra le due direzioni del tempo. 8) L'unico modo in cui un singolo evento quantistico può avere effetti rilevanti a livello macroscopico è agendo sulle scelte di un essere vivente. 9) Del resto il modo in cui avvengono le nostre scelte assomiglia ad un evento quantistico. 10) Dunque le nostre scelte dipendono effettivamente da eventi quantistici che ci vengono inviati dal futuro dall'intelligenza guida. 11) Ma se essa fosse in un futuro determinato, allora per funzionare dovrebbe a sua volta ricevere segnali dal futuro. 12) Dunque essa deve trovarsi in un futuro infinito.
A differenza di Dyson con le sue sfere e di Von Neumann con le sue sonde, Hoyle non ha avuto per questa sua teoria, almeno a quanto mi risulta, altri seguaci che se stesso. La cosa non è sorprendente: in effetti credo che nemmeno Parmenide (quello che sosteneva che "L'essere è, il non essere non è, e nient'altro può esser detto legittimamente") sia mai giunto ad un simile grado di sovrano disprezzo per la realtà e per il buon senso in nome della fedeltà incondizionata alla (propria) logica. Tuttavia il baco profondo della sua posizione è assai più banale: è la pretesa che la scienza debba poter rispondere ad ogni nostra domanda, comprese quelle di senso. E in questo, purtroppo, di seguaci Hoyle ne ha invece fin troppi.


Dal "re degli ignoranti" una lezione per tutti - 10 maggio 2001

E' stata una buona giornata per la scienza, quella di giovedì scorso. Mi riferisco, ovviamente, all'ormai celebre dialogo sul tema dei trapianti tra Adriano Celentano e il dottor Giuseppe Remuzzi, che, dopo le spropositate reazioni alla prima puntata, è stato generalmente apprezzato (benché, incredibilmente, qualcuno abbia avuto ancora da ridire), però mantenendo le distanze dal conduttore, che al massimo, si diceva, aveva rimediato ad uno sbaglio. Io invece voglio dire chiaramente che sto con Celentano, e per più d'una ragione. Primo e ovvio (ma evidentemente non per tutti), perché Remuzzi l'ha chiamato lui: e mi piacerebbe sapere chi altri, anche e innanzitutto tra chi l'ha attaccato, avrebbe avuto l'umiltà di fare altrettanto. Secondo e ben più importante, perché, anche se a molti dispiacerà, è questo a mio avviso il solo modo realistico di affrontare, oggi, i problemi posti dalla scienza: vale a dire attraverso una discussione il più possibile pubblica a cui certo devono partecipare anche gli esperti, ma anche gli "ignoranti" (cioè quasi tutti, "esperti" compresi, dato che la sfera di competenza di ciascuno è sempre, per forza di cose, molto più ristretta di quella dei problemi), alle cui paure e obiezioni - anche e direi soprattutto quando irrazionali - gli esperti devono comunque dare delle risposte precise, argomentate e rispettose (come ha fatto Remuzzi, dimostrandosi vero uomo di scienza) e non invece liquidarle con sufficienza, come anche in questa circostanza hanno fatto i soliti noti, da Garattini alla Montalcini a Veronesi (spiace ripetermi: ma è lui che si ripete). Infatti, come è noto, in una società democratica alla fine prevale l'opinione della maggioranza, anche quando è sbagliata. Perciò non accettare che a idee diffuse venga data voce solo perché (le si ritiene) sbagliate è, prima ancora che intollerante, miope: perché così non si affrontano i problemi che la gente di fatto giudica importanti e in base a cui (magari sbagliando, ma non per questo meno realmente) prende le proprie decisioni. E, sempre per stare ai fatti, credo sia difficile negare che la strana coppia sia alla fine riuscita, in soli quaranta minuti, ad informare la gente assai più di quanto non abbia saputo fare il governo in tutti questi anni. Rendere tale modalità di discussione sistematica ed istituzionale non è facile, lo so, ma alternative realistiche non ne vedo: perciò avanzerò qualche proposta in tal senso in un mio libretto di prossima pubblicazione. Terzo ed ultimo (e premesso che io il consenso l'ho dato), resta che il silenzioassenso non è una bella cosa (come ha riconosciuto anche Remuzzi). E' vero che nel caso specifico le conseguenze negative sono limitate, ma il pericolo sta nel principio implicitamente affermato, che è: nel dubbio circa il consenso, prevale l'utilità sociale. Può sembrare astratto e crudele dire questo davanti a chi soffre, ma, come giustamente ha detto Celentano, ciò non può diventare un ricatto morale: il rischio è infatti che, alla lunga, passi l'idea che l'utilità sociale deve prevalere non solo in assenza, ma anche contro la volontà individuale, all'inizio magari solo in un campo ristretto, ma una volta entrati in questa logica poi è difficile fermarsi. Ricordiamoci che tutte le tirannidi si sono sempre imposte facendo appello all'emergenza.


L'ipotesi di Riemann è proprio un problema - 17 maggio 2001

Qual è il problema più importante della matematica tra quelli ancora oggi irrisolti? Fino a non molto tempo fa quasi tutti avrebbero risposto: "Naturalmente l'Ultimo Teorema di Fermat!" Ora esso è stato finalmente dimostrato (da Andrew Wiles, nel 1995), ma anche prima, se la domanda fosse stata rivolta ad un matematico, la risposta sarebbe stata assai diversa: egli infatti avrebbe con ogni probabilità affermato che il problema più importante (e anzi forse il solo problema veramente importante) tuttora aperto in matematica è l'Ipotesi di Riemann.
Quasi certamente nessuno di voi ne avrà mai sentito parlare, ma l'importanza di un problema non è sempre proporzionale alla sua fama: quella del Teorema di Fermat era dovuta principalmente alla sua semplicità (oltre che all'alone di leggenda che lo circondava), mentre l'Ipotesi formulata da Riemann nel 1859 è estremamente complicata, affermando che i numeri complessi che rendono uguale a zero una certa equazione (detta funzione zeta di Riemann) hanno tutti la parte reale uguale a (cioè se (s)0, allora s+ib). Tuttavia, a differenza del primo, essa ha (o meglio, potrebbe avere) conseguenze importantissime in un campo fondamentale della matematica come quello dei numeri primi. Infatti da un lato la loro distribuzione sembra fondamentalmente irregolare (benché tendenzialmente decrescente), dall'altro pare anche nascondere un certo ordine, dato che è ben approssimata da formule molto semplici. Se l'Ipotesi fosse vera ne sapremmo molto di più in proposito: di qui la sua importanza. Tanto che il matematico Godfrey Hardy, dovendo affrontare un viaggio molto pericoloso, inviò ad un amico una cartolina in cui diceva di averne trovato la dimostrazione, pensando che Dio non gli avrebbe permesso di morire con questa fama immeritata (notare che Hardy era ateo: tuttavia il trucco funzionò!).
Un passo avanti sembrò venire nel 1897, quando F. Mertens, dopo averne calcolati i valori per i numeri da 1 a 10.000, congetturò che il valore assoluto M(n)di una certa espressione (detta funzione di Möbius) per ogni numero n fosse sempre minore della radice quadrata di n stesso, il che implicherebbe l'ipotesi di Riemann, che si sa essere vera se M(n)A per qualsiasi valore di A, cioè se h(x) può (o no) assumere valori arbitrariamente grandi, il che non può ovviamente esser provato in questo modo.
La storia dell'Ipotesi e della Congettura ci mostra da un lato quanto i calcoli al computer siano ormai importanti per la matematica odierna, dall'altro come non sempre questo metodo "sperimentale" sia sufficiente. Ci ritorneremo.


Anche mutando l'auto la velocità non muta - 24 maggio 2001

Si dice sempre che il progresso ha cambiato la nostra vita in modo irreversibile, ed è vero. Eppure secondo il "complessologo" Cesare Marchetti esistono strutture (alcune risalenti addirittura all'età della pietra) che tendono a restare stabili a dispetto di qualsiasi cambiamento tecnologico.
Per esempio, oggi si parla tanto di "villaggio globale", però Marchetti ha notato (riprendendo uno studio di De Solla Price sulle citazioni reciproche nelle pubblicazioni scientifiche) che nel Neolitico una tribù era tipicamente composta da circa un centinaio di persone: e anche oggi la nostra "tribù" di appartenenza, cioè le persone con cui intratteniamo relazioni più o meno stabili, è sempre di un centinaio di persone! Ho controllato, ed è vero. Se non mi credete, provate anche voi e vedrete.
Altro esempio. Oggi si viaggia molto più di un tempo, tuttavia in qualsiasi paese, oggi come allora, l'uomo passa a casa propria circa i 3/4 del suo tempo libero: tanto che il 60% del traffico aereo è determinato da gente che viaggia per lavoro e torna a casa in giornata. Ovvero: ci si muove tanto per muoversi il meno possibile. Per questo il "Pendolino" non è mai riuscito a fare veramente concorrenza agli aerei: l'istinto della "tana" prevale perfino sulla convenienza economica!
Ancora: fino all'800 la velocità media era di circa 5 km/h, corrispondente a quella di un uomo a piedi (i cavalli erano per pochi e con strade pessime, sicché di fatto non influivano). Poi, con l'introduzione dell'automobile, nel giro di un secolo la velocità media è salita a 40 km/h. Negli ultimi 80 anni invece, nonostante le apparenze, essa è rimasta stabile: cioè, la velocità media è rimasta la stessa dai tempi di Henry Ford a oggi, in quanto l'aumentata velocità di punta dell'automobile è riuscita soltanto a compensare esattamente i rallentamenti e le perdite di tempo, dovute al traffico e alla difficoltà a trovare parcheggio, che il suo stesso successo ha creato! Non basta. A quanto pare, dall'età della pietra ad oggi anche il tempo medio dedicato agli spostamenti è rimasto costante: circa un'ora al giorno. Guarda caso, fino all'800 la distanza media tra i villaggi era di circa 5 km e il diametro massimo delle città più grandi era anch'esso di 5 km: cioè esattamente la lunghezza percorribile in un'ora alla velocità media del tempo! Dall'inizio dell'800 invece, cioè da quando lo spazio percorribile in un'ora ha cominciato progressivamente a crescere, le città hanno cominciato a crescere anch'esse. Per cui, dice Marchetti, sembra ragionevole concludere che il territorio è definito dalla velocità, indipendentemente da qualsiasi altro fattore. Su questa base, egli prevede per le megalopoli attuali una dimensione massima di 40 km di diametro: vedremo se i fatti gli daranno ragione. Come già la storia di Qwerty (rubrica del 5/4) e quella delle alluvioni (26/4), tutto ciò dovrebbe renderci più cauti circa le nostre possibilità di controllare il mondo a nostro piacere. Del resto lo diceva già il Gattopardo: "Bisogna che tutto cambi perché nulla cambi".
N.B. finale per chi non ama i computer. Marchetti ha anche calcolato che l'attività di gran lunga prevalente negli uffici è tuttora parlare (di persona o al telefono). Perciò egli prevede che neppure in futuro la rivoluzione informatica riuscirà a sovvertire tale tendenza.


Quante coincidenze nella fredda tecnologia - 7 giugno 2001

Nei giorni scorsi (2123 maggio) si è svolto a Frascati il primo convegno dell'ESA (l'Agenzia Spaziale Europea) dedicato alla Bioastronomia, la disciplina che studia la possibile esistenza della vita nel cosmo. Al di là dell'importanza dell'evento in sé (e delle molte relazioni interessanti, su alcune delle quali tornerò quanto prima), esso mi dà l'occasione di approfondire l'accenno del 26/4 al fatto che non solo il sorgere della vita complessa è possibile grazie ad una incredibile serie di coincidenze favorevoli nelle leggi di natura (ciò che comunemente va sotto il nome di "Principio antropico"), ma che lo stesso accade anche per la tecnologia. Nella mia relazione (in gran parte basata su un lavoro del Dott. Carlo Sozzi dell'Associazione Euresis di Milano) ho infatti messo in luce due fatti essenziali. Primo: tutte le fonti di energia sono strettamente correlate con la vita. Per esempio: 1) tutte le più semplici fonti di energia (come il legno e i combustibili fossili) derivano dagli esseri viventi; 2) l'uranio abbonda sulla superficie terrestre grazie ad una particolare reazione con l'ossigeno atmosferico, che è prodotto dalla piante; d'altra parte, esso contribuisce in modo decisivo a mantenere la Terra calda sia con la sua radioattività che contribuendo al ciclo della CO2; 3) il deuterio (indispensabile per la fusione nucleare) abbonda invece grazie alla presenza di molta acqua liquida, che è a sua volta indispensabile per la vita e può esistere solo perché la Terra ha una certa massa e temperatura, che sono anche quelle giuste per la vita; 4) le energie rinnovabili (solare, eolica, idroelettrica, idrotermale, ecc.) sono tutte coinvolte nei fenomeni basilari della vita (come la fotosintesi, la presenza di grandi masse d'acqua, un'atmosfera consistente, l'esistenza di un nucleo caldo...); e si potrebbe continuare. Quindi è assai verosimile che dovunque c'è vita ci siano anche adeguate fonti di energia. Masecondoanche l'uso di tali fonti è possibile solo grazie ad impressionanti coincidenze favorevoli: 1) la maggior parte dei combustibili fossili è disponibile solo da circa 100 milioni di anni, cioè appena in tempo (su scala geologica) per essere utilizzati da noi; 2) la loro quantità è quasi esattamente quella necessaria per darci il tempo di imparare ad usare le altre fonti energetiche, più difficili da sfruttare; 3) in un universo appena più denso la fusione sarebbe impossibile, perché non ci sarebbe abbastanza deuterio; 4) il rapporto tra l'energia del Sole e quella necessaria alla nostra attuale civiltà (2.301x1024 Joule all'anno contro 1.833x1019 Joule: circa 100.000 volte) è quasi esattamente quello giusto: un pelo (ma proprio un pelo) in menol'effetto serra è lì a testimoniarloed essa non potrebbe esistere...; e, di nuovo, potremmo continuare. Tutto ciò ci autorizza a parlare, per analogia, di un vero e proprio "Principio tecnoantropico", intendendo con ciò che: "Il nostro universo è fatto in modo tale da permettere la nascita di civiltà tecnologiche", la cui esistenza deve quindi essere considerata, paradossalmente, un fenomeno del tutto "naturale"! D'altra parte (seconda e complementare lezione) ci dice anche che gli equilibri che le rendono possibili e che quindi esse devono rispettare sono assai più complessi e sottili di quanto normalmente pensiamo.


14 giugno 2001 - Il mistero senza tempo dei ventuno paradigmi

Vi è mai capitato di usare o sentir usare il termine "paradigma"? Sono sicuro di sì. Ma forse non sapete che lo dobbiamo ad un filosofo della scienza morto a Cambridge cinque anni fa, il 17 giugno 1996, all'età di 74 anni, Thomas S. Kuhn.
Storico di formazione, divenne celebre anche in campo filosofico quando diede un impulso decisivo alla messa in crisi del razionalismo popperiano mostrandone, nel suo celebre La struttura delle rivoluzioni scientifiche (1962), le eccessive e spesso arbitrarie semplificazioni rispetto ai metodi realmente seguiti dagli scienziati. Le sue idee contribuirono inoltre potentemente alla cosiddetta "svolta relativistica" dell'epistemologia contemporanea. Ma per il grande pubblico egli è e sarà sempre l'inventore dei "paradigmi". La cosa paradossale è che la popolarità di tale nozione è inversamente proporzionale alla sua chiarezza: nessuno, in effetti, sa esattamente che cosa sia un paradigma, compreso, a quanto pare, lo stesso Kuhn, se è vero che Margaret Masterman, in un famosissimo saggio di poco posteriore alla Struttura, vi ha individuato "non meno di 21 significati differenti" dell'espressione! Essi tuttavia possono essere ricondotti a 3 fondamentali e interconnessi (sempre identificati dalla Masterman), per cui oggi possiamo dire con buona approssimazione che un paradigma è un certo modo di vedere e interpretare il mondo (senso metafisico), fatto ad un tempo di teorie e di metodi comunemente accettati come validi dalla grande maggioranza degli scienziati (senso sociologico) e costituitosi per analogia a partire da un qualche artefatto che ha consentito il raggiungimento di qualche risultato scientifico concreto (senso operativo). Il paradigma così inteso costituisce il quadro al cui interno si svolge quella che Kuhn ha chiamato la "scienza normale", che non fa che sviluppare ed estendere il paradigma stesso, cioè, concretamente, trae tutte le conseguenze possibili dalle sue componenti teoriche e le utilizza, insieme a quelle metodologiche, per risolvere problemi (o "rompicapi", come li chiama Kuhn con un filo di disprezzo). A volte però ci si imbatte in qualche aspetto della realtà ostinatamente refrattario: così accade che, dopo reiterati tentativi di forzarlo comunque nel vecchio paradigma, prima o poi salta fuori qualcuno (generalmente un giovane) che ne propone uno nuovo. Si ha così quella che Kuhn chiama una "rivoluzione scientifica", enfatizzandone gli aspetti di rottura e di scontro (a livello sia culturale che sociale che, perfino, economico) e le correlative resistenze, fino a sostenere che i seguaci di differenti paradigmi non possono - letteralmente - neanche capirsi, mancando di basi condivise, sicché ogni discussione è inutile e quello nuovo finisce per affermarsi non tanto per la sua bontà, quanto perché a un certo punto i seguaci del vecchio muoiono tutti!
Benché egli, al pari di Feyerabend (rubrica dell'8/2), abbia sempre rifiutato la qualifica di relativista e, più ancora, di irrazionalista, mi pare innegabile che le sue vedute vadano, oggettivamente, in tale direzione. Tuttavia la sua analisi della scienza è di gran lunga più completa e penetrante di quella dei suoi avversari razionalisti e, opportunamente depurata degli eccessi, può costituire una base di discussione assai più realistica per i drammatici problemi dei nostri giorni.


21 giugno 2001 - A zonzo nello spazio cercando clorofilla - 7 giugno 2001


Due settimane fa ho accennato al primo convegno dell'Agenzia Spaziale Europea (ESA) sulla Bioastronomia. Oggi vorrei raccontarvi qualcosa di più su questo evento in certo senso storico. La relazione più importante è stata senza dubbio quella dello svizzero Stephane Udry sui pianeti extrasolari. Per la prima volta, infatti, non ci si è limitati ad aggiornare il conto (adesso siamo a quota 63, con almeno 6 sistemi), ma si è anche tentata un'analisi qualitativa dei dati. Anzitutto è emerso che le nostre tecniche sono tuttora capaci di individuare (indirettamente, misurando le perturbazioni gravitazionali) solo pianeti della taglia di Giove o più, quindi inadatti alla vita. Ma questo già si sapeva. Più interessante è che finalmente se ne sia individuato uno con un'orbita quasi circolare, come appunto Giove: pianeti giganti con orbite molto eccentriche (come tutti gli altri fin qui scoperti) tendono infatti a "sparare" via i loro compagni più piccoli. La percentuale resta sconfortantemente bassa, ma è sempre un segnale incoraggiante. Quasi tutti, poi, ruotano intorno a stelle ricche di metalli, e questo è un ottimo segno, perché questa caratteristica è essenziale per la vita, ma non molto comune. Peraltro la grande maggioranza di esse ha decisamente più metalli del Sole (che dunque non è poi così "qualunque" come si dice), e questo potrebbe invece creare problemi. In ogni caso un quadro più chiaro si potrà avere solo con le missioni TPF (Terrestrial Planet Finder) della NASA e Darwin dell'ESA (entrambe previste per fine decennio), capaci di "vedere" direttamente i pianeti "cancellando", per così dire, grazie a sofisticate tecniche interferometriche, la luce della stella che normalmente li sommerge. Questo metodo permetterà non solo di individuare finalmente pianeti di tipo terrestre, ma anche di scoprirne la composizione: infatti diventerà possibile applicare anche alla luce riflessa dal pianeta l'analisi di spettro che già si fa normalmente sulle stelle e che consiste nel misurare tutte le diverse lunghezze d'onda che la compongono, ognuna delle quali è caratteristica di una determinata sostanza. In tal modo si spera di poter individuare anche i cosiddetti biomarkers, ovvero quelle sostanze (come l'ossigeno libero) che sono normalmente associate alla vita. Il guaio è che ciascuno di essi, come ha dimostrato il francese Franck Selsis, può essere prodotto anche per via non biologica: quindi il metodo non dà certezze. Per questo è molto interessante la proposta di un altro francese, Jean Schneider, e di una giovane ricercatrice italiana, Fiorella Coliolo: quella della "clorofilla generalizzata". Le piante infatti assorbono tramite la clorofilla una parte della luce solare (quella verde), che usano poi per costruirsi il nutrimento (autotrofia). Si può quindi individuarle dallo spazio con la spettrografia misurando tale assorbimento. Il problema è che su un altro pianeta il meccanismo potrebbe essere diverso. Però una forma di vita autotrofa (senza cui un ecosistema non può reggersi) deve comunque assorbire luce. Perciò, generalizzando il metodo, basterà trovare che un pianeta assorbe una qualsiasi parte dello spettro luminoso (anche di un altro colore) per essere praticamente certi di trovarsi in presenza di un'attività fotosintetica analoga a quella basata sulla clorofilla e, quindi, di vita.


Ma quei cerchi sono sospetti - 13 settembre 2001

Buongiorno a tutti. Eccomi di nuovo tra voi a parlarvi dei miti (in senso sia positivo che negativo) della scienza d'oggidì. E cominciamo dal mito dell'estate: l'"Arecibo Reply" (AR).
Avrete già sentito parlare dei "crop circles", prima semplici cerchi, poi figure sempre più complesse che da anni compaiono nei campi di grano, specialmente in Inghilterra. Benché esistano vere e proprie associazioni di "circlemakers" rei confessi, con tanto di siti Internet (www.circlemakers.org), molti (tra cui, curiosamente, i "circlemakers" stessi) ritengono che almeno alcuni siano opera di extraterrestri. Il 20 agosto, presso il radiotelescopio di Chibolton, nello Hampshire, ne è apparso uno che riproduceva il celeberrimo "messaggio di Arecibo" (MA), inviato nel 1974 da Frank Drake, il pioniere del SETI (vedi rubrica del 1 marzo), verso un lontano ammasso stellare, ma con alcune modifiche, subito interpretate come la "risposta" ("Reply") degli alieni.
Pur riconoscendo che in tutta la faccenda dei "crops" qualche aspetto misterioso rimane e pur non avendo chiusure preconcette verso l'ufologia (come verso nient'altro, del resto), almeno nel caso in questione devo purtroppo deludere gli appassionati: si tratta chiaramente di un falso, tra l'altro (con buona pace di qualche giornalista troppo entusiasta) anche piuttosto maldestro.
Trascurando il fatto (in sé non trascurabile) che MA non può ancora aver raggiunto nessun sistema planetario, e a parte alcune modifiche (alla figura del trasmettitore, a quella dei suoi costruttori e ai numeri relativi alla loro altezza e alla loro popolazione) per le quali tutto ciò che occorre è la conoscenza del codice binario e un po' di fantasia, i cambiamenti con pretese di scientificità si riducono infatti a tre. Primo. In MA era rappresentato il sistema solare, con la Terra spostata in alto per evidenziarla. In AR sono stati spostati anche il quarto, quinto e sesto pianeta, come per dire che gli alieni vivono anche su di essi. Peccato che in MA fossero indicate anche le masse dei pianeti. Ora, in AR soltanto due di esse sono state modificate (e, per di più, in modo incoerente col codice usato in MA), il che è francamente implausibile. Secondo. In AR è stata leggermente modificata la doppia elica del DNA. Peccato che l'immagine originale fosse così stilizzata da risultare del tutto irrealistica (e per questo è stata pesantemente criticata, in quanto si riteneva giustamente - che difficilmente gli alieni potrebbero mai capire cosa rappresenti). Di conseguenza anche le modifiche sono prive di significato. Terzo e ultimo. In MA sono indicati i principali costituenti del corpo umano. In AR è stato aggiunto il silicio, il solo elemento che potrebbe (forse) fondare una chimica organica non basata sul carbonio. Però qui esso compare al suo fianco, non al suo posto, senza peraltro provocare la benché minima modifica nelle successive formule relative al DNA.
Ricapitolando: l'autore di AR conosce solo superficialmente MA e meno ancora la scienza, ma sa molto bene quali temi vanno oggi toccati (in primis la genetica) per far notizia. Non è l'identikit di un alieno intelligente, ma quello di un terrestre furbacchione. Intanto i veri studiosi del SETI stanno per riunirsi (a Tolosa, dal 28 settembre) proprio per vedere come costruire un messaggio migliore di quello di Arecibo. Ne riparleremo.


Contro i terrorismi non solo tecnologia - 20 settembre 2001

Due settimane fa stavo leggendo Perché le cose si ribellano di Edward Tenner, un libro interessantissimo (infatti ne riparleremo) dedicato agli effetti di ritorsione, ovvero al fatto che spesso i nostri sforzi per risolvere un problema finiscono per peggiorarlo o per farlo ritornare in una forma diversa o, ancora, per generarne altri equivalenti. Pur nella loro eterogeneità, essi presentano due caratteristiche comuni: 1) si verificano nei sistemi complessi, a causa della tipica caratteristica ("non lineare") di questi di amplificare a dismisura perturbazioni anche piccolissime, purché prodotte nel punto giusto; 2) tendono a trasformare i problemi acuti in cronici, passando da eventi catastrofici, ma rari e circoscritti e quindi in certo senso più facili da affrontare, ad uno stillicidio di microdisastri, meno traumatici ma più sfuggenti. Leggendo pensavo che questo era accaduto anche con la guerra: per un po' i Paesi più progrediti credettero di averla definitivamente allontanata da sé grazie alla propria superiorità tecnologica, ma poi i più deboli impararono che la dispersione può fare la forza tanto quanto l'unione, e così la guerra era destinata a tornare fra noi nella forma cronica del terrorismo. Non immaginavo quanto presto e drammaticamente ne avrei avuto conferma! L'attacco all'America presenta infatti proprio queste caratteristiche. Molti a caldo, di fronte all'imponenza del disastro, hanno immaginato (ragionando "linearmente") un'azione estremamente complessa, con armi sofisticate e addirittura bombe, salvo non capire poi come tutto ciò fosse potuto sfuggire a CIA e FBI. Poi si è scoperto che questi hanno bombardato l'America (facendo almeno il doppio dei morti di Pearl Harbor) usando solo qualche coltello! Ma il fatto più impressionante è che, per come sono andate le cose, probabilmente avrebbero potuto farlo anche a mani nude: oltre alla vulnerabilità intrinseca dei sistemi complessi, infatti, l'altro fattore decisivo è stata la nostra impreparazione mentale. Come spiegare, altrimenti, la mancata reazione di passeggeri ed equipaggio di ben 3 aerei su 4? La paura non è una spiegazione sufficiente: sarebbero morti in ogni caso, e comunque telefonare era altrettanto pericoloso, eppure molti l'hanno fatto. Il fatto è che dover prendere l'iniziativa contando solo sul nostro giudizio e sulle nostre risorse fisiche (con cui abbiamo un rapporto sempre più astratto) ci coglie completamente impreparati, mentre usare un cellulare per dare l'allarme rientra nella nostra mentalità, che è ancora "da fase acuta", per cui in una crisi ci rivolgiamo d'istinto verso la tecnologia e l'organizzazione. Ma, come nota Tenner, questo metodo non va più bene con i problemi cronici, coi quali funziona solo la vigilanza continua e diffusa e diventa quindi nuovamente decisivo il fattore umano: e infatti, benché in modo perverso, questa è stata una vittoria (clamorosa) dell'uomo sulla tecnica. Perciò anche noi di fronte a fenomeni come il terrorismo (ma anche la microcriminalità) dovremo riabituarci ad usare il nostro coraggio di uomini contro quello, malefico ma reale, di chi ci minaccia: perché, come scrisse già Eliot, nessun sistema potrà mai essere così perfetto da evitarci la fatica di essere buoni. Buoni, cioè responsabili, del nostro destino e di quello altrui: come i passeggeri dell'aereo di Pittsburgh.