AMICI DI BERTRAND RUSSELL


Vai ai contenuti

scienza

pagine di discussione



SCIENZA

articolo del 15 luglio 2013


IL TESTAMENTO UMANITARIO E DI DIFESA AMBIENTALE DI MARGHERITA HACK

Nel marzo 2013, pochi mesi prima della sua morte, la rivista “Libero Pensiero”, edita dall’Associazione Nazionale del Libero Pensiero “Giordano Bruno”, pubblicò un lungo articolo di Margherita Hack. Questo scritto dovrebbe essere divulgato perché sembra il testamento scientifico, filosofico e politico della scienziata che, come il filosofo Bertrand Russell, si impegnò per portare a conoscenza di tutti le idee scientifiche, del libero pensiero e di difesa ambientale.

PER UNA SCIENZA DELLA DIGNITA’

La scienza e le sue applicazioni si sono sviluppate tanto da poter modificare la natura degli esseri viventi, le condizioni del nostro pianeta in modo palpabile e forse irreversibile. Perciò ci si comincia a chiedere come conciliare il rispetto della vita in tutte le sue forme con tutto ciò che la scienza applicata può fare. In che cosa consiste la dignità umana? Io credo nel rispetto di tutti gli esseri viventi che con noi condividono le risorse della Terra. E’ una dignità gravemente calpestata dalle violenze che noi grazie alla maggior potenza del nostro cervello infliggiamo a tutti, animali e vegetali, che con noi convivono…

di Margherita Hack

Ecco alcuni esempi in cui i progressi della scienza e le conseguenti applicazioni sono dimostrazioni di indegnità da parte dell’uomo sui suoi simili, sugli animali, sull’ambiente. Le atrocità degli allevamenti intesivi in cui gli animali sono trattati come macchine di produzione di carne, di latte, di uova, senza nessun rispetto per la loro natura.
Lo sfruttamento dei paesi del terzo mondo.Grazie alla potenza tecnologica dei paesi industrializzati, le immense risorse di interi continenti, come l’Africa, il Sud America, l’Australia vengono depredate con la complicità di governanti corrotti indifferenti alle sofferenze dei loro popoli.
Grazie ai progressi della scienza e della tecnologia la specie umana cresce a dismisura a spese di tutti gli esseri viventi, vegetali e animali.
E’ il fenomeno dell’antropizzazione. Oggi abbiamo superato i 7 miliardi, eravamo 6 miliardi nel 2000 e un miliardo nel 1800, anche se, fortunatamente, la natalità è diminuita in tutto il mondo. Questa crescita ha sottratto habitat agli animali, ha ridotto drasticamente le aree coperta da foreste, la stessa foresta amazzonica è in pericolo. Gli effetti sono facilmente osservabili, non c’è bisogno di studio o strumentazioni particolari. Da parecchie decine di anni non si vedono più le lucciole. Ricordo, quando ero bambina, che nelle notti estive nei viali e nelle vie periferiche sembrava di camminare in mezzo alla Via lattea, tanto folti erano gli sciami di questi piccoli insetti volanti. Oggi per vederne qualcuna bisogna andare nei boschi. Quest’estate le farfalle del mio giardino erano una rarità. Il frinire delle cicale nei caldi pomeriggi d’agosto o il canto monotono di grilli nelle notti estive un lontano ricordo.
Le api muoiono decimate dai pesticidi. Le rondini, messaggeri dell’arrivo della primavera, riempivano di strida e di voli il cielo dei crepuscoli estivi, e la loro adunata, a centinaia sui fili della luce, pronte a migrare, è indissolubilmente associato ai preparativi per un nuovo anno di scuola. Oggi sono tanto rare che ci si dimentica della loro esistenza, sono fonte di meraviglia quando le vediamo in qualche piazza affollarsi nei buchi delle mura di una vecchia chiesa, o sulle travi di legno sotto i tetti di antichi palazzi. Sono spariti i neri merli dal becco giallo e le albe sono silenziose, non si sente più il cinguettio dei passerotti e delle cinciallegre. Al loro posto le nere cornacchie e le grida sgraziate dei gabbiani che ancora resistono al crescente inquinamento.
In nome della cura e conservazione del verde cittadino si assiste ogni primavera alla brutale “potatura” degli alberi lungo i viali, ridotti a moncherini, a tronchi spogli di rami e di foglie proprio quando stava per esplodere il rigoglio primaverile, quando gli uccelli che vi avevano fatto il nido, covavano le loro uova.
L’illuminazione a giorno di parchi e viali, le musiche a tutto volume, disturbano la fauna che non riconosce più il suo ambiente naturale.

Ignoranza, avidità… e arroganza confessionale

C’è anche molta ignoranza nei riguardi della scienza le cui conquiste spesso fanno un’irragionevole paura, come gli OGM, le centrali nucleari, l’ingegneria genetica.
Inoltre ancora oggi ci sono gravi interferenze sulla ricerca da parte del Vaticano. Certo non manderebbe nessuno al rogo perché magari sostiene che è la Terra a girare attorno al Sole e non viceversa, come successe a Giordano Bruno nel 1600, rogo da cui si salvò Galileo perché si rassegnò ad abiurare queste eretiche verità scientifiche, né si permette di interferire sulla ricerca abiologica, ma quando si tratta di ricerche biologiche le interferenze ci sono e pesanti, incontrastate o troppo debolmente difese da una classe politica succube del Vaticano e scientificamente ignorante. L’esempio più recente sono gli ostacoli posti alle ricerche sulle cellule staminali. Sebbene queste ricerche siano estremamente promettenti e in alcuni casi abbiano portato decisivi vantaggi nella cura di malattie finora considerate inguaribili, le si ostacolano perché l’embrione avrebbe l’anima, e quindi una cellula che contiene un essere in fieri andrebbe salvaguardata più di una persona. Di qui anche gli ostacoli alla fecondazione assistita.
Sempre l’ingerenza del Vaticano e la sua influenza su parlamentari cattolici rende così difficile ottenere leggi che attuino completamente la Costituzione, che riconosce eguali diritti a tutti i cittadini. Mi riferisco al non riconoscimento delle coppie di fatto, sia etero che omosessuali, all’impossibilità per le coppie omosessuali di adottare un bambino. Si pensa forse che un bambino stia meglio in un orfanotrofio che in una famiglia con due babbi o due mamme che gli diano affetto e educazione. Quante famiglie ci sono, composte da un solo genitore che crescono bambini felici! Ma c’è la condanna da parte della Chiesa dell’omosessualità. L’omosessuale è considerato un peccatore, in alcuni paesi l’omosessuale è perseguitato, imprigionato e in alcuni condannato a morte. Grande ignoranza della scienza che invece ci insegna che l’omosessualità dipende dal nosto DNA, uno nasce omosessuale come può nascere mancino, far parte di una minoranza naturale e che purtroppo l’ignoranza della scienza porta a guardare con sospetto, ad emarginare. Ancora mezzo secolo fa il bambino mancino era obbligato a imparare a scrivere con la destra, la “mano buona”, creandogli difficoltà d’apprendimento maggiori che ai suoi compagni destrorsi.
Oggi che la medicina è in grado di tenere in vita per anni una persona in coma irreversibile o comunque ridotta a uno stato di vegetale è necessario poter lasciare un testamento biologico. Ma sempre le interferenze del Vaticano ne rendono così difficile nel nostro paese l’accettazione: cioè una persona in possesso delle proprie facoltà mentali può dichiarare di non voler essere sottoposta all’accanimento terapeutico qualora fosse affetta da malattia inguaribile e non potesse esprimere la propria volontà. Ma la chiesa obietta che siccome la vita è un dono di Dio, noi dobbiamo accettarla, anche se è divenuta insopportabile, anche se in Dio non ci credo.

Esempio di alta civiltà viene dalla Svizzera dove è possibile avere “il suicidio assistito” e di cui ha usufruito Lucio Magri, uno dei fondatori del “Manifesto”. Comunque le proibizioni del Vaticano e la sottomissione ad esso da parte delle nostre istituzioni crea ancora una volta disparità fra cittadini: chi può va all’estero, chi non ha i mezzi o le conoscenze deve subire.

DIGNITA’ SIGNIFICA…

Dignità della scienza vuol dire ridurre al minimo le sofferenze degli altri esseri, non creare mostri, o inventare mezzi di distruzioni di massa. Un esempio di indegnità veramente mostruoso fu la programmata scientifica distruzione della razza ebraica da parte del nazismo hitleriano. Si dice che solo una mente malata poteva immaginare e ordinare l’esecuzione di tali orrori. Eppure furono centinaia, forse migliaia i fedeli esecutori agli ordini di questa aberrante ideologia.
Ci sono tanti esempi di accanimento distruttivo contro popoli interi, ma in generale erano mossi da interessi quale depredare un popolo delle sue ricchezze, sfruttare e ridurre in schiavitù intere popolazioni, mano d’opera a basso costo quale fu l’atroce mercato di schiavi, ma quello che di ancora c’è stato nel nazismo fu la scientifica, fredda determinazione di distruggere una popolazione non per interessi pratici non scusabili ma comprensibili, ma per un’ideologia aberrante che voleva spazzare dalla terra il male rappresentato da una popolazione inerme, forse colpevole di aver voluto e saputo mantenere la propria individualità in una comunità di gran lunga più numerosa.
Qualche esempio della fredda scientificità con cui si programmava l’estinzione di un popolo l’abbiamo dalla lettura del protocollo di Wannsee (gennaio 1942) di cui riporto due passi fra i più agghiaccianti: “Nel quadro generale della soluzione finale, gli Ebrei dovranno essere avviati al lavoro nell’Est Europeo. Tutti coloro che risultino abili al lavoro, suddivisi per sesso, saranno inviati in gruppi in quei territori per impiegarli nella costruzione di strade. Gran parte di essi morirà per cause naturali e quelli che sopravvivranno, cioè i più resistenti, dovranno essere gestiti adeguatamente (un modo elegante per dire che finiranno nelle camere a gas. Ndr) poiché rappresentano il frutto di una selezione naturale. Qualora essi venissero rilasciati potrebbero costituire il germoglio di una futura rinascita ebraica”.
E ancora: “Il Governatorato generale desidererebbe che la soluzione finale di questo problema iniziasse dal proprio territorio poiché i trasporti in quell’area non rappresentano un problema e le operazioni non sarebbero ostacolate da difficoltà legate alla disponibilità di manodopera. Gli ebrei dovranno essere allontanati dal territorio del Governatorato Generale il più rapidamente possibile poiché, soprattutto in quell’area, l’Ebreo è portatore di epidemie ed è quindi estremamente pericoloso”.
Tali aberranti testi dovrebbero essere inclusi nei libri di testo di storia perché i giovani sappiano cosa è potuto succedere nella civile Germania, nella civile Europa in pieno XX secolo, dove negli stessi anni la scienza faceva grandi progressi, la nuova fisica rivoluzionava le conoscenze del XIX secolo e si scopriva la struttura e l’evoluzione delle stelle e dell’universo nel suo insieme.
Una strage frutto del progresso tecnologico e i cui effetti sono ancora evidenti nei pochi superstiti furono le bombe atomiche su Navasachi e Hiroshima, che per lo meno sono servite da deterrente perché una simile ecatombe non possa ripetersi e si eviti una terza guerra mondiale che con i mezzi di cui si dispone oggi potrebbe davvero portare all’estinzione della vita o una regressione all’età della pietra.



°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°




Tecnologia, dati, realtà
- di Roberto Vacca – 29 Giugno 2013



Attenti a non fare solo questione di parole! L’innovazione è scarsa, specialmente in Italia. La tecnologia progredisce, risolve molti problemi - e ne crea di più. La EIU (Economist Intelligence Unit) ha appena pubblicato un vasto sondaggio sulla adozione di nuove tecnologie da parte delle industrie asiatiche. Questa registrano grossi successi: continueranno? Gli obiettivi sono individuati come: “raccolta e analisi dei dati (gestire “big data”), mobilità delle imprese, software come servizio, sicurezza della tecnologia dell’informazione e della comunicazione”.
È limitativo parlare di adozione di tecnologia, invece che di invenzione di tecnologia. Il termine “tecnologia” indicava in origine l’insieme delle teorie, delle procedure, della scienza applicata, delle regole empiriche – utili per produrre oggetti, macchine, servizi e per modificare il mondo naturale. Oggi si identifica quasi sempre la tecnologia con ICT – Information Communication Technology. È vero:elettronica, computer e reti rendono possibile analizzare e macinare moli di dati che anni fa non erano reperibili, né trattabili. “Big data” è il termine usato per indicare l’accesso a tutti i dati singoli, originari [raw data – dati crudi] e non solo a statistiche già elaborate, integrate – a totali.
Le aziende usano big data per decidere azioni microscopiche che portano i loro messaggi, promozioni, icone e prodotti proprio a obiettivi individuali per i quali sono progettati. Si sostiene che il successo elettorale di Obama sia stato assicurato da una enorme elaborazione dati su gruppi e persone. I messaggi a loro diretti erano fatti su misura per comunicare quello che volevano sentire - espresso nei modi individuati dalle analisi come più accettabili. Un messaggio importante era “Creerò il servizio sanitario nazionale” – ma molti elettori non lo gradivano. Altro messaggio: “Abolirò le armi nucleari” – e, invece, le sta aumentando. Altro messaggio: “Combatterò i cambiamenti climatici”: ora dice che ci proverà e non capisce di aver accettato teorie insussistenti, né di stare scegliendo strumenti inefficaci. È vero che gli uomini sono riusciti a creare deserti e a distruggere la natura di certe regioni ed è possibile vitalizzare di nuovo certe aree. I dati raccolti non sono abbastanza “big” e le nostre interpretazioni non sono tanto profonde da permetterci di influire su processi astronomici e planetari.
La ICT ci permette di comunicare efficacemente messaggi personalizzati, di rendere disponibili informazioni e dati ovunque (anche a chi viaggia) e in ogni momento. Consente di distribuire certe prestazioni intelligenti nell’ambiente. Permette di controllare e regolare macchine e sistemi e secondo criteri prestabiliti. Però queste prestazioni non si devono considerare come l’obiettivo finale della società e di ciascuno di noi. Il mondo non è migliore se tutti hanno un telefono cellulare – e ci fanno chiacchiere da niente. O se tanti guardano alla TV programmi penosi. O se leggono giornali che parlano di chi si mette d’accordo con chi – per fare niente. O se ascoltano la radio che invita a comprare cibi, medicine e viaggi in luoghi che si vedono fuggevolmente e presto dimenticati
Non esiste un obiettivo finale valido per tutti. Definivano e imponevano obiettivi insensati, certi dittatori che fecero brutte fini. La Dichiarazione di Indipendenza del 1776 definiva la verità evidente che gli uomini hanno diritti inalienabili, fra cui vita, libertà e ricerca della felicità e che i governi sono istituiti per assicurarli. Va aggiunto il diritto a conoscenza, informazioni, dati, mobilità. Però è arduo definire concretamente modi e regole. È inevitabile procedere per tentativi, ma spesso si sbaglia: gli errori sono evidenti e non vengono riconosciuti, né corretti.
Le auto avrebbero dovuto darci il diritto alla mobilità. Nelle nostre città le teniamo quasi tutte ferme in modo che bloccano le strade e rallentano gli spostamenti. Le leggi dovrebbero regolare la vita associata in modo equo e razionale. Invece i legislatori continuano a fare leggi prive di senso, che fanno perdere tempo e sprecare risorse. La finanza e l’economia dovrebbero distribuire le risorse ed evitare strapotere e rapine da parte dei potenti. Favoriscono spesso le bolle e l’ingiustizia. Si risparmia energia stabilendo tariffe in tempo reale, informando gli utenti su cosa sia la potenza e su quanta potenza assorba la rete in ogni istante.
L’obiettivo importante dovrebbe essere: diffondere conoscenza – aumentare il numero delle persone che capiscono. Non si raggiunge certo elaborando dati a velocità sempre più alta (ovunque e in ogni momento) se i criteri sono sbagliati o anche solo fatti di parole vaghe.
Piani e progetti dovrebbero essere espliciti. Si crea lavoro non con qualche ritocco fiscale, ma inventando nuovi settori industriali e insegnandone ai giovani teoria e pratica. Le scuole non vanno riformate con innumeri regolette burocratiche, ma allargando e approfondendo conoscenza. Il mondo non è fatto solo di regole, leggi, moduli, certificati. È fatto di macchine, sistemi, fiumi, strade, mari, animali, alberi, radiazioni, misure, teorie, tecniche, ricerca, scienza.
Di queste cose non si parla. Un settimanale a larga tiratura di ieri ha una sezione SCIENZE che contiene titoli come: “La dieta mediterranea combatte l’acne” – “Ora si fa l’autostop online” – “APP Vademecum come viaggiare con il cane” – “Mangiare yogurt fa calare l’ansia” – “Così l’olio di oliva è amico del cervello”. Non è scienza, ma cronaca misera.
Invece – ricordate? – “fatti non foste a viver come bruti”.



°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°


articolo del 2 marzo 2012

Renato Dulbecco: capire le sue scoperte per vivere meglio – di Roberto Vacca, Il Mattino, 21 febbraio 2012
Necrologi e commemorazioni ci ricordano quanto dobbiamo a Dulbecco. Solo pochi di noi – non specialisti – ricordavano di aver letto qualche notizia sui suoi successi. Nel 1955 aveva studiato un mutante del virus della polio, il che aiutò Sabin a produrre il vaccino che evitò quel male tremendo a migliaia di persone.
Negli anni seguenti aveva studiato il virus che causa l’Herpes Zoster (il fuoco di Sant’Antonio) Quindi aveva analizzato geni virali che attivano i geni cellulari responsabili della moltiplicazione cellulare e possono essere responsabili dell’inizio di processi cancerosi. È per i successi ottenuti in queste ricerche che gli fu conferito il premio Nobel per la medicina nel 1975.
Nel 1968 lanciò il progetto Genoma che fu portato a conclusione in America individuando l’intero patrimonio del DNA umano. In quell’anno scriveva su Scienze
“…la possibilità di avere una visione completa e globale del nostro DNA ci aiuterà a comprendere le influenze genetiche e non genetiche sul nostro sviluppo, la nostra storia come specie e come combattere le malattie genetiche e il cancro”.
Questa anticipazione si sta cominciando ad avverare. Percepiamo Dulbecco come un uomo superiore e un benefattore dell’umanità. Dovremmo vederlo anche come un modello, un campione di umanità: laureato in medicina si laureò anche in fisica a 37 anni – prima di trasferirsi negli Stati Uniti. È triste che fra i migliori scienziati italiani molti abbiano dovuto andare in America. Ne conosco personalmente parecchi. La loro decisione non deve essere certo interpretata come segno di egoismo. Si sono complicati la vita privata – e lo hanno fatto perchè sentivano il dovere di trasferire le loro doti (acquisite con fatica – non certo innate) in un ambiente favorevole in cui potessero fiorire e produrre risultati eccezionali. Non si tratta solo di avere più soldi, per guadagno personale e per finanziare ricerche costose, ma di interagire con altri studiosi di altissimo livello – che sono presenti anche da noi, ma in numero minore.
Detto questo, chiediamoci :”Come riassumere le scoperte di Dulbecco?”
Dobbiamo rispondere: “Non ha debellato il cancro. Nessuno lo ha fatto ancora. Però ha capito e scoperto processi, la conoscenza dei quali risulterà vitale per prevenire e curare i tumori.”
Per capirlo meglio, dobbiamo riflettere che il cancro non è una sola malattia. Sono tante e non tutte virali. I successi di Dulbecco cominciano a rendere possibili vaccini per evitare certe forme tumorali. La cosa riguarda tutti noi. Dobbiamo capire e far capire agli altri che i suoi studi e le sue ricerche servono contro i tumori di origine virale. Dobbiamo anche ricordare che ci sono grossi fattori concomitanti che rendono i timori molto più probabili. L’impatto dell’amianto sul cancro al polmone fu accertato nel 1966 (da Irving Selikoff). Le statistiche non possono essere molto precise, ma il 35% delle morti per cancro è causato (favorito? quanto?) dal fumo, il 16% dall’alcol e il 5% dall’obesità. Dovrebbero essere ovvie le decisioni che dovremmo prendere subito per proteggerci, ma molti di noi non ci pensano nemmeno. Dulbecco, sì: oltre a ricercare e sperimentare dichiarava spesso in pubblico che bisogna lasciare il fumo e limitare molto l’alcol – lo fece anche al Festival di San Remo del 1999 (forse partecipò proprio per lanciare quel messaggio).
Le sue ricerche sui virus tumorali riguardavano un “antigene T” e i suoi meccanismi complicati. Per noi sono solo parole. Dovremmo darci da fare per capire che cosa significano. Non si tratta solo di fare campagne contro il fumo e di denunciare la vergogna che esista ancora il Monopolio Tabacchi. Dovremmo anche scrivere e dire ai politici che ci rappresentano – e ai capi delle aziende - che la salvezza della nostra salute (e anche quella da minacce future che ancora immaginiamo solo vagamente) esige che vengano almeno raddoppiati gli investimenti in ricerca scientifica.
Attualmente in Italia muoiono di cancro 175.000 persone all’anno (sono un terzo del totale). Ogni anno il numero dei morti di tumore aumenta di mille unità: miriamo a 200.000. Parliamo di cose serie. Commemoriamo Dulbecco, ma ripetiamo che ci vogliono 10, 100, 1000 Dulbecco.

Roberto Vacca


°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°



articolo inserito il 19 gennaio 2012


I DOGMI CATTOLICI E LA SCIENZA
di Franco De Rossi

E’ noto a tutti che la scienza potrà modificare le religioni, ma non potrà mai a sostituirle perché soltanto una religione riuscirà a sostituire una religione. Quando la scienza mette con le spalle al muro i Sacri Testi, gli esperti di materie religiose trovano subito delle scappatoie teologiche. Ecco un elenco parziale di queste “scappatoie”: gli interpreti della Bibbia ritenevano che il mondo fosse stato creato cinquemila anni fa, però i geologi hanno dimostrato che il nostro pianeta ha oltre 4 miliardi di anni; il vecchio Testamento parla di un diluvio universale e dell’Arca di Noè, oggi sappiamo che non era possibile imbarcare nell’Arca neanche un centesimo delle specie animali terrestri esistenti; la Santa Sede costrinse all’abiura Galileo perché affermava che la terra girava attorno al sole (la Chiesa ha dovuto adeguarsi alla scienza di Galileo); i teologi sostengono che l’uomo è nato per soffrire a causa del peccato originale. E’ una concezione assurda e primitiva: un Dio buono non può punire l’umanità perché due individui hanno disobbedito. L’evoluzione darwiniana è ormai accettata anche dalla Santa Sede, ma è temperata dal “disegno intelligente”. Perciò ieri, contro la scienza, si negava l’evoluzione, oggi si ritiene che il processo evolutivo l’abbia voluto Dio. Un Dio che misura il tempo con un criterio deverso dal nostro, affermano i teologi. Insomma la scienza distrugge molti miti biblici, ma i teologi li fanno rinascere con diverse giustificazioni.



°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°



articolo del 7 ottobre 2011


Rischi, incidenti: percezione, previsione, calcolo

Roberto VACCA – Trento 4 Ottobre 2011


L’espressione “rischio calcolato” è quasi sempre fuorviante. Gli esseri umani non addestrati in modo mirato, non sanno calcolare i rischi che corrono. Sanno che è pericoloso guidare auto ad alta velocità, mangiare, bere, fumare troppo – ma molti continuano a farlo e muoiono in incidenti o di malattie cardio-vascolari o di cancro.
Per calcolare probabilità (e rischi) è necessario conoscere i meccanismi e situazioni relative (scelta casuale di x palle nere su y bianche [totale = x+y], numero, posizione, velocità oggetti in un certo volume). Se non conosco meccanismi, uso frequenze e le considero uguali alle probabilità. È un’analisi empirica e: permette di stimare medie, NON destini individuali. In un reperto biologico morto il C14 si dimezza ogni 5730 anni, ma non so quali atomi degradano a N14 – solo quanti. Il meccanismo è noto ma la previsione è stocastica. La previsione stocastica di fenomeni in cui i meccanismi non sono noti permette di fare previsioni empiriche e stimare probabilità e rischi. Il decorso va monitorato per correggere la regola empirica valida per un certo tempo.
Rischi di eventi negativi futuri caratterizzati da frequenza alta in passato che viene usata come approssimazione delle probabilità futura (es. morti in incidenti stradali in molti paesi avevano frequenza di 25 su 100.000/anno e 25 era considerato numero magico [invece nel 2008 morti annuali/10 abit. – Italia 8,8 – Francia 7,7 - Germania 6,2 – UK 5,4 – Svezia 4,9], incidenti aerei [EU27 morti 2006: 4, 2007:3], per caduta, per omicidio, suicidio). Misure per diminuirli e monitorarli.
Epidemie: il decorso si analizza con equazioni di Volterra (e se ne prevede il decorso – anche se il fenomeno è mal definito. Numero morti cancro in Italia segue equazione Volterra dal 1944, sebbene il cancro non sia UNA malattia epidemica) – una volta iniziato il processo (i parametri sono incogniti:occorre monitoraggio evtl.con procedura divisata nel 2000 da E. Kilbourne per H1N1).
Rischi sovrastimati
riscaldamento globale (non è antropico: ha cause astronomiche);
perdita biodiversità (è scarsa: quelle forti avvennero 65 e 250 M anni fa);
mancato uso principio precauzione (se Pasteur l’avesse applicato, non avremmo vaccini)
inquinamento atmosferico (diminuisce sec.dati APAT)
elettrosmog – non esiste
sovrapopolazione: non esponenziale (asintoto 10,8 G sec. equaz. di Volterra (v.grafico pag.seg.), secondo The Economist 31/10/09 = 9 G (2050) per fertilità abbassata nel 3° Mondo)
Rischi sottostimati
scoppio 12.000 testate nucleari (per errore o per reazione incontrollata) QUI ci vuole principio precauzione;
incompetenza che porta a ingovernabilità grandi sistemi (software non trasparente);
controllo sociale delle innovazioni:è necessario, ma viene fatto in modi disastrosi
(eventuale) - Rischi trascurati: peso corporeo eccessivo, scarso tono muscolare (consigliata produzione alcune decine di Wh)


Crescita della complessità
I grandi sistemi tecnologici, le strutture sociali, le aziende sono minacciati da disastri naturali, violenza e fragilità intrinseca dovuta a difetti di progetto e di gestione. Occorre - dopo il fatto - gestire le emergenze, ricostruire, ricuperare lo status quo. La complessità enorme e crescente rende difficile progettare la sicurezza nei sistemi prevedendo ogni condizione futura di funzionamento. La sfida tecnica e teorica è appassionante. Sarebbe vitale accettarla e vincerla, ma non abbiamo soluzioni da manuale: occorre inventarle.
Vanno integrati i progetti dei vari sistemi valutando i rischi di ciascuno e la loro trasmissione tra aree fisiche e settori. Vanno addestrati utenti e operatori a riconoscere emergenze impreviste e a reagire adeguatamente. Vanno ottimizzate le comunicazioni per ottenere monitoraggio e controllo intersistemico; e va reso trasparente il software di controllo onde distinguere se i guasti hanno origine nello hardware, nei canali di comunicazione o nel software. A tal fine va analizzata la storia di tutti i blackout, le crisi sistemiche, le emergenze dovute ad atti terroristici e vandalici. Su questa base vanno formulati scenari quantitativi dettagliati. Vanno sviluppati, analizzati criticamente e validati modelli matematici dell’interdipendenza fra sistemi e della proliferazione di guasti, emergenze e interruzioni dei servizi. E’ compito arduo e critico: alcune variabili non sono note o si presentano in modo casuale. I meccanismi possono essere arguiti, non calcolati.
Andrebbe creata una rete internazionale di esperti che cooperino integrando competenze e approcci per aumentare sicurezza e resilienza dei sistemi e delle infrastrutture complesse: Vanno realizzate sinergie e fertilizzazioni incrociate fra varie discipline nel quadro di un programma comune di ricerca e sviluppo cui partecipino Stati Uniti, Europa e le comunità scientifiche e tecniche che fioriscono in Oriente. Questi interventi sono più urgenti n Italia: i nostri investimenti pubblici e privati in ricerca e sviluppo sono cronicamente minimi. Analizzare e prevedere i rischi sistemici è vitale, ma questa attività non è considerata prioritaria dai decisori privati e pubblici.

L'ingegneria dei rischi
Taluno sostiene che andrebbe azzerato ogni rischio. È questo un sintomo grave dell'ignoranza diffusa sui rischi e sui modi per difendersene. Così proponendo un fine impossibile, si disinforma il pubblico, mentre, invece, la sicurezza sta aumentando di continuo in quasi ogni settore. Sono note le procedure per istituire bilanci costi/benefici. Lo scopo è determinare se la somma di risparmi effettuati, utili prodotti e vantaggi sperati costituisca un elemento globale positivo di entità maggiore dei costi di un' opera. Tipicamente i bilanci costi/benefici servono a valutare l'opportunità di realizzare opere pubbliche. Li calcolano anche le aziende manifatturiere per decidere se un investimento in nuovi macchinari o stabilimenti sia remunerativo in termini di aumentata produzione e diminuzione di costi. È bene istituire anche bilanci rischi/benefici. I benefici si quantificano in termini di assorbimento di overhead e utile prodotto. I rischi si valutano come prodotto del danno per la probabilità che si verifichi. Il danno è definito come l' onere che un' azienda sopporta per risarcire clienti o terzi che hanno subito traumi, menomazioni o danni alle cose a causa di malfunzione di prodotti dell' azienda. Certo la malfunzione deve essere almeno colposa. Si deve dimostrare, cioè, che non è stata resa impossibile, mentre avrebbe potuto esserlo. L'entità massima del danno si può prevedere in casi semplici, ad esempio in base all' energia totale che può essere rilasciata in tempi brevi: dalla conflagrazione di combustibili immagazzinati o trasportati, dalla fuoriuscita di acqua contenuta in un bacino, dall'energia cinetica di masse in moto (veicoli) in caso di collisioni.
Però l'energia (meccanica o elettrica) che basta a uccidere un uomo è di minime frazioni di Wattora: dunque i meccanismi di rischio sono più importanti delle quantità in gioco. Spesso l' entità del danno è imprevedibile, specie se esso accade a causa di impieghi del prodotto non previsti o sconsigliati dal fabbricante. Oltre ai danni da risarcire, si verificano danni (non quantificabili) all' immagine dell'azienda e danni (quantificabili) dovuti al calo delle vendite per la diminuita fiducia del pubblico.
Una procedura per determinare il rapporto rischi/benefici si configura nei passi seguenti:
trascurare i rischi minimi (su cui v. la sezione seguente)
analizzare le frequenze dei rischi significativi basandosi su serie storiche, valutare gli oneri relativi e registrare il valore corrispondente R1
eseguire analisi dei dati tecnici ed economici per valutare risch finora non verificatisi o su cui non si abbiano statistiche; tale valutazione definisce un onere R2 affetto da incertezza i
la somma R1 + R2 + i si confronta coi benefici derivanti da produzione, diffusione e vendita del prodotto o servizio.
valutazione di costi ulteriori (che diminuiscono il beneficio) e di provvedimenti volti a diminuire i rischi
valutazione di elementi non quantificabili
decisione.
Uno studio rischi/benefici deve essere equilibrato. Non ha senso analizzare in dettaglio rischi correnti e meglio noti e trascurare classi di rischio più difficili da valutare, come i sabotaggi.

Frequenza di incidenti letali e sua tendenza
Una regola empirica suggerisce di non considerare rischi di morte nella popolazione di un paese che siano inferiori a una morte/anno per ogni milione di abitanti, nè rischi occupazionali inferiore a una morte/anno per ogni 100.000 lavoratori. Per l'Italia queste cifre sono rispettivamente 57 e 200. Per confronto ricordiamo che in Italia (2009) ogni anno muoiono circa 5.000 persone in incidenti di traffico, circa 12.000 per cadute, 200 di AIDS e 165.000 di cancro. Per accumulare una probabilità di morte di uno su un milione è necessario, quindi, un tempo di 4 giorni per incidenti di traffico e 1,7 per cadute. Questo tempo cresce a 2 mesi per l' elettrocuzione, a 2 anni per la morte causata dal fulmine e 4 anni per la morte causata dalla puntura o dal morso di un animale.
Il pubblico capisce poco i rischi. Esempio: i viaggi in auto sono più pericolosi di quelli in aereo. In Italia dal 1972 al 2008 il numero di morti in incidenti di traffico è calato del 65% (nel '72 i morti erano 14.000). Anche i decisori aziendali e pubblici capiscono poco i rischi. Pochi sanno calcolare la probabilità di morire volando 100.000 volte e supponendo che in ogni volo la probabilità sia 1 su 100.000. (È solo il 63,2% = 1 - 0,99999 alla centomillesima potenza).
La percezione soggettiva dei rischi rispecchia realtà distorte. Si investono cifre enormi per ridurre rischi già bassi, come quello delle radiazioni nucleari in centrali e centri di ricerca. Si investono cifre alte per ridurre le morti in incidenti stradali. Si investe poco contro il cancro e nulla per evitare le morti dovute a cadute. I rischi industriali calano rapidamente, ma non lo si nota proprio perchè sono bassi e continuano a ridursi.
Nel 1968 in Giappone si schermografarono 40 milioni di persone per diagnosticare tubercolosi e cancro. Furono scoperti 44.400 casi di tubercolosi (di cui 38.600 curati con successo) e 3.000 casi di cancro (750 curati con successo). Ogni persona schermografata assorbiva 35 millirad. Ogni rad assorbito dai cittadini di Hiroshima causò 1,7 leucemie o cancro all'anno per milione di abitanti. Dunque nei 25 anni seguenti probabilmente 59 individui avrebbero contratto leucemia o cancro (1.7 . 40 . 25 . 0,035). Si è calcolato poi che 150 discendenti degli schermografati sarebbero morti per cause genetiche risalenti all'irradiazione. Il programma avrebbe causato 209 morti salvandone 39.350 - 188 volte di più. In base a calcoli simili il disastro di Chernobyl sta avrebbe causato in Italia circa 60 morti all'anno per 20 anni. Non si notano affatto sullo sfondo degli attuali 1650.000 morti all'anno di cancro. In Ucraina e nei paesi circostanti i morti arriveranno a circa 50.000. In Europa orientale ci sono 98 reattori poco sicuri simili a quello di Chernobyl. Le modifiche per renderli sicuri costerebbero circa 50 G€. Se servissero a salvare 5 milioni di vite, ciascuna vita costerebbe 10.000 €!
I rischi sistemici più complessi (blocchi dei sistemi di trasporto, energia, comunicazioni) sono difficili da valutare e neutralizzare.

Diagrammi ad albero (event tree)
Le conseguenze di malfunzioni possono essere classificate in 4 categorie:

trascurabili, che non causano danni a persone, nè a cose
marginali, che causano danni a persone o cose in mancanza di azioni correttive
critiche, che causano danni a cose e anche o eventi letali o distruttivi, in mancanza di azioni correttive
catastrofiche, che causano morte a persone o enormi distruzioni di prodotti.
Per determinare le probabilità di eventi che conducano a tali tipi di conseguenze, si costruiscono diagrammi ad albero di eventi. Ogni albero parte da un segmento relativo a una componente di un sistema tecnologico oppure a una delle variabili caratteristiche del sistema stesso. Il primo segmento si biforca secondo due sole possibilità. Ad esempio: funzionamento corretto/errato, oppure valore della variabile sotto/sopra una data soglia. Si continua, quindi, con segmenti orizzontali che si biforcano in corrispondenza ad altre eventualità conseguenti alla prima. Si tratterà di comportamenti corretti o errati di ulteriori componenti, produzioni di allarmi ed, eventualmente, azioni di operatori umani. Per seguire la successione di eventi da considerare si usano diagrammi a blocchi del sistema o diagrammi dei circuiti interni del sistema o di sue componenti.
Coi diagrammi ad albero schematizziamo situazioni di rischio e azioni di elementi che isolino sottosistemi guasti e proteggano un sistema. Qui ho solo illustrato il concetto: i diagrammi di impianti complessi coprono aree enormi di disegno e la loro redazione va affidata a specialisti (ad esempio individuati attraverso la Associazione Italiana Analisti di Affidabilità - Italia, 3AI).




Programmi aziendali per incrementare la sicurezza dei prodotti
La responsabilità della sicurezza non va demandata genericamente all'ufficio progetti o alla manutenzione. Occorre definire esplicitamente la politica aziendale della sicurezza. La direzione definirà e diffonderà a ogni livello i principi necessari a realizzare prodotti sicuri e a conservarne la sicurezza mediante manutenzione adeguata. I progettisti applicheranno le tecniche di progetto per il caso peggiore e i diagrammi ad albero sopra citati. Nelle aziende più grandi va ingaggiato un ingegnere della sicurezza specializzato che dovrà:

tenersi aggiornato sui progressi della disciplina
controllare che progettisti e produzione aderiscano ai criteri fissati dalla direzione
fornire consulenza a tutti i reparti dell' azienda
mantenere contatti con gli uffici degli enti che fissano le norme di sicurezza
indagare su guasti e inconvenienti che abbiano prodotto o rischiato di produrre danni.

Ciò serve anche a sapere in quanti e quali modi gli utenti impiegano i prodotti dell'azienda fuori specifiche o a fini diversi da quelli per cui erano stati progettati. La produzione e il controllo di qualità devono garantire che le prescrizioni di progettisti e ingegneri della sicurezza si adottino in pratica. Il marketing curerà che targhette, involucri, manuali di istruzioni, pubblicità diano informazioni corrette e indicanti come impiegare i prodotti in sicurezza. I manutentori svolgeranno funzioni vitali di raccolta dati sulle condizioni nel campo e sui comportamenti degli utenti finali. Tale feedback è vitale per i progettisti. È poi vitale la posizione della direzione. Addetti a produzione o controllo qualità cui si ordini di trasgredire norme interne o di legge sono indotti a trascurare da allora qualità o sicurezza. Potranno essere perseguiti penalmente e magari costretti a odiose chiamate di correo.

Prove generali di strategie anticatastrofe
Quando una catastrofe danneggia anche i sistemi, le strutture e le organizzazioni che dovrebbero fornire i rimedi, la situazione è critica. Nel 2006 è stata analizzata in una simulazione (nome in codice Strong Angel 3) durata una settimana (24 ore al giorno) all’Università di San Diego, California. L’obiettivo era: integrare idee e procedure di intervento generate da gruppi diversi per individuare le migliori e ottimizzarle controllando la compatibilità mutua di sistemi standard, di altri nuovi e di quelli improvvisati. Hanno partecipato 600 persone coordinate dal Comandante Eric Rasmussen, chirurgo dalla Marina USA, già attivo a gestire disastri in Bosnia, Sudan, Kuweit, Iraq, Banda Aceh (tsunami di Sumatra), New Orleans (uragano Katrina). Per riportare alla normalità una popolazione, occorre conoscere dove e quando abbiano colpito la violenza, l’epidemia o il sisma - poi bisogna andarci. Quindi comunicazioni e trasporti efficienti sono vitali. Solo dopo si può intervenire con interventi armati o cure o evacuazioni o ricostruzioni.
L’iniziativa mirava a divisare modi per facilitare la cooperazione organizzativa e tecnica, anche internazionale, fra militari e civili. L’ONU ha un ente (UNDAC) di assistenza e coordinazione degli aiuti in caso di grandi disastri, che dispone di risorse scarsissime. Strong Angel 3, il terzo esercizio di questo tipo dopo quelli del 2000 e del 2004, era volontario, non finanziato da governi, ma appoggiato da militari, civili, aziende, università. Fra queste: Bell Canada, Boeing, Care International, Cisco Systems, General Electric, General Atomics, General Motors, Georgia Institute of Technology, Google, Harvard University, IBM, Intel, Microsoft, Sahana Foundation, Università di San Diego, Sony Electronics, US Joint Forces Command.
Lo scenario proposto a San Diego era: “Insorge una pandemia supervirale incurabile e dalla California si diffonde largamente. Il grande numero di lavoratori colpiti degrada le attività sociali e il funzionamento dei sistemi urbani. I terroristi colgono l’occasione per effettuare gravi attentati sia fisici, sia cybercriminali”.
Gruppi di partecipanti erano messi in condizioni di emergenza: dovevano rinunciare ai normali supporti statali, considerare inagibili certe strade, infrastrutture, reti elettriche e telefoniche: Ricevevano informazioni e comandi di missioni da compiere e dovevano cercare di collaborare con altri usando mezzi di fortuna: radioamatori, sms, wi-fi, cellulari, volontari. Un comitato centrale diramava ordini di intervenire con personale medico, mettere aree in quarantena, trasportare persone o derrate, accedere a reti LAN o WAN basate su protocolli inaspettati, trasmettere notizie e richieste a unità militari o assistenziali. Il comitato registrava gli eventi e valutava l’entità dei successi conseguiti.
I primi compiti assegnati alla task force Strong Angel erano: ristabilire disponibilità anche parziale di alimentazione elettrica e di comunicazioni e assicurare collegamenti operativi efficaci fra comandi militari e civili. Altri compiti prioritari erano: ottimizzare il sistema di comunicazioni dopo avere analizzato tipo e dislocazione delle risorse disponibili; identificare origine, gravità e interventi risolutivi delle emergenze sistemiche e comunicare i risultati al pubblico in modo chiaro e positivo; rilevare e analizzare le emergenze più gravi e trasmettere le informazioni alle squadre di soccorso, valutare i contenuti delle informazioni per eliminare leggende metropolitane e corroborare, invece, i dati più affidabili; intervenire in tempo reale per neutralizzare eventuali cyber-reati intesi a paralizzare le reti telematiche.
La simulazione ha avuto successo nell’improvvisare canali di comunicazione (specie via Internet) efficaci anche fra grosse aziende che normalmente sono in acre concorrenza. Pare che siano stati definiti nuovi criteri avanzati relativi alla ridondanza, alla sicurezza di reti elettriche e telematiche e infrastrutture, all’uso di satelliti e di sistemi informativi geospaziali (GIS) e alla valutazione in tempo reale della qualità delle azioni in corso..
Stranamente nella documentazione in rete (vedi www.strongangel3.org) non trovo riferimenti all’importante Workshop internazionale dell’ENEA su “Protezione di Grandi Reti Complesse e Infrastrutture” tenuto a Roma il 28/3/2006 (vedi: http://ciip.casaccia.enea.it/cnip06/).. In quel Convegno molti esperti internazionali presentarono studi e analisi interdisciplinari per definire progetti e strategie gestionali di grandi reti (energia, trasporti, comunicazioni) atte a renderle meno vulnerabili in caso di emergenze dovute alla interdipendenza sempre più stretta fra sistemi e alla proliferazione della loro complessità. Tali emergenze potrebbero bloccare i grandi sistemi tecnologici in aree vaste (continenti) impedendo ogni soccorso alle catastrofi in aree limitate su cui si è concentrata la simulazione di San Diego.
Strong Angel (strano nome: preso forse dal libro X dell’Apocalisse?) ha riaffermato infine il bisogno (ovvio!) di stabilire rapporti sociali e umani (oltre che professionali) positivi fra i partecipanti e con persone scelte a simulare la popolazione stressata dall’emergenza. A questo proposito utili insegnamenti sono stati tratti dalle inefficienze in qualche caso clamorose nei modi in cui gli aiuti forniti dall’estero sono stati utilizzati in occasione dell’uragano Katrina a New Orleans.

Giappone: rischiosa la rete elettrica non intelligente, 4 Aprile 2011
Taluno ha detto: “Il nucleare è troppo rischioso, perché ha prodotto un disastro tremendo perfino in Giappone - il Paese che usa alta tecnologia di qualità eccellente. Figurarsi che accadrebbe in Italia col nostro pressappochismo.”
Non è un ragionamento sensato. Alti livelli di sicurezza si garantiscono elaborando alberi di eventi (per analizzare le conseguenze di ogni possibile rischio). Si assicurano anche costruendo sistemi ridondanti: in caso di guasto ogni funzione è svolta da altre unità, per altre vie – si chiama ridondanza. Ma in Giappone è inaffidabile proprio la rete elettrica. Fu creata nel 1896 già suddivisa in due parti, quando aziende elettriche delle regioni orientali importarono apparati Siemens (funzionanti a corrente alternata a 50 Hertz, cioè 50 cicli al secondo) e altre nelle regioni occidentali ne importarono da Westinghouse e General Electric (funzionanti a 60 Hertz). Le due reti hanno dimensioni poco diverse e sono restate separate e incompatibili per 115 anni – fino a oggi. Quindi le centrali dell'Ovest, non coinvolte nel recente disastro, non potevano e non possono essere collegate per alimentare utenze dell'Est. In mezzo c'è una centrale di conversione di frequenza, ma la potenza massima che può trasformare da 60 a 50 Hertz è meno di un GigaWatt (un milione di kiloWatt) cioè la metà dell’uno per cento della potenza totale. Questa può produrre 80 GigaWatt nella parte Est e 120 GigaWatt nella parte Ovest. La situazione è documentata nella letteratura tecnica e, naturalmente, su Web, la rete Internet e anche su Wikipedia.
È una situazione assurda: molti elettrotecnici italiani non riescono a credere che i giapponesi l’abbiano ereditata tranquillamente. Ai tempi antichi in Italia esistevano piccole reti a 42 Hertz, ma si allinearono sui 50 Hertz come il resto d’Europa. Gli anziani ricordano che le linee ferroviarie liguri-piemontesi furono costruite nel 1925 (e funzionarono fino alla guerra) in corrente trifase (3000 Volt, 16 2/3 Hertz). Dopo la guerra tutte le ferrovie italiane usarono corrente continua a 3000 Volt – standard unico. I giapponesi portano un ritardo di oltre 60 anni. Fare energia nucleare o solo gestire l’energia di un paese in queste condizioni è rischioso – e rallenterà la ripresa dopo il disastro dell’11 Marzo 2011.
La gestione di grandi sistemi tecnologici non è una scienza esatta. Si giova anche di principi semplici che chiunque può capire. I giapponesi hanno vantato la teoria e la pratica del kaizen – tendenza al miglioramento continuo: operare ogni giorno meglio del giorno prima, innalzando la qualità, la sicurezza, la funzionalità, la semplicità di ogni impianto, di ogni fabbrica, di ogni prodotto. Ai lavoratori giapponesi si insegna a tenere note delle proprie esperienze e a comportarsi come piccoli scienziati. L’impegno personale non basta: lavoratori e operai si organizzano, allora, in “circoli di qualità” per discutere problemi e cercare soluzioni nuove. Teoria e pratica della gestione totale di qualità furono introdotte in Giappone dopo la guerra da famosi esperti americani (Baldridge, Juran). Si parlava di “difetti zero” – e a ragione. La perfezione di prodotti nipponici divenne proverbiale. Però hanno trascurato questi sani principi proprio nel settore dell’energia elettrica, in cui la rete rappresenta una ricchezza enorme. Rende disponibile l’energia ovunque sia richiesta e ovunque sia generata – ma in Giappone no. Il principio del Kaizen è stato disatteso anche nelle centrali nucleari di Fukushima. Furono costruite 40 anni fa: per modernizzarle: non era disponibile un giorno solo, ma 14.600 (= 40 x 365). Invece sono rimaste alla tecnologia di mezzo secolo fa. Nei progetti moderni la sicurezza deve essere intrinseca: gli interventi di raffreddamento non sono affidati a circuiti di controllo che fanno partire motori, ma a fenomeni naturali come la dilatazione di metalli e la forza di gravità. Piccoli reattori nucleari a sicurezza intrinseca sono stati progettati (ma non costruiti) anche a Roma. L’eccellenza della qualità non può essere solo vantata: va progettata, realizzata e controllata.

I fisici USA si ravvedono: il riscaldamento globale non è antropogenico,
I rovinografi che vaticinavano un forte ed esiziale riscaldamento globale causato dall’uomo, sono stati presi con le mani nel sacco. A novembre uno hacker ha pubblicato e-mail fra P. Jones (Climatic Research Unit britannico) e M.E. Mann (Penn State University), in cui discutevano trucchi statistici per negare l’esistenza del periodo caldo medioevale e nascondere misure recenti di temperature calanti che contraddicevano i drammatici aumenti menzionati nei loro articoli. Si accordavano anche su come evitare che note riviste scientifiche pubblicassero lavori di scienziati che non condividevano la loro fede nell’esistenza di un surriscaldamento antropogenico dell’atmosfera.
L’Istituto russo di Analisi Economiche (IAE) ai primi di dicembre (v. “Rionovosta” su Google) ha denunciato che il Centro Hadley sui Cambiamenti Climatici, facente parte dell’Ufficio Meteo Britannico a Exeter, ha eliminato dalle sue basi dati fra il 60% e il 75% dei rilevamenti ricevuti dalle stazioni meteo russe. Secondo IAE, il Centro Hadley ha eliminato i dati che non indicavano aumenti di temperatura, riportando solo quelli provenienti da grandi zone cittadine influenzate da riscaldamento urbano. Il 20 dicembre 2009 il Daily Telegraph di Londra ha pubblicato un servizio sulla fortuna accumulata da Rajendra Pachauri, presidente dell’IPCC, mediante i suoi traffici con le aziende attive nel carbon trading, il commercio di crediti per l’emissione di anidride carbonica. Ironia della sorte: i catastrofisti climatici hanno accusato (senza addurre prove) scienziati critici delle loro posizioni di essere pagati dai petrolieri; invece proprio Pachauri, il loro capo, è stato direttore di India Oil, la più grossa azienda indiana, e della National Thermal Power Generating Company. Pachauri (descritto come un guru del clima) invece è ingegnere ferroviario e ha una laurea in economia. Dal 2001 dirige il Tata Energy Research Institute (TERI) del Gruppo Tata che produce acciaio, auto, energia, telecomunicazioni e ha comprato fra l’altro Jaguar e Land Rover. TERI ha una filiale a Washington che conduce attività di lobbying su questioni di energia e ambiente e ha ottenuto contratti per rimettere a posto i disastri lasciati da Saddam durante l’invasione del Kuweit. TERI Europe gestisce un progetto sulle bio-energie, finanziato dall’Unione Europea. La TERI non pubblica bilanci: le entrate di Pachauri sono segrete.
La Tata è attiva nel carbon trading. Pachauri ha incarichi anche da altri enti e aziende che traggono benefici dalle misure invocate dall’IPCC. Fra questi: ONU, Siderian (finanziaria californiana specializzata in tecnologie sostenibili), Credit Suisse, Rockefeller Foundation, Pegasus (fondi di investimento), Nordic Glitnir Bank, Indochina Sustainable Infrastructure Fund, Climate and Energy Institute dell’Università di Yale, Comitato di Consulenza Economica per il Presidente del Consiglio dei ministri indiano, Deutsche Bank, Istituto Giapponese per le Strategie Ambientali, SNCF (Ferrovie dello Stato francesi). Chi è interessato, potrebbe andare a lezione di Conflitto di Interessi.
La American Physical Society (APS) nel novembre 2007 aveva affermato: “L’emissione di gas serra dovuti ad attività umane modificano l’atmosfera e il clima terrestre. Le prove sono incontrovertibili. Il riscaldamento globale è in corso. La APS sollecita governi, università, laboratori ad appoggiare misure per ridurre l’emissione di gas serra.” Ora membri autorevoli dell’APS hanno proposto di rivedere quella dichiarazione riconoscendo che “… misure e ricostruzioni di temperature terrestri indicano che quelle del XX e XXI secolo non sono eccezionali né persistenti, che i dati storici e geologici mostrano che in periodi passati le temperature erano maggiori delle attuali. Inoltre la letteratura scientifica dimostra gli effetti benefici di un aumento dell’anidride carbonica sia per le piante, sia per gli animali.”
Questo ravvedimento dei fisici è tardivo. Erano già noti da tempo grafici della temperatura atmosferica degli ultimi 11 millenni elaborati dalla NOAA (National Oceanic and Atmospheric Administration). Il grafico seguente mostra gli aumenti della temperatura ogni 1000 anni rilevati dai carotaggi di ghiaccio nella Groenlandia centrale. La tabella riporta i valori più alti della velocità di crescita della temperatura, che sono simili e in due casi più che doppi di quello di circa mezzo grado per secolo verificatosi negli ultimi due secoli.
Il fisico danese H. Svensmark, dell’Istituto Danese di Ricerche Spaziali, nel suo The Chilling Stars – “Le stelle gelide” (Icon Books, 2007) attribuisce l’ aumento di 0,6°C della temperatura atmosferica nell’ultimo secolo alla diminuzione delle nuvole a bassa altitudine. Infatti cicli climatici di circa 1000 anni sono causati da variazioni del campo magnetico solare: se è forte, devia dalla Terra i raggi cosmici galattici per cui diminuisce la condensazione a bassa quota del vapore acqueo e la scarsità delle nuvole basse causa un aumento della temperatura.. Questo sta succedendo da qualche secolo (vedi grafico) e successe anche 1000 anni fa. Succede il contrario se il campo magnetico solare è debole: i raggi cosmici galattici sono forti e ci sono più nuvole a bassa quota: la temperatura si abbassa come accadde nella mini era glaciale fra il XIII e il XVII secolo. Svensmark e Marsh hanno calcolato che negli ultimi 100 anni la copertura di nuvole basse è diminuita dell’8,6% che corrisponde a un aumento dell’energia radiante del sole di 1,4 W/m. Curiosamente tale ammontare è uguale a quello stimato dall’Intergovernmental Panel on Climate Change (IPCC) come l’impatto causato dalla CO prodotta da attività umane dall’inizio della rivoluzione industriale. Tale stima, però, è basata sull’uso di modelli e non rispecchia adeguatamente gli effetti di altre fonti e assorbitori di CO (nei mari, nei depositi di torbe, etc.). La teoria di Svensmark sta trovando conferma dall’esperimento CLOUD in corso al CERN di Ginevra (con la collaborazione di un Consorzio formato da scienziati di 17 istituti di ricerca (in USA, UK, Russia, Danimarca, Germania, Finlandia, Austria, Norvegia) coordinati da Jasper Kirkby), simulando i raggi cosmici mediante raggi di particelle prodotti da un acceleratore. Il vapore acqueo in una camera si condensa marcatamente in presenza di raggi di particelle. La condensazione diminuisce molto quando i raggi sono deviati da un forte campo magnetico sopra la camera.
.


Anni prima del presente
Aumento medio temperatura °C/secolo
1000
0,3
3300
0,7
7000
1,07
8000
1,29

La bolla del riscaldamento globale antropogenico finalmente si sgonfia.




°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°


articolo del 29 settembre 2011


Ricerca + innovazione: se no, niente ripresa, di Roberto Vacca, 2/7/2011


L’economia italiana ristagna. Crescono scandinavi e tedeschi che da decenni investono 4 volte più di noi in ricerca e sviluppo. La crisi è grave. Non ne parla la destra - cui manca la cultura. Gli interventi per mirare e realizzare la ripresa non sono ancora al primo posto nei programmi della sinistra: dobbiamo metterceli.
La Commissione Europea classifica i 27 paesi dell’Unione in base all’innovazione espressa da un indice (fra 0 e 1), funzione di 24 indicatori (lauree, investimenti in ricerca, brevetti, % di imprese innovative, etc.). Il diagramma illustra la situazione: ci sono: 4 leader, 10 innovatori avanzati, 9 moderati e 4 modesti.


Fonte: Innovation Union Scoreboard 2010, www.proinno-europe.eu/metrics

La media europea è 0,53. La Svezia è a 0,75.. L'Italia a 0,42 - il 16° posto su 27, dopo Portogallo ed Estonia. Da noi gli investimenti pubblici in ricerca sono 0,58 % del PIL (0,77 della media europea) e quelli privati 0,65 % del PIL (0,52 della media). Non sono scarsi solo gli investimenti, ma la cultura. Solo il 19% degli italiani completa l’educazione terziaria. La media europea è 32 %, Francia 43 %, Irlanda 49 %.
Siamo nell’era dell’informazione, ma la misura del successo in base alla diffusione di PC, cellulari e altri gadget è piuttosto rozza. Attualmente cresce il divario fra alta tecnologia e cultura media. I supercomputer si usano per scopi banali. I decisori pubblici e privati non investono in ricerca e sviluppo, nè creano scuole eccellenti. I mass media propagandano tecnologia per scopi insulsi. Una rimonta tecnologica ed economica richiederà investimenti, risorse umane, immaginazione e controlli di qualità, ma non se ne vedono segni. È ora che quelle esigenze siano soddisfatte e non si discuta più su astrattezze.
In ogni settore dovremmo rinnovare strumenti e concetti efficaci per combattere il degrado culturale. Le carenze sono così palesi che spesso si propongono rimedi, purtroppo timidi e settoriali. È vitale, invece, definire traguardi:

definizione di settori, risorse, strumenti, su cui basare imprese innovative
progetto di aziende virtuali, costituite da ricercatori, scienziati, industriali
innovazioni che creino settori di attività già perseguiti all’estero
reperire risorse finanziarie e umane
creare studi e formazione avanzata entro le aziende.

In Italia c’è una università ogni 600.000 abitanti. Negli Stati Uniti ogni 100.000 abitanti, in Inghilterra ogni 200.000, in Francia ogni 230.000. Per iniziare una ripresa, l’industria italiana dovrà creare università, istituti di ricerca, politecnici. Invece si tagliano i finanziamenti pubblici a università e ricerca. In Francia il 2% dei professori universitari sono stranieri, nel UK 10,4 %, in USA 19%, a Singapore 47% - e, in questi paesi, è alta la percentuale di università eccellenti. Le università italiane, invece, non ingaggiano i migliori ovunque si trovino.
Innalzare la cultura generale, creare scuole avanzate, investire in ricerca e sviluppo evita il declino e produce resilienza. Invece le opinioni, credenze, ideologie più diffuse sono errate e modeste e il pubblico crede a catastrofismi e leggende metropolitane. A lungo termine occorre un'azione internazionale congiunta di aziende ad alta tecnologia per innalzare la cultura di intere popolazioni. Si alleino accademia, parlamento, industria per fornire al pubblico criteri di giudizio e modi di comunicazione efficaci.
In tutto il mondo si generano progressi continui cui si accede da Internet, ma il pubblico ne è escluso: giornali, radio, TV, comunicazioni sociali trattano argomenti volatili e non analizzano criticamente fatti importanti. Non siamo motivati a capire, partecipare. I mass media si usano per fini politici o interessi privati. Per eliminare tutto ciò ci vogliono tante conversioni a codici di equità e oggettività, oggi disprezzati. L’abbandono della ragione lascia spazio ad astrologia, parapsicologia, miracoli, visti come spiritosi atteggiamenti anche da certi intellettuali. La disinformazione porta alla rovina.
Il mondo è fatto di meccanismi naturali, struttura della materia, artifatti umani, processi sociali, politici ed economici. Questi sono gestiti o subìti dal pubblico in modi razionali, irrazionali, casuali. Per capirlo bisogna padroneggiare strumenti concettuali e tecnologici.
La capacità di concatenare problemi e soluzioni deve essere acquisita da tutti. La gestione di problemi sociali e politici non è una scienza. Usa anche principi semplici facili da comprendere. La gestione totale di qualità deve continuare a diffondersi nell’industria, ma anche pervadere società, scuole, processi decisionali, mass media. Solo chi investe forte in ricerca e sviluppo incrementa il PIL o non lo vede calare in tempo di crisi - gli altri no.



°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°


articolo del 13 marzo 2011


FISICI – PRECURSORI, FANTASIOSI O IMMORALI

di Roberto Vacca


I multiversi sono stati definiti come ipotetici insiemi di universi multipli coesistenti in diverse dimensioni dello spazio o a distanze enormi gli uni dagli altri. Ciascuno avrebbe, come il nostro, tre dimensioni spaziali (o forse di più) e una temporale. Sebbene noti fisici con ottime credenziali (Hawking, Bekenstein, Susskind) li considerino possibili e interessanti, non sono osservabili. Dunque non avrebbe senso parlarne, se non fosse in corso un’accesa polemica. Il serio giornalista scientifico John Horgan sostiene su Scientific American che quei fisici famosi sono immorali se perdono tempo a teorizzare su multiversi e stringhe. Queste sarebbero entità piccolissime (10 metri): a una dimensione, cento miliardi di miliardi di volte più piccole di un nucleo atomico. Neanche loro sono osservabili, ma taluno - ardito - sostiene che con la teoria delle stringhe si dimostra che i multiversi sono reali e che il nostro mondo ne è solo una proiezione olografica. Molti fisici (fra cui alcuni Nobel) dissentono: quella teoria non ha basi sperimentali. Altri fisici affermano di aver trovato basi inoppugnabili alla teoria. Fra questi c'è anche Edward Witten della Cornell University, che secondo alcuni (ma non secondo altri) è il più grande fisico vivente.
Horgan critica duramente il fisico Brian Greene, che ha appena pubblicato sull’argomento The Hidden Reality: Parallel Universes and the Deep Laws of the Cosmos, Knopf, 2011 (La realtà nascosta: Universi paralleli e le profonde leggi del cosmo). Una teoria dei multiversi fu esposta già nel 1957 da Hugh Everett. Un elettrone ha una probabilità p di emettere un fotone e una probabilità (1-p) di non emetterlo, ma un evento non escluderebbe l’altro: se nel nostro universo lo emette, subito si creerebbe un universo alternativo in cui non lo emette. Ogni processo subatomico soggetto alla elettrodinamica quantistica avrebbe l’effetto di sdoppiare l’universo – ne esisterebbero, quindi, moltissimi paralleli e poi in ciascuno avverrebbero cose diverse. L’elettrodinamica quantistica insegna che su scala subatomica la nostra logica non vale (ad esempio un effetto si può presentare prima della causa che lo produce), però, non nega il principio di non contraddizione. Un evento o si verifica o non si verifica – tertium non datur. Ma COME conosciamo i fatti?
La conoscenza del mondo fisico si basa su osservazioni di eventi e su deduzioni logico-sperimentali di regolarità o leggi. Conoscendole extrapoliamo da condizioni iniziali la traiettoria di un corpo macroscopico e ne prevediamo posizioni e velocità future. È un processo deterministico: ci permette, ad esempio, di calcolare esattamente il percorso di un’astronave. Non sono deterministici, ma probabilistici, i processi influenzati da moltissimi fattori non perfettamente noti o in cui le condizioni iniziali sono mal note oppure in cui gli oggetti considerati sono subatomici. Il principio di indeterminazione di Heisenberg stabilisce che, se una particella si muove lungo un asse x a velocità V, possiamo determinarne la posizione con una accuratezza Dx e la velocità con una accuratezza DV, ma il prodotto Dx.DV è sempre maggiore della costante di Planck h (6,626076 10 kg.m/sec). Dunque: tanto maggiore è la precisione con cui conosciamo la posizione, tanto minore è quella con cui conosciamo la velocità e viceversa.
La elettrodinamica quantistica in base a relazioni matematiche probabilistiche permette di prevedere i risultati di esperimenti ancora non effettuati con la precisione di una parte su 100 miliardi. Non consente, però, di prevedere eventuali effetti di fenomeni subatomici su oggetti macroscopici e certo non sull’intero universo. Queste teorie non possono essere confermate, né falsificate dall’esperienza: vanno considerate come “vaccinate”, cioè non dibattibili, nè interessanti.
Taluno cerca di difenderle sostenendo che altre entità fisiche sono state immaginate da fisici teorici e poi osservate e confermate solo anni dopo. Non è così. Fermi definì nel 1934 la particella che chiamò neutrino, la cui emissione avrebbe spiegato il modo in cui un neutrone decade producendo un protone e un elettrone – e i neutrini furono osservati da F. Reines nel 1958. Abdus Salam definì nel 1968 i bosoni W, W e Z che mediano la forza nucleare debole – e furono osservati da Rubbia nel 1983. Questi quattro scienziati hanno avuto il Nobel per aver definito in dettaglio le caratteristiche di oggetti che, soli, potevano spiegare osservazioni accurate di processi complessi e, poi, per averli osservati e misurati. Dubito che Everett e Witten conseguiranno grande fama per multiversi e stringhe che non spiegano processi prima oscuri e moltiplicano gli enti senza necessità. Non appassionano, quindi, le fantasie su 3 tipi di multiversi separati gli uni dagli altri oppure spiaccicati gli uni sugli altri creando big bang oppure che producano paesaggi creando altre dimensioni spaziali. Come scrisse Feynman:”Abbiamo bisogno dell’immaginazione, ma costretta in una terribile camicia di forza”. Curioso che nella pagina precedente di The Character of Physical Law, Feynman dicesse: “.. c’è un solo mondo …”
Greene arguisce anche: se l’universo è infinito deve contenere copie del nostro sistema solare, della Terra, di noi stessi che differiscano fra loro solo per qualche dettaglio. Lascia freddi questa ipotesi: se queste copie esistono a centinaia di miliardi di anni luce da noi non possiamo saperlo e non ci fa differenza. Greene azzarda che il concetto di realtà parallele è integrato nello zeitgeist, lo spirito della nostra epoca. Emerge, quindi, nelle menti di scienziati illuminati e anche di artisti e di scrittori di fantascienza. Anch’io scrivo fantascienza, ma tengo quelle mie immaginazioni ben separate dai contenuti dei miei saggi e lavori scientifici.


°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°


articolo del 26 febbraio 2011

Iperscelte: scelte eccessive o illusorie – come percepite e decise
di Roberto Vacca – Civiltà delle macchine - 11/4/2010

Molti di noi sono a disagio se sono obbligati da altri a vivere situazioni, seguire percorsi, dare deleghe, usare oggetti, fare lavori senza poter manifestare preferenze. Stiamo meglio, se possiamo scegliere fra molte opzioni diverse. Si può sostenere che più scelte equivale a più democrazia, più civiltà, purchè le alternative siano davvero reali e non corrispondano solo a nomi diversi che designano oggetti sostanzialmente identici.
Alvin Toffler, nel suo libro “Future Shock” (1970) definì overchoice (iperscelta) la disponibilità di tipi, modelli, versioni di ogni prodotto tanto numerose da confondere i consumatori e da inibire la scelta, invece che renderla più piacevole e motivata. Toffler attribuiva ragionevolmente questa tendenza alla produzione computerizzata, ad esempio alla flessibilità delle macchine utensili a controllo numerico, e alla facilità di attagliare alla domanda produzioni e servizi. Forniva gli esempi delle Ford Mustang, disponibili in 144 versioni diverse, e del proliferare di varianti di detergenti, saponi, sigarette, marmellate, sciroppi d’acero. Dopo 40 anni la tendenza all’iperscelta è continuata. I modelli delle tante marche di auto sono quasi indistinguibili nella forma. I produttori di caffè (nelle due specie più comuni: Arabica e Robusta) offrono centinaia di aromi, tostature, confezioni, sapori diversi. Mirano ovviamente a soddisfare i gusti più vari per aumentare la clientela, ma possono generare incertezze e confusione: non hanno sempre successo. Alcuni produttori hanno ottenuto risultati migliori proprio riducendo il numero di alternative proposte – e semplificando la vita dei clienti.
Certi sociologi (R.B. Settle, L.L. Golden in Advances in Consumer Research, 1974) hanno cercato di analizzare il comportamento dei consumatori e hanno proposto di distinguere l’iperscelta percepita dall’iperscelta effettiva. La prima è il rapporto fra il numero di opzioni che il consumatore considera ideale e il numero di opzioni che ritiene gli siano offerte. La seconda è il rapporto fra il numero ideale citato e quello che viene oggettivamente offerto. Non sembra una classificazione significativa perché i consumatori non sono davvero in grado di decidere quale sia il numero di scelte preferibile (o ideale), mentre le stime del numero di opzioni offerte potranno essere tanto più erronee quanto più sono disattenti gli interpellati. In effetti, poi, non siamo in grado di apprezzare le differenze fra oggetti o stimoli diversi oltre certi limiti. Alcuni di noi possono anche essere impressionati da sconti proposti con grande enfasi – e non si rendono conto che l’ammontare del risparmio ottenibile è minore dell’1 %.
Studiarono il problema E. H. Weber (fratello del più famoso W.E. Weber il cui nome fu dato all’unità di flusso magnetico) e G. Fechner (iniziatore degli studi psicofisici) alla metà del XIX secolo. Conclusero che la risposta o la percezione di un cambiamento nell’intensità di uno stimolo sensoriale è proporzionale al logaritmo della variazione stessa. Questo significa che, se siamo capaci di distinguere un peso di 100 grammi da uno di 125 (cioè una differenza del 25%), non sapremo distinguere un peso di 1025 grammi da uno di 1 kg, ma solo uno di 1250 grammi da uno di 1 kg. Apprezziamo le differenze in percentuale e non in valore assoluto. Le cose vanno in modo simile per la percezione del dolore fisico, di suoni e di stimoli luminosi. Ad esempio la magnitudo delle stelle fu definita da Ipparco nel II secolo (e ancora oggi) suddividendola in 6 livelli diversi dalla massima a una appena visibile. Una stella che abbia magnitudo 5 volte maggiore di un’altra è 100 volte più luminosa. [S.S. Stevens nel 1957 propose una legge di potenza più aderente ai vari tipi di percezione sensoriale]. Dunque i venditori che propongono tanti stili, modelli, versioni diverse dei loro prodotti, dovrebbero riflettere sulla circostanza che certe differenze in una gamma non siano nemmeno percepite dalla maggioranza del pubblico.
È opportuno, poi, definire meglio la differenza fra due prodotti. Chiamiamo “allineabili” i prodotti che differiscono per una sola dimensione misurabile, come la potenza massima erogabile da un motore di auto o la percentuale di cacao contenuta in una tavoletta di cioccolata. Chiamiamo “non allineabili” i prodotti che differiscono per vari attributi o caratteristiche discrete, come i telefoni cellulari: alcuni non registrano immagini, altri fanno fotografie e altri ancora riprendono video. L’esperienza sembra indicare che una maggiore offerta di modelli allineabili incrementa la quota di mercato di un prodotto. Invece tale quota decresce, secondo alcuni, se viene aumentato l’assortimento non allineabile.
Le proposte di prodotti e servizi a clienti eventuali vengono fatte nei negozi ed esercizi commerciali, mediante messaggi o esposizioni nelle vetrine e per mezzo di pubblicità murale, su periodici, alla radio e in TV. Si tratta di promozioni non mirate di efficacia variabile. Sempre più spesso proposte e pubblicità vengono diffuse su Internet: riceviamo messaggi e-mail che non abbiamo richiesto o vediamo apparire all’improvviso sui nostri schermi “pop-up” – immagini colorate, testi, proposte, avvisi. Queste apparizioni sono irritanti specialmente se ripetute frequentemente e non sempre consentono al destinatario di rifiutarle stabilmente in avvenire. Per aumentare le probabilità di agganciare clienti si ricorre anche al behavioral targeting (individuazione dei destinatari in base al loro comportamento). I gestori di motori di ricerca registrano le scelte di acquisti o di accesso a pagine di pubblicità fatte dagli utenti, quindi redigono liste specializzate di indirizzi e-mail di coloro che hanno manifestato interesse per prodotti particolari (automobili, viaggi, vestiario, cibi, etc,) e le vendono ai produttori. Questi limiteranno le loro promozioni e invii di messaggi solo a gruppi mirati. L’attività di marketing dovrebbe risultare più efficace: chi viene contattato dovrebbe essere meglio disposto. Non è sempre così: varie associazioni di consumatori sono opposte a queste procedure che considerano invasioni della privacy.
Questa varietà fra prodotti, servizi e loro fornitori è poca cosa se la confrontiamo con l’iperscelta massima costituita dalle possibili opzioni del materiale su Internet: libri, articoli, testi, relazioni, diari, recensioni, blog, immagini. Google aveva indicizzato 26 milioni di pagine nel 1998, un miliardo di pagine nel 2000 e mille miliardi nel 2008. Sul sito http://googleblog.blogspot.com è detto che questo numero è praticamente infinito. Non suona come una vanteria perché, sperimentando, uno trova veramente di tutto, purchè sia addestrato a costruire parole chiave efficaci e a seguire connessioni fra pagine. C’è, poi, un enorme universo di dati non visibili e non accessibili per mezzo di motori di ricerca. Pare contenga migliaia di miliardi pagine e viene chiamato Invisible Web o Deep Web. È costituito da pagine create entro gruppi, cui si accede digitando una password, da testi non scritti in HTML o creati dinamicamente dal software di database. Questo Web “profondo” contiene informazioni interessanti, in parte riservate. Non ci sono mezzi semplici per esaminarle. Non si può parlare di iperscelta in questo contesto, perché normalmente non conosciamo l’esistenza degli oggetti fra cui scegliere, né i loro indirizzi in rete. Si può provare a fare ricerche a caso, ma il rendimento è basso. I link necessari possono essere individuati con passa-parola. Vedere in merito: www.lib.berkeley.edu/teachinglib/Guides/Internet/Invisibleweb.html e anche www.deepwebresearch.com,
Ho cercato su Google: “world total information”, “total information”, “exabyte stored” – senza trovare gran che. Allora ho provato semplicemente “information explosion” e sono emersi articoli interessanti, studi, dibattiti, dati [fra questi: T. McIlroy su ]. Dunque la Rete è piena di dati (quantitativi) e di informazioni – però alcuni hanno l’impressione che proprio le cose a cui sono interessati siano diventate inaccessibili perché i contenuti hanno proliferato tanto da costituire un labirinto..
Taluno si stacca da Internet non sopportando lo stress eccessivo: troppe parole, lettere, numeri, immagini, grafici. Non vuole più mandare, né ricevere E-mail. Mi sono chiesto:
"Sarò anche io sovraccarico di informazioni - di segnali?"
Mi sono risposto di no. Chi vive in città è avvolto da simboli: cartelli, insegne, giornali, libri, documenti e, sempre più, videate di lavoro, di corrispondenza e anche di cultura. Ci danneggiano? Verremo distratti tanto da lavorare peggio e da essere meno originali? No: il rischio delle distrazioni esisteva già per chi prendeva cattive abitudini di tipo tradizionale. Perde tempo e occasioni anche chi non può fare a meno ogni giorno di leggere lo stesso fumetto, risolvere un cruciverba, ripetere discorsi triti, fissare uno schermo TV. Potremmo concludere banalmente che Internet, come ogni altro strumento può essere usato bene in pochi modi e male in molti, ma vediamo un’altra analisi sulla numerosità di questo universo.
"La quantità di informazioni registrata nel 2002 in tutto il mondo (su vari supporti) equivale a tutte le parole pronunciate dagli esseri umani da quando cominciarono a parlare".
Questa conclusione è stata raggiunta dalla SIMS, School of Information Management and Systems dell'Università di California a Berkeley. Lo studio - "Quanta informazione? 2003" - contiene dati interessanti ed è disponibile su www.sims.berkeley.edu/research/projects/how-much-info-2003/. È interessante che dopo sette anni venga ancora citato da molti analisti, ma che gli autori non l’abbiano aggiornato.
La prima tabella seguente riporta le quantità di informazione stampata su carta nel 2002 in tutto il mondo. [L'unità di misura usata è il byte = 8 bit (o cifre binarie): equivalente a un carattere alfanumerico. Una pagina a stampa di 30 righe contiene 2.000 byte].
Dal 1999 al 2002 la carta stampata è cresciuta di un terzo. Non è vero, dunque, che l'informatica conduca a una società senza carta? Ma sì che è vero: la carta stampata cresceva solo dell'11% all'anno, mentre le registrazioni magnetiche crescevano del 21,5%. Lo si vede nella seconda tabella che riporta il


Libri
Giornali
Documenti ufficio
Riviste
Riviste profess.
Bollettini
Totale
Terabyte 2002
39


52
6
,9

Terabyte 1999
39

975
52
9
,8

Crescita media annua
0 %
+ 3,8 %
+ 12,8 %
0
13%

+ 11 %
Terabyte = 1000 miliardi di byte (circa 500 milioni di pagine a stampa)
Totale mondiale quantità di informazione stampata: 2002 e 1999
Fonte SIMS; University of California, Berkeley

totale di tutti i dati (stampa, film, magnetici, foto) registrati fino al 2002 : 5,4 miliardi di miliardi di byte (5,4 Exabyte - Exa è il multiplo 10 secondo il Sistema Internazionale di Misura). E' una quantità enorme (500.000 volte più di tutti i libri della Biblioteca del Congresso USA) ed è sparsa fra computer, archivi, librerie, cineteche, biblioteche, uffici.


Carta
Film
Magnetico
Ottico
Totale
Terabyte 2002



103

Terabyte 1999



81

Crescita media annua
11 %
- 1 %
+ 21,5 %
+ 8,5 %
+ 19 %
Totale mondiale quantità di informazione registrata su vari supporti nel 2002 e nel 1999 - Fonte: SIMS

Non mi sembra, però, che questa quantità di dati equivalga a quella di tutte le parole mai pronunciate da esseri umani. Facciamo i conti. Una parola equivale a 10 byte. Se ciascun essere umano parla un'ora al giorno in media con 3 parole/secondo [e c'è chi parla ben di più] dice 10.000 parole equivalenti a 100.000 byte al giorno e, in 365 giorni, esterna 37 Megabyte (37 . 10 byte). Negli ultimi 2000 (2 . 10) anni stimiamo la popolazione mondiale media in 500 milioni (5 . 10). Dunque in due millenni gli uomini avranno emesso 37 milioni di Terabyte (37 miliardi di miliardi di byte, cioè 37 exabyte). Ai tempi antichi eravamo pochi, ma cominciammo a parlare mille secoli fa. Abbiamo parlato ben di più – e continuiamo: il totale continua a crescere. Lo studio SIMS, poi, si occupa dei flussi di dati e informazioni per via elettronica (vedi terza tabella).


Radio
Televisione
Telefono
Internet
Totale
Terabyte 2002
3.488
68.965

532.897

Totale mondiale flussi di informazione elettronica: 2002 - - Fonte SIMS

Non siamo abituati a trattare numeri così grandi, nè a ragionare su queste unità di misura poco usuali. I numeri citati sono solo ordini di grandezza. Nel Febbraio 2010 l’Economist citava uno studio della International Data Corporation secondo il quale nel 2009 la quantità di informazione trasmessa in rete era di 760 exabyte – maggiore della capacità di registrazione di tutti i computer disponibili che sarebbe di 500 exabyte.
Non addentriamoci a discutere sulla eventuale compressione dei dati. Questa permette di codificare (soprattutto i dati grafici, ma anche quelli alfanumerici) in modo che occupino meno spazio. Facendolo si registrano e si trasmettono grandi quantità di dati comprimendole e poi ricostruendo gli originali. Gli ordini di grandezza, però, non cambiano. La questione è marginale.
Ma torniamo alla complessità degli argomenti. Non abbiamo scelto noi di vivere in questo mondo sempre più complesso in cui proliferano i sistemi di comunicazione, di energia, di trasporto. Però ci viviamo. Se lo ignoriamo, rischiamo di essere sopraffatti da quelli che lo capiscono meglio. Ci imporranno tariffe inique. Ci faranno correre rischi di cui non abbiamo idea. Ci sopravanzeranno sul lavoro. Ci obbligheranno a usare i loro prodotti. Limiteranno le nostre scelte culturali, sociali, economiche. La democrazia non è fatta solo di elezioni più o meno libere, nè di assenza di dittatori. Per essere una realtà e non solo una parola vuota, deve offrire molte scelte. Alcune di queste possono essere realmente fruite solo se ne sappiamo abbastanza. Molti siti Web creati da persone serie offrono vantaggi enormi: culturali, umani, lavorativi. Li sfruttano anche molti scienziati: si scambiano messaggi illuminanti e formano stimolanti comunità virtuali. Eppure certi storici della scienza sostengono che Internet ha effetti negativi anche sull'attività scientifica. Ogni nuovo risultato ottenuto, congettura o sviluppo teorico è subito disponibile in rete. Tutti sanno tutto degli altri. Imperano mode stabilite dagli scienziati più famosi. Quindi sarebbe più arduo, specie per i giovani, seguire strade originali sperabilmente fruttuose. L'isolamento proteggerebbe l'originalità, ma favorirebbe la duplicazione di sforzi identici e impedirebbe l'aggiornamento. Quasi nessuno scienziato opera nel vuoto. Tutti si giovano dei loro predecessori. Molti problemi di fisica dovrebbero essere ripensati dalle basi: arduo riuscirci se è troppo forte il rumore di fondo di comunicazioni, messaggi, newsletter.
Come si naviga con successo su Internet? Un grande aiuto ci viene dato da Google che si base su criteri statistici per distinguere le pagine migliori (cui ci dà accesso) da quelle peggiori (che non blocca, ma lascia nell’ombra). Usando quel motore di ricerca diamo una prima sgrossata all’immane materiale della rete. Poi abbiamo bisogno di criteri di scelta empirici, individuali: li formiamo innalzando il nostro livello culturale, sperimentando, imparando a giudicare autori e testi dai contenuti, dalla forma, dall’organizzazione. Possiamo anche considerare il successo editoriale di un libro (anche se spesso viene assicurato dalla moda e dalla pubblicità e non dal valore intrinseco).
La valutazione di testi scientifici viene fatta anche usando lo Science Citation Index (Indice delle citazioni scientifiche), in cui viene contato il numero di volte che un lavoro scientifico viene citato da altri scienziati. La pubblicazione di queste graduatorie, però, può spingere i ricercatori al conformismo. Pensano di guadagnare status solo se vengono citati e che verranno citati solo se seguono le mode prevalenti. Lo Science Citation Index viene pubblicato da decenni e non ha frenato il progresso scientifico - anche se sono noti casi di cricche di baroni che hanno soffocato l'originalità di scienziati giovani oppure si sono abbarbicati a loro teorie errate anche dopo che erano state dimostrate insussistenti. Tipico il caso recente della credenza nel riscaldamento globale antropico.
Per facilitare il reperimento di dati, informazioni conoscenze nell’universo della rete bisogna migliorare la qualità della comunicazione che può condizionare le nostre scelte. È un lavoro che non finisce mai. Anticamente bastava avere una certa conoscenza del mondo e delle parole, della grammatica e della sintassi per comunicare in modo efficace. Poi i libri ci hanno fatto conoscere persone, luoghi, cose, idee con cui altrimenti non avremmo avuto alcun contatto. Le conoscenze che otteniamo da descrizioni hanno superato da secoli quelle derivate dall’esperienza. Ora la rete ci permette di aumentare a dismisura le conoscenze da descrizioni e anche di trasmetterle a grandi numeri di nostri simili. Abbiamo occasioni continue e meravigliose di aprire la nostra mente e di aiutare altri ad aprire le loro.
Le dimensioni della rete mondiale WorldWide Web la rendono simile al mondo reale. Nessuno ci garantisce che le persone che incontriamo ci dicano la verità o sappiano quello che dicono. Così non abbiamo garanzia che testi e documenti trovati in Internet siano veri, affidabili, rilevanti.
Sta a noi capire distinguere valutare. La ricchezza e la saggezza ci sono e spesso è arduo distinguerle dal chiacchiericcio, dalle irrilevanze, dalle falsità. Gli inesperti credono di avere oro, quando hanno trovato pirite (solfato di ferro, chiamato Fool’s gold – l’oro degli sciocchi). Analogamente abbiamo intorno (e anche in rete) sprovveduti e imbroglioni che diffondono proposizioni false e fanno discorsi vaghi e inutili, magari appoggiati a icone e a slogan che degradano il linguaggio.
Dovremmo cercare di far rinascere la comunicazione integrando Information Communication Technology e strumenti classici. Anche questi non sono scevri da rischi. Cicerone aveva imparato dai retori greci a trascurare i contenuti a favore della presentazione oratoria brillante (Õðòêñéóéò – Õðòêñéóéò – Õðòêñéóéò!)Possiamo scegliere infiniti modi per presentare una stessa sostanza, ma è meglio concentrarsi a valutare il valore intrinseco della sostanza. Confucio diceva:
“Guardatevi dagli abili parlatori.”


Overchoice: excessive or delusory choices: how perceived and decided
Abstract
The supply of products and services in a proliferating number of variants may confuse the public and inhibit choice. Producers may get advantages by reducing the number of options and simplifying customers’ life. Psychologists have shown that our appreciation even of quantitative differences is limited. Catering to alleged tastes and whims may be cumbersome and ineffective. The universe of choices open on the WorldWide Web for information choices and formats, dwarfs that in retail. Trillions of pages have been indexed: we need very efficient tools (like Google), but also prior judgment criteria. To absorb vital gist from the Web (an avatar of the real world) we have to recur to classic procedures, information-communication technology and common sense.




°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°


articolo del 16 aprile 2010


L'ABORTO E L'UTILITA' DELLA PILLOLA RU486

di Gianfranco Dugo


Il Vaticano è contro l'uso della Ru486 (la pillola che permette l'aborto indolore perché evita il bisturi) e afferma che provoca troppe morti. Anche la pillola anticoncezionale ebbe la stessa condanna cinquant' anni fa. Oggi la pillola contraccettiva viene usata da milioni di donne di tutti i continenti, e ha gli stessi pericoli di un'aspirina. Per l'uso legale della Ru486 l'Italia è arrivata ultima, ma la pillola che evita il bisturi è in uso da diversi anni in molti paesi europei.
L'aborto è un dramma per tutti. Quello che però molti cattolici ignorano è che l'aborto clandestino era molto praticato prima della legge 194 che lo ha permesso legalmente. Ma cosa ha fatto la Chiesa cattolica per eliminarlo ? Si è sempre scagliata contro l'educazione sessuale (seria) nelle scuole; si oppone tuttora agli anticoncezionali che risolverebbero, senza usare il bisturi (che può creare traumi psicologici nelle donne), il 90% degli aborti. Gli anti-abortisti si sono mai chiesti perché la pillola del giorno dopo non viene pubblicizzata e non si vende senza ricetta medica come in Francia ? Lo conoscono il motivo per cui il Vaticano la proibisce ? "Quando un uomo mette il suo seme in una donna l'ha voluto Dio - dicono i teologi cattolici. Lo vuole Dio anche quando è uno stupratore a mettere il suo seme ? E quando un banbino dovrà nascere con notevoli deformazioni o gravi malattie genetiche, quanti "credenti" si rifiuteranno di usare la RU486 ?


°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°


articolo del 26 dicembre 2009


Scienza e religione: un rapido confronto

La scienza è quel genere di conoscenza che si ottiene attraverso il metodo ipotetico-deduttivo, chiamato anche metodo scientifico. Detto in termini molto sintetici, questo metodo di conoscenza si articola in vari stadi o gradini: esso parte dall'osservazione di fatti particolari giudicati significativi; in base ad essi formula una ipotesi (o modello) in grado di spiegarli, ossia elabora una norma generale della quale i fatti sono conseguenze particolari; questa ipotesi deve permettere di far emergere fatti rimasti fino ad allora in ombra e, soprattutto, di dedurre dei fatti non ancora osservati ma verificabili, ossia di fare delle previsioni in grado di essere confermate o smentite attraverso l'esperienza; se le previsioni sono verificate, l'ipotesi è provvisoriamente accettata come corretta, altrimenti si ritorna all'osservazione dei fatti e si procede con un'altra ipotesi di lavoro. Quando l'ipotesi è corroborata dall'esperienza si definisce teoria. Si noti bene che questo uso del temine "teoria" è ben diverso da quello del linguaggio comune, secondo cui essa è una ipotesi non ancora confermata dall'esperienza. Questo spesso porta a fraintendere il linguaggio degli scienziati, come ad esempio quando i creazionisti o i sostenitori del "disegno intelligente" affermano che quella evoluzionista è soltanto una "teoria". Christopher Hitchens ha quindi potuto giustamente ribattere a queste persone: "Dicono incautamente che la biologia evoluzionistica è 'solo una teoria', rivelando così insieme la loro ignoranza del significato della parola 'teoria' come della parola 'disegno'. [...] E' una teoria [scientifica] valida se sopravvive all'introduzione di fatti fino al momento sconosciuti. E diventa una teoria accettata se si dimostra capace di fare predizioni esatte su cose o eventi che non sono ancora stati scoperti, o che non si sono ancora verificati. [...] All'opposto, il creazionismo, o 'disegno intelligente' (la cui sola intelligenza è stata l'adozione di questo nuovo e ingannevole marchio commerciale), non è nemmeno una teoria". (Dio non è grande, Einaudi, Torino 2007, pp. 80-81).
Le teorie scientifiche non sono vere in senso assoluto, ma valide; sono cioè sottoposte a continua verifica e sempre aperte a revisioni, nel caso nuove previsioni vengano smentite dall'osservazione. Un certo numero di teorie può diventare la base di una nuova ipotesi più generale, della quale esse sono conseguenze. A questo processo di progressiva generalizzazione non è posto un limite. Per una breve ma corretta esposizione del metodo scientifico si veda Bertrand Russell, Caratteristiche del metodo scientifico in La visione scientifica del mondo, Laterza, Roma-Bari 1988, pp. 39-47 (che contiene anche un utile capitolo sulle Limitazioni del metodo scientifico, pp. 49-57), e la voce "Scientific method" della versione inglese di Wikipedia:
http://en.wikipedia.org/wiki/Scientific_method
La voce "Metodo scientifico" della versione italiana di Wikipedia è fatta, a mio avviso, molto peggio, ma comunque è meglio di niente:
http://it.wikipedia.org/wiki/Metodo_scientifico
Da quest'ultima voce ho tratto il seguente utile schema del metodo ipotetivo-deduttivo:



La filosofia della scienza (altrimenti detta epistemologia), cioè quel settore della filosofia che si occupa di chiarire in cosa consista la conoscenza scientifica, ha fornito svariate analisi, interpretazioni, chiarificazioni e critiche di questo metodo. Si può andare dalle posizioni più restrittive del neopositivismo del Circolo di Vienna fino all'epistemologia anarchica di Paul Feyerabend (il quale, analizzando la storia della scienza, ha sottolineato come gli scienziati abbiano violato costantemente il metodo scientifico nella loro attività di scoperta), passando per il falsificazionismo di Karl Popper e la teoria dei paradigmi di Thomas Kuhn; ma il metodo ipotetico-deduttivo resta pur sempre la base di partenza per ogni genere di definizione e analisi critica della scienza. Per una introduzione a questo dibattito filosofico sono disponibili in lingua italiana alcuni volumi molto interessanti. Tra i più utili ho trovato ad esempio: Giulio Giorello, Filosofia della scienza, Jaca Book, Milano 1992; Harold Brown, La nuova filosofia della scienza, Laterza, Roma-Bari 1999; David Oldroyd, Storia della filosofia della scienza, Net, Milano 2002; Gillies Donald - Giulio Giorello, La filosofia della scienza del XX secolo, Laterza, Roma-Bari 2002; Giulio Giorello, Introduzione alla filosofia della scienza, Bompiani, Milano 2006. Una bella bibliografia ragionata è quella di Fabio Minazzi, in appendice al volume di Ludovico Geymonat, Lineamenti di filosofia della scienza, Mondadori, Milano 1985, pp. 145-168 (di questo volume esiste una seconda edizione, pubblicata nel 2006 dalla UTET Università, con una nuova introduzione di Giulio Giorello e un aggiornamento della bibliografia di Minazzi).
Bisogna evidenziare, però, che in genere gli scienziati sono abbastanza scettici riguardo alla filosofia della scienza e all'interpretazione che essa dà del loro lavoro. Non è vero, ad esempio, come pensano alcuni, che tutti condividano l'interpretazione falsificazionista di Popper, secondo cui ciò che distingue una teoria scientifica dalla metafisica è il poter essere smentita (cioè falsificata) attraverso l'osservazione empirica. Un esempio illustre è quello di Steven Weinberg, uno dei fisici teorici più importanti di questi ultimi cinquant'anni, premio Nobel nel 1979. Nel suo ottimo libro Il sogno dell'unità dell'universo, Mondadori, Milano 1993, dedica addirittura un capitolo - intitolato Contro la filosofia (pp. 172-197) - a criticare gli epistemologi, ed in particolare i positivisti e i relativisti.
Se dopo aver definito la scienza, passiamo alla definizione di religione, ci accorgeremo che i problemi si fanno ancora più complicati. Nemmeno fra gli storici delle religioni, fra i quali è in corso un dibattito che dura da decine di anni, esiste un accordo su cosa sia la religione o se sia possibile darne una definizione valida per tutte le sue manifestazioni. Non ho intenzione di entrare nel merito di questo dibattito, perché la cosa si farebbe lunga e poco interessante. Per chi volesse introdursi a queste problematiche, consiglio il recente volume di Aldo Natale Terrin, La religione. Temi e problemi, Morcelliana, Brescia 2008. Terrin è uno studioso cattolico di storia delle religioni sempre molto obiettivo nel riportare le varie interpretazioni e molto aggiornato rispetto al dibattito accademico di questi ultimi anni. Mi limito qui a fornire la definizione di religione che adotto io, che è poi quella formulata da Roderick Ninian Smart, un illustre studioso di religioni, laico, di origine scozzese (per maggiori informazioni su di lui si veda la voce di Wikipedia: http://en.wikipedia.org/wiki/Ninian_Smart ). La definizione di Smart è in realtà simile, sebbene più articolata, a quella che diede Bertrand Russell nel suo volume Scienza e religione, Longanesi, Milano 1974. Russell infatti afferma che "ciascuna delle grandi religioni storiche ha tre aspetti: 1) una Chiesa; 2) una fede; 3) un codice di etica individuale" (p. 10). Smart articola meglio questa definizione e sostiene che ogni religione presenta queste sette dimensioni: 1) dottrinale; 2) mitologica; 3) etica; 4) rituale; 5) empirica; 6) sociale; 7) materiale. Si può notare che gli aspetti 6 e 7 di Smart corrispondono al punto 1 di Russell (infatti per dimensione sociale Smart intende la comunità religiosa e le istituzioni che essa fonda, mentre per dimensione materiale intende i luoghi di culto), gli aspetti 1, 2, 4 e 5 di Smart corrispondono al punto 2 di Russell, ed infine i punti 3 di Smart e Russell addirittura coincidono. Come si può vedere in questi punti non è menzionato alcun "dio". Proprio per questo in una definizione simile può benissimo rientrare una religione atea (o agnostica) come il buddhismo.
Ciò che può mettere in contrasto la religione con la scienza è l'elemento fideistico caratteristico della prima. E' proprio questo elemento, supportato da istituzioni ecclesiastiche in grado di condizionare o esercitare il potere politico, ad aver causato lungo la storia delle religioni tanta intolleranza, eccessi fondamentalistici, spargimenti di sangue e sofferenze di ogni genere. Finché questo elemento permarrà, saranno sempre possibili nuovi orrori compiuti in nome della religione, di qualsiasi religione.

La scienza può invece produrre solo beneficio all'umanità? Dipende da come viene prodotta e applicata. La scienza ci può dare conoscenza, che si traduce in potere nei confronti della natura, ma non ci può indicare i fini e i valori da perseguire e a cui applicarla. La crescita della conoscenza scientifica, dal mio punto di vista, non è mai un male a meno che la sua acquisizione non produca una inutile sofferenza e morte di altri esseri viventi. Durante il nazismo questo è sicuramente accaduto, ma purtroppo a volte avviene tuttora, come ben sanno tutti quegli animali che vengono utilizzati quali cavie di laboratorio (in questi casi si parla di "male necessario", ma il fatto costituisce comunque per alcuni un importante problema etico). D'altra parte l'applicazione della scienza, ossia la tecnica scientifica, è soggetta anche all'arbitrio dei governi e diventa un problema politico, come è evidente fin dalla fabbricazione e dalla proliferazione delle armi nucleari, a cui si opposero Einstein, Russell e molti altri scienziati. E' inoltre chiaro che un tipo di metodo come quello scientifico è maggiormente produttivo all'interno di una società priva di dogmi e di ideologie, ossia in una società libera; e tuttavia vi sono stati scienziati che hanno aderito al nazismo (come ad esempio Philipp Lennard, premio Nobel per la fisica nel 1905, che nel 1936 pubblicò il libro Deutsche Physik [Fisica tedesca], in cui criticava la "fisica ebrea" di Einstein) e a forme di governo totalitario (è noto il caso dei biologi comunisti sovietici che rifiutarono la genetica mendeliana perché "scienza borghese" e adottarono, fino agli anni '60 del secolo scorso, le concezioni pseudo-scientifiche del "compagno" agronomo Trofim D. Lysenko). Infine, anche in una società liberale ad economia capitalista come la nostra la ricerca scientifica non è esente da pressioni che ne condizionano e a volte snaturano l'attività. Un fisico come Marcello Cini, ad esempio, ha dedicato un corposo volume alla dimostrazione che "c'è una contraddizione profonda fra la produzione di conoscenza, per sua natura frutto al tempo stesso della creatività individuale e del patrimonio comune dell'umanità intera attraverso un processo evolutivo non finalistico, e la crescita dell'economia, che è finalizzata alla produzione di profitto. Non è forse questo cieco meccanismo di mercificazione della conoscenza a portare la scienza in tutt'altra direzione, impedendo di fatto che essa possa contribuire a migliorare la qualità della vita di tutta l'umanità?" (Il supermarket di Prometeo. La scienza nell'era dell'economia della conoscenza, Codice, Torino 2006). Il problema rimane aperto.

Paolo Vicentini

_____________________________________________________________________________


articolo del 22-12-2009

EINSTEIN E LA RELIGIONE

In "Religione e scienza", il suo scritto più organico riguardo a questi argomenti, Einstein definisce la sua religiosità una "religiosità cosmica". Ciò per cui Einstein aveva "devozione", ciò per cui egli provava "ammirazione" e che gli trasmetteva un profondo senso di "meraviglia" e di "mistero" (sono tutte parole sue) non era una divinità trascendente, ma l'ordine (kosmos, in greco), la struttura causale, le leggi fisiche, della natura. Non tanto gli elementi naturali in sé (per questo esitava a definirsi panteista), ma l'ordine e l'armonia che li caratterizzavano. Questo per lui era "dio", questo per lui era l'unico senso in cui lo si poteva definire un uomo religioso. Ed è una religiosità che egli vedeva incarnata principalmente negli scienziati: "Difficilmente troverete uno spirito profondo nell'indagine scientifica senza una sua caratteristica religiosità. Ma questa religiosità si distingue da quella dell'uomo semplice: per quest'ultimo Dio è un essere da cui spera protezione e di cui teme il castigo, un essere col quale corrono, in una certa misura, relazioni personali per quanto rispettose esse siano: è un sentimento elevato della stessa natura dei rapporti fra figlio e padre. Al contrario, il sapiente è compenetrato dal senso della causalità per tutto ciò che avviene. [...] La sua religiosità consiste nell'ammirazione estasiata delle leggi della natura; gli si rivela una mente così superiore che tutta l'intelligenza messa dagli uomini nei loro pensieri non è al cospetto di essa che un riflesso assolutamente nullo" (A. Einstein, Religione e scienza, in Come io vedo il mondo. La teoria della relatività, Newton Compton, Roma 1988, p. 22; le mie citazioni seguenti sono prese da questa traduzione). "Non è senza ragione che un autore contemporaneo ha detto che nella nostra epoca, votata in generale al materialismo, gli scienziati sono i soli uomini profondamente religiosi" (p. 28). Einstein parla qui metaforicamente di una "mente" e di una "intelligenza" della natura, ma lo fa allo stesso modo in cui il fisico Stephen Hawking parla della "mente di Dio" riferendosi alle leggi naturali, di natura causale: "L'uomo che crede nelle leggi causali, arbitro di tutti gli avvenimenti, se prende sul serio l'ipotesi della causalità, non può concepire l'idea di un Essere che interviene nelle vicende umane" (p. 26). Non c'è nessuna implicazione di trascendenza e del resto più volte Einstein ha ribadito di rifiutare qualsiasi divinità personale e antropomorfica. Secondo Einstein la religiosità cosmica "non può essere pienamente compresa da chi non la sente poiché non vi corrisponde nessuna idea di un Dio antropomorfo". Inoltre, "gli elementi di questa religione sono più forti nel buddhismo, come abbiamo imparato in particolare dagli scritti ammirabili di Schopenhauer". Ed il buddhismo, come si sa, non ammette nessuna divinità trascendente e a sé stante rispetto alla struttura della realtà fisica. Ma Einstein dice di più: "I geni religiosi di tutti i tempi risentono di questa religiosità cosmica che non conosce né dogmi né Dei concepiti secondo l'immagine dell'uomo. Non vi è perciò alcuna Chiesa che basi il suo insegnamento fondamentale sulla religione cosmica. Accade di conseguenza che è precisamente fra gli eretici di tutti i tempi che troviamo uomini penetrati di questa religiosità superiore e che furono considerati dai loro contemporanei più spesso come atei, ma sovente anche come santi." (p. 25). E' interessante questo riferimento all'ateismo, perché in efetti molti panteisti - o definiti tali - sono stati visti come degli atei: ad esempio Giordano Bruno o Spinoza.
Rispetto alla visione tradizionale di "dio", invece, Einstein si riteneva agnostico, e lo afferma esplicitamente in varie lettere, come quella del 1950 a M. Berkowitz: "My position concerning God is that of an agnostic. I am convinced that a vivid consciousness of the primary importance of moral principles for the betterment and ennoblement of life does not need the idea of a law-giver, especially a law-giver who works on the basis of reward and punishment" [Einstein Archive, 59-215].

Paolo Vicentini

_______________________________________________________________________________________


articolo del 2 giugno 2009

Arti amputati ricrescono: fantasia/realtà - di Roberto Vacca, Nòva, 26/3/08
Ogni tanto descrivo eventi fantascientifici che poi si verificano davvero. Nel 1979 immaginai la diffusione di e-mail (e i russi l’usavano per eliminare il potere sovietico). Nel 1975 raccontai di un ricatto all’OPEC: “Se non pagate somme enormi sveliamo che a oltre 10 km di profondità il petrolio è ovunque” (e pare che sia vero). Nel 1972 in un racconto (ottenibile su www.printandread.com) Philip Quartara riusciva a modulare raggi X per fornire informazioni progettuali alle cellule superficiali del troncone di una zampa di topo, di cui aveva amputato la parte distale – e la zampa ricresceva identica a com’era prima. Avrebbe potuto far ricrescere gli arti amputati ad esseri umani, ma associazioni professionali e comitati di bio-etica glielo impedivano. Così apriva un Istituto di Cosmesi Scientifica. Con una sola applicazione garantiva ai calvi la ricrescita dei capelli e alle donne sprovviste, lo sviluppo istantaneo di seni floridi e sodi.
Se si amputa la zampa di una salamandra anche più di una volta questa ricresce sempre esattamente come era. Anche le code tagliate di lucertole e alligatori ricrescono. I girini di rana hanno la stessa proprietà, ma la perdono da adulti. Perché gli esseri umani non possono fare lo stesso? Le cicatrici che chiudono le nostre ferite o le nostre amputazioni sono costituite da cellule epidermiche e da fibroblasti (cellule di tessuto connettivo scoperte nel 1968 da M. De Oliveira) che producono un eccesso di collageno, formano una rete non organizzata di materiale extracellulare e bloccano ogni possibile processo rigenerativo.
Ora K. Muneoka ed M. Han di Tulane University e D.M. Gardiner dell’Università della California a Irvine (v. Scientific American, Aprile 2008) hanno avuto un grosso finanziamento dalla DARPA (Defense Advanced Research Projects Agency) per studiare la possibilità di rigenerare arti umani.
Nelle salamandre le cellule epidermiche coprono con un sottile strato la ferita di un’amputazione, dopo di che i fibroblasti migrano (come nell’uomo) sul posto, ma in conseguenza di segnali nervosi si produce una de-differenziazione delle cellule. Esse, cioè, regrediscono dalla forma specializzata che avevano raggiunto a uno stato primitivo, embrionico (simile a quello delle cellule staminali) e possono così moltiplicarsi e servire da progenitori a vari tipi di tessuto: muscolare, vascolare e osseo. Questa formazione, detta blastema o cappuccio epiteliale apicale, si sviluppa a ricostituire l’arto e le dita con cui termina: ossa, muscoli, vasi, tessuto connettivo e pelle.
La funzione essenziale degli impulsi nervosi è stata scoperta notando che le ferite sulla pelle del fianco di salamandre normalmente rimarginano producendo cicatrici come nell’uomo: se, però, viene deviato un nervo presso la ferita, si produce un blastema rudimentale anche se non riesce a produrre un nuovo arto sopranumerario. Se, infine, si impianta nella ferita un frammento di pelle di un arto dell’animale, inizia a crescere dal fianco un arto quasi normale. Sembra, quindi, che quest’ultimo impianto contenga e sia capace di trasmettere informazioni progettuali che governano la rigenerazione. Tali informazioni devono essere contenute nei tessuti lasciati da una amputazione in modo che la ricrescita “sappia” quali parti dell’arto sono rimaste e come debbano essere completate.
La speranza di ottenere nei mammiferi (e nell’uomo) la stessa rigenerazione che avviene nelle salamandre è alimentata dalla osservazione che le ferite sulla pelle dei feti umani si rimarginano senza produrre cicatrici. Negli esseri umani, inoltre, si rigenerano almeno i polpastrelli delle dita, completi di impronte digitali, forma e sensibilità. Dunque i fibroblasti umani adulti conservano una certa memoria del sistema di coordinate spaziali necessario per definire la posizione delle singole parti nel progetto generale del corpo.
Il prossimo traguardo sarà quello di rigenerare in un mammifero un dito completo: processo molto difficile perché implica la ricostituzione di giunture che sono le strutture scheletriche più complesse del corpo.
Andranno studiati e chiariti molti meccanismi ancora sconosciuti, fra cui le funzioni di geni e quelle dei fattori di crescita dei fibroblasti. Secondo gli esperti i primi successi si potranno ottenere fra qualche decennio, dopo aver capito processi vitali di biologia molecolare e dei meccanismi informatici che li governano.

________________________________________________________________________________________


articolo del 01/07/2009

SCIENZIATI AL SERVIZIO DEI POTENTI
La scienza è uno strumento in mano all’uomo, quindi può sempre diventare uno strumento di potere se non c’è il controllo dei cittadini sui governanti.
Chi possiede la bomba atomica si sente più forte di chi non ce l’ha. La "scienza" della comunicazione in mano ai sacerdoti, ai profeti e ai santoni da molti millenni plagia gli uomini con le favole e le rivelazioni divine. In molti romanzi si parla di scienziati pazzi che manipolando la genetica riescono a costruire robot umani. Ci chiediamo: cosa erano i fanatici che andavano a morire per Hitler, Mussolini e Stalin ? E cosa sono i kamikaze di oggi manipolati da fanatici religiosi nazionalisti che li mandano a morire. Insomma non è necessaria la scienza genetica per creare dei robot umani, basta e avanza la vecchia scienza della propaganda in sistemi chiusi.
Tutte le volte che l’uomo ha cercato di fissare delle regole "scientifiche" all’arte, alla morale e alla poltitica ha atrofizzato l’evoluzione di queste discipline. Ecco alcuni esempi. Se avessimo portato a Leonardo da Vinci un quadro cubista di Picasso (che oggi vale molti milioni di euro), il sommo pittore del ‘400 lo avrebbe sicuramente buttato in una pattumiera. La morale degli schiavisti dei secoli passati (erano schiavisti anche Platone e Aristotele e gli autori della Bibbia) era certamente diversa dalla morale degli europei dei nostri giorni; e così per la morale dei Papi che avevano per secoli accettato l’Inquisizione. In politica Hitler era riuscito a inserire nei codici legislativi il concetto di "razza", ed era riuscito a creare cittadini di serie A (gli ariani) e cittadini di serie B (gli ebrei). Hitler e Mussolini erano persino riusciti a far provare "scientificamente" da alcuni genetisti le loro assurde teorie. Il pericolo è sempre in agguato sia con la propaganda sia con la genetica. E’ il cittadino cosciente il guardiano degli scienziati al servizio dei potenti.

Bruno Ferrari

________________________________________________________________________________________

articolo del 01/07/2009

I NEMICI DELLA SCIENZA
di Franco De Rossi


Si sente spesso dire: la scienza in mano all’uomo è maledetta e sta distruggendo il pianeta. Chi parla così vede solo il lato peggiore dell’uso scientifico, e sembra che rinpianga il tempo in cui la scienza e la sua applicazione, la tecnologia, muovevano i primi passi. Molti dimenticano che soltanto cinquantamila anni fa in tutto il pianeta vivevano non più di trentamila persone. Ma come vivevano con poca scienza ? Avevano scoperto il fuoco e usavano i coltelli di pietra per tagliare le carni e le pelli degli animali uccisi (il controllo del fuoco e i coltelli sono frutto di un’idea (scienza) e della sua applicazione (tecnologia). Pochissimi individui in quell’epoca superavano i trent’anni ed erano spesso il cibo degli animali più forti. Alzi la mano chi vorrebbe ritornare nella preistoria ?
E’ vero che la scienza e la tecnologia in mano all’uomo, soprattutto nella nostra epoca, hanno creato notevoli disastri al pianeta e alla sua atmosfera, ma non dobbiamo dimenticare che per la quasi totalità degli abitanti della terra la fame, le malattie, le pestilenze e molte superstizioni sono state sconfitte dalla scienza e dalla tecnologia; e spesso chi disprezza la tecnologia la usa più di chi la benedice. Perciò è chiaro che molti disprezzano ciò che vogliono, e nessuno vorrebbe ritornare nei secoli passati. La scienza è come un coltello (uno strumento in mano all’uomo): lo possiamo usare per uccidere ma anche per tagliare il formaggio. Nessun giudice condannerebbe il coltello perché ha causato la morte di qualcuno. Rifiutare tutta la scienza perché è nociva sarebbe come buttare il bambino con l’acqua sporca.
Invece bisogna colpire i governanti che non vogliono fare leggi che prevedano punizioni severissime (prigione e multe miliardarie) contro chi distrugge l’ambiente. Bush ha rifiutato il protocollo di Kyoto perché il tenore di vita degli americani non si tocca; invece di bocciarlo gli americani lo hanno rivotato. Berlusconi ha regalato agli inquinatori e distruttori dell’ambiente favorevoli condoni; invece di una sonora bocciatura, mezza Italia l’ha votato. Ogni sera vedo nelle tv private molti mega concerti: migliaia di giovani con le mani alzate urlano assieme ai loro idoli. Giovani che lottano per difendere l’ ambiente ne vedo pochissimi, giovani consumisti fanatici sono invece quasi la totalità. Il Circolo Bertrand Russell di Treviso è nato 29 anni fa e ha fatto molte battaglie per difendere l’ambiente. Tra gli iscritti non abbiamo mai avuto giovani.
Se i politici anti-ambientalisti vengono super votati e le masse se ne fregano dei disastri ambientali, perché dovrei disprezzare la scienza e la tecnologia che sono solo strumenti in mano all’uomo ? Gli uomini che non fanno niente per fermare il disastro ecologico non meritano rispetto; purtroppo questi uomini disinteressati sono la stragrande maggioranza. Perciò non credo che l’uomo attraverso la sua scienza salverà il mondo da un prossimo disastro, ma se il pianeta verrà distrutto questa umanità avida, incosciente e sorda ai richiami degli uomini coscienti, penso che se lo meriti.

Home Page | massime di grandi pensatori | bio e opere | interviste a b_russell | commenti e considerazioni | pagine di discussione | le costituzioni che hanno cambiato la società | libri consigliati | testi classici del libero pensiero | pensieri e aforismi di b_russell | petizioni | Mappa del sito


Torna ai contenuti | Torna al menu