| home | Popper | Novecento | filosofi attuali |
Quando Popper perse ai dadi con Dio, ma vinse con gli induttivisti
di Eric Amich
Ex absurdum sequitur quodlibet, asseriva Duns Scoto. Ovvero, dall'assurdo segue logicamente qualunque cosa. Ebbene, questo principio crolla nel mondo logico di LQ, la logica quantistica, costruita per la prima volta da Garrett Birkhoff e Johan von Neumann nel 1936, con un memorabile articolo intitolato The Logic of Quantum Mechanics. Essi tentarono così di "scoprire quali strutture logiche [...] sperare di trovare in teorie fisiche che, come la meccanica quantistica, non ubbidiscono alla logica classica."
Nella logica LQ venne meno quella che era stata considerata per un certo periodo una proprietà fondamentale, quella definita proprietà di Lindenbaum, detta altrimenti completabilità logica. Un procedimento logico soddisfa detta proprietà quando non ammette l'esistenza di problemi indecisi. Essa non può essere contraddittoria quando ammette un'estensione non contraddittoria e logicamente completa espressa nel suo particolare linguaggio formale, LF.
Contro questa costruzione teorica si scagliò, ben trentadue anni dopo, il filosofo della scienza Karl Popper, con un articolo pubblicato dalla rivista "Nature" nel 1968, intitolato Birkhoff and von Neumann's Interpretation Of Quantum Mechanics. La critica di Popper era sbagliata da un punto di vista logico, ma sotto diversi aspetti aveva un qualche fondamento. Popper non voleva ammettere un indebolimento della logica esplicito nella teoria LQ. Per Popper la logica doveva rimanere una scienza a priori, avente come caratteristica principale l'assoluta indipendenza da ogni contenuto. Rifiutava pertanto di prendere in considerazione la possibilità di scegliere logiche diverse dalla logica, più adatte di questa al carattere empirico di particolari situazioni.
Già nella Logica della scoperta scientifica, che fu terminata nel 1934, quindi anteriormente allo scritto di Birkhoff e von Neumann, Popper anticipava: «...sostituendo alla parola "vero" la parola "probabile" e alla parola "falso" la parola "improbabile", non si guadagna nulla. Solo si tiene conto dell'asimmetria tra verificazione e falsificazione - cioè dell'asimmetria che risulta dalla relazione logica tra teoria e asserzioni-base - è possibile evitare le trappole del problema dell'induzione. Può forse darsi che coloro che credono nella logica della probabilità tentino di affrontare la mia critica asserendo che essa nasce da una mentalità "legata alla cornice della logica classica", e che perciò non è in grado di seguire i metodi di ragionamento impiegati dalla logica della probabilità. Non ho proprio nulla in contrario ad ammettere di non essere capace di seguire questi metodi di ragionamento.» (1)
In un passo precedente Popper, ancora in merito alla probabilità, aveva scritto: «Io spero che queste indagini aiuteranno a chiarire l'insoddisfacente situazione attuale, in cui i fisici fanno un grande uso della probabilità senza essere in grado di dire, con una certa coerenza, che cosa intendano con "probabilità".» (1)
A tal proposito, Popper, infine precisava: «Le asserzioni probabilistiche e le asserzioni-base non possono così, né contraddirsi reciprocamente né implicarsi [entail] reciprocamente. E tuttavia sarebbe egualmente un errore il credere, che questo fatto, che tra asserzioni probabilistiche e asserzioni-base non vigano relazioni logiche di nessun genere. E sarebbe ugualmente lontano dal vero il credere che, mentre fra le asserzioni di questi due tipi vigono relazioni logiche (poiché certe sequenze di osservazioni possono, ovviamente andare più o meno d'accordo con un'asserzione di frequenza), l'analisi di queste relazioni ci costringa a introdurre una logica probabilistica speciale che spezzi i vincoli della logica classica. Contro questi punti di vista, io credo che le relazioni in questione possano essere analizzate completamente nei termini delle relazioni logiche "classiche" di deducibilità e contraddizione.» (1)
La pubblicazione dell'articolo di Birkhoff e von Neumann rappresentò quindi un colpo piuttosto duro alle concezioni popperiane. Sia perché egli vi vedeva, un po' pregiudizialmente, un ritorno dell'induttivismo, che credeva di aver ferocemente stroncato, sia perché egli si era speso eccessivamente contro logiche deboli e probabilistiche.
Tale indebolimento della logica era invece rivendicato come motivo di soddisfazione da Birkhoff e von Neumann.
Innanzi tutto, occorre inquadrare la vicenda. «La proposta di Birkhoff e von Neumann non incontrò un interesse immediato nell'ambiente dei fisici e nemmeno in quello dei logici matematici. Probabilmente ai fisici apparve troppo astratta: la discussione sulla meccanica quantistica negli anni trenta usava di solito concetti più concreti e più legati al linguaggio filosofico tradizionale.» (2)
Dovettero trascorrere circa ventanni per avere uno sviluppo in grande stile di LQ, prima con con studi di Geoge Mackey, Josef Jauch, Costantine Piron, Patrick Suppes e David Finkelstein; poi con David Foulis, Richard Greechie, Stanley Gudder, Enrico Beltrametti, Gianni Cassinelli e altri ancora.
Bisogna partire dal concetto di rappresentazione matematica degli stati puri di un sistema fisico per comprendere il nocciolo della questione.
Lo stato puro è il massimo di informazione che un qualsiasi osservatore potrebbe raggranellare attorno al sistema. Ciò vale sia per un approccio classico che per per uno quantistico. Tuttavia, in un sistema classico l'informazione è logicamente completa. Questo porta all'affermazione che gli stati puri sono in grado di determinare tutti gli eventi fisici possibili nel sistema considerato. In un approccio quantistico le cose vanno diversamente. Volessimo contare quanti elettroni passano attraverso una parete forata in due punti, come racconta Richard Feynman (3), ci troveremmo nella stupefacente condizione di constatare : i) che non è possibile prevedere da quale foro passerà ogni singolo elettrone. ii) che se accendiamo la luce nel locale prima buio, i risultati muteranno significativamente. Ovvero la luce influenzerà il comportamento degli elettroni. «In altre parole - notava Feynman - non è possibile compiere esperimenti tanto accurati quanto si vorrebbe.» (3)
Nell'occasione, Feynmann, ripropose il principio di indeterminazione scoperto da Heinseberg, con la seguente definizione diversa dall'originale: «E' impossibile costruire una qualsiasi apparecchiatura, per determinare attraverso quale foro passa l'elettrone, la quale non disturbi allo stesso tempo l'elettrone tanto da distruggere la figura di interferenza.» (3)
Ma il problema non è solo qui. Infatti, a temperatura ambiente un gas si comporta secondo le leggi della meccanica classica. Il suo comportamento e le proprietà del sistema fisico in cui è inserito sono descritte dalla statistica classica di Boltzmann. Al contrario, a bassa temperatura, la lunghezza d'onda termica aumenta fino a diventare paragonabile alla distanza media tra atomi. In tali circostanze, le funzioni d'onda di due atomi adiacenti si sovrappongono, perdendo la loro identificabilità. Una situazione di questo genere impone di studiare il comportamento dei gas sulle basi della statistica quantistica.
Rispetto a questi problemi, Popper si pronunciò più volte per un indeterminismo di tipo statistico e venne anche criticato da Einstein per le sue posizioni estreme. In realtà i due erano forse più solidali di quanto appaia dai documenti, dai carteggi e dai testi. Mentre Einstein era, tuttavia, più impegnato a criticare la meccanica quantistica per la sua incompletezza, da posizioni deterministiche, Popper era più assillato dall'idea di una caduta della logica classica, il suo personale bastione contro la bestia nera dell'induttivismo.
Ciò contro cui polemizzava Popper era, per così dire, "nell'aria". Un nuovo tipo di logica, una "struttura algebrica più debole" finì con l'arrivare, solo due anni dopo la pubblicazione de La logica della scoperta scientifica.
Protagonisti furono Birkhoff e von Neumann. Quest'ultimo si era già segnalato in precedenza perché nel 1928 aveva posto le basi della teoria dei giochi e dello studio matematico delle strategie di ottimizzazione con l'articolo Per la teoria dei giochi in società. Nel 1932 aveva pubblicato Mathematische Grundlagen der Quantenmechanik, nel quale aveva trovato due leggi fondamentali per l'evoluzione degli stati dei sistemi quantistici:
«I. Quando non si effettuano misurazioni, gli stati di tutti i sistemi fisici evolvono, senza eccezione alcuna, in conformità alle equazioni dinamiche del moto
II. Quando vengono effettuate misurazioni, gli stati dei sistemi oggetto di misurazione evolvono in conformità al postulato del collasso e non alle equazioni dinamiche del moto.» (4)
LQ si fondava sulla sostituzione dello spazio di fasi fondamentale nella logica classica con uno spazio hilbertiano. Alla base di questa trovata vi era l'idea seguente: i rappresentanti matematici degli eventi quantistici non sono meri insiemi, ma sottospazi chiusi di particolari spazi vettoriali, chiamati spazi di Hilbert.
«Da un punto di vista intuitivo, uno spazio di Hilbert H può essere immaginato come una specie di "ambiente matematico", dove "vivono" tutti i rappresentanti matematici dei concetti fisici relativi al sistema quantistico studiato. In questo ambiente astratto, gli stati puri corrispondono a particolari vettori dello spazio. Si conviene poi che uno stato puro verifichi un certo evento, quando gli assegna probabilità 1.» (5)
Non posso purtroppo scendere in ulteriori dettagli. Gli interessati potranno utilmente consultare la bibliografia proposta in fondo.
Qui interessa notare che Popper trovò qualcosa di sbagliato nella struttura logico-quantistica che si propone dall'insieme dei sottospazi chiusi in uno spazio H. Per Popper, a dispetto delle apparenze, la struttura collassa su un'algebra di Boole, cioè su un sistema logico classico.
In questo tipo di sistema vi sono condizioni che devono essere sempre soddisfatte, come la già accennata proprietà di Lindenbaum, l'esistenza di un linguaggio formale LF, una relazione di conseguenza deduttiva |- e una relazione di conseguenza semantica |=.
Abbreviando al massimo, possiamo aggiungere che una logica L è definita come assiomatizzabile quando ammette una relazione di conseguenza deduttiva, fondandola su una dimostrazione decidibile. In tale contesto deve essere possibile derivare la conclusione che B è una conseguenza di A e che ciò è vero oppure falso, naturalmete in un numero finito di passaggi.
Popper commise un errore, perché muovendo dall'osservazione [corretta] che Birkhoff aveva dimostrato che ogni reticolo ortocomplementare è anche un'algebra di Boole, purché sia unicamente complementato, arrivò a dire che se Birkhoff e von Neumann parlavano di un'operazione di complemento, questo implicava che la negazione fosse unica. Un simbolo come a' implica un'unica operazione [l'operazione indicata dal simbolo '] Nel caso in cui a abbia più di un complemento, è evidente, secondo Popper, che si cade in contraddizione.
«Dove sta l'errore in questo ragionamento? In realtà, la struttura degli eventi quantistici risulta essere allo stesso tempo ortocomplementata e non unicamente complementata. Infatti, ogni evento quantistico (diverso dall'evento certo e da quello impossibile) risulta avere infiniti buoni complementi.» (5)
Scegliendo un evento come la negazione quantistica di un dato evento, troviamo così un elemento speciale nella classe di buoni complementi. In altre parole, LQ non collassa su un algebra di Boole.
Anche sulla possibilità di usare LQ per studiare il la questione delle possibili variabili nascoste (cioè, sostanzialmente, dati dei sistemi fisici quantistici che ignoriamo perché non li percepiamo) Popper fu molto critico: « Si noti - scrisse nell'articolo citato - che essi [Birkhoff e von Neumann] propongono un indebolilmento della struttura logica ... Non è possibile derivare alcuna conclusione sulle "cosiddette variabili nascoste" nel contesto di un sistema così indebolito, a meno che quelle conclusioni non siano derivabili dal sistema classico più forte.» [cito da come riportato in (5)]
La questione delle variabili nascoste non era comunque un problema strettamente logico, ed ai fisici non interessava primariamente sotto questo profilo. Originava dal famoso saggio proposto da Einstein-Podolsky-Rosen nel 1935, intitolato significativamente Can Quantum-Mechanical Description of Physical Reality be considered Completed?
Il commento di Enrico Beltrametti in proposito è illuminante:«In questo contesto si affacciò con una certa insistenza la congettura che la descrizione degli stati di un sistema fisico offerto dalla meccanica quantistica fosse incompleta e che tale incompletezza fosse responsabile del carattere indeterministico della teoria. In altre parole, si è supposto che la meccanica quantistica sia indeterministica solo perché il nostro livello di conoscenza non ci mette in grado di "vedere" qualche variabile addizionale, capace di "completare" la descrizione del sistema fisico fornito dalla meccanica quantistica.
Secondo questa congettura, ove riuscissimo ad individuare queste nuove variabili, attualmente "nascoste" recupereremmo un livello di descrizione più profondo di quello quantistico e a tale livello potrebbe essere recuperato il determinismo.» (6)
In realtà, l'enigma delle "variabili nascoste" non fu risolto per via logico-deduttiva, come forse avrebbe desiderato Popper, o lo fu solo parzialmente.
«Nel 1964 il problema ebbe una svolta cruciale: J. Bell dimostrò che per un'ampia famiglia di teorie e variabili nascoste, le cosiddette teorie locali, non è possibile riprodurre con operazioni di media sulle variabili nascoste tutte le previsoni della meccanica quantististica.» (5)
Beltrametti enuncia con chiarezza estrema: «Il risultato di Bell ebbe il grande merito di portare sul terreno sperimentale il tema di ipotetici completamenti deterministici della meccanica quantistica, e suscitò un grande interesse per la realizzazione di esperimenti sensibili alle discrepanze tra le previsioni della meccanica quantistica e quelle delle teorie locali e variabili nascoste.» (6)
L'esistenza o la non esistenza di determinate "cose", anche se impossibili da misurare o da valutare, può avere conseguenze rilevabili sperimentalmente. Ad esempio, se Einstein avesse avuto ragione, i dati ottenuti da due apparecchi lontani fra loro in grado di misurare lo spin di particelle su più assi scelti a caso, avrebbero dovuto concordare in più del 50% dei casi. Ma, al tempo in cui Bell formulò l'ipotesi, cioè negli anni '60, non esistevano apparecchiature idonee a questo tipo di esperimenti.
Finalmente, nel 1981, Alain Aspect fu in grado di realizzare il primo di una serie esperimenti di alta qualità.
Partendo dal fatto empirico che ogni atomo di calcio, quando ritorna allo stato normale, cioè di minore energia, emette due fotoni che si allontanano fra loro in modo simmetrico, con spin perfettamente correlati, Aspect esaminò i dati raccolti dalle numerose ripetizioni dell'esperimento, e notò che questi non concordavano in più del 50% dei casi. In pratica, l'esperimento dimostrava che Einstein aveva avuto torto nel suggerire l'idea di variabili nascoste.
Quanto a Popper, potremmo dire che, persa una partita: quella con LQ, Tuttavia ne vinse un'altra non meno importante. La rivoluzionaria scoperta di Bell ed Aspect non veniva da un induttivismo puro, bensì da esperimenti compiuti alla luce di una teoria già formulata a priori, quindi da una ipotesi da sottoporre a severo controllo, individuando gli elementi ed i dati che potevano confutarla. Almeno su questo terreno, Popper si prese un'importante rivincita.
note:
1) Karl Popper - La logica della scoperta scientifica - Einaudi 1970
2) Maria Luisa Dalla Chiara, Roberto Giuntini - La logica quantistica - in Filosofia della fisica a cura di Giovanni Boniolo - Bruno Mondadori 1997
3) Richard Feynman - La legge fisica - Bollati Boringhieri 1971
4) David Z. Albert - Meccanica quantistica e senso comune - Adelphi 2000
5) Maria Luisa Dalla Chiara e Roberto Giuntini - Popper e la logica della meccanica quantistica - in "Le Scienze" n 414 - febbraio 2003
6) Enrico Beltrametti - Realismo classico e realtà quantistica - In "Le Scienze" n. 349 settembre 1997
Bibliografia:
Johann von Neumann - I fondamenti matematici della meccanica quantistica Il Poligrafico, Padova 1977
Maria Luisa Dalla Chiara , Roberto Giuntini - La logica quantistica - in Filosofia della fisica a cura di Giovanni Boniolo - Bruno Mondadori 1997
G. Birkhoff, J. von Neumann - The logic of quantum mechanics - in "Annals of Mathematics" - pp. 823-843
G. Cattaneo, M.L. Dalla Chiara, R. Giuntini - Fuzzy-intuitionistics quantum logics - in "Studia logica" n.52 1993
E. Beltrametti, G. Cassinelli - The logic of quantum mechanics - in Encyclopedia of Mathematics and its Application, a cura di G.C. Rota, Addison-Wesley, Reading