Il dibattito sul rapporto fra filosofia e scienza è di grande rilevanza nell'Ottocento ed è al centro della filosofia del Novecento. In questa sede'Ipertetesto , esso verrà trattato per tre aspetti:(N.B. Il testo è tratto integralmente dal citato volume di De Bartolomeo-Magni, mentre nel presente Ipertesto vengono sviluppati solo il punto 1, e il punto 3.)
1. i profondi cambiamenti, dovuti alle svolte prodotte dalla ricerca scientifica, dell'immagine del mondo e del modo di essere e di concepirsi della scienza stessa;
2. le domande che la filosofia pone alla scienza, a partire dalle domande di significato, cui la scienza non sembra poter rispondere;
3. epistemologico, cioè relativo ai quadri concettuali ed ai procedimenti mctodici della scienza.
Sul primo aspetto, si ricorda che, ai primi del Novecento, è anzitutto la scienza a rimettere in discussione se stessa. Il problema del senso e dei limiti di validità del sapere scientifico viene affrontato da un'angolazione nuova, inerente la pratica scientifica stessa. A partire dalle teorie fisiche di Planck e, soprattutto, di Einstein, i presupposti delI"'immagine scientifica del mondo" che avevano dominato la cultura e la filosofia moderne vengono scossi e indeboliti dall'interno delle stesse teorie scientifiche.
Uno dei temi di fondo del dibattito filosofico sulla scienza - e della stessa riflessione della scienza su di sé e sui propri principi - è stato quello sul meccanicismo e sulla visione meccanicistica della natura, che ha coinvolto alcune generazioni di scienziati e filosofi dcl XIX e XX secolo. Tale dibattito si lega strettamente a quello intensissimo che si era svi-luppato sin dagli inizi della rivoluzione scientifica dell'età moderna e che aveva riguardato, ad esempio, l'ambito e il valore di verità delle proposizioni e dei metodi scientifici, il ruolo e il significato della scienza nella cultura e nella società umana, il rapporto che era possibile stabilire fra l'immagine del mondo fornitaci dalla scienza e l'ordine dei valori della tradizione etica e religiosa. Esso, comunque, si accompagna ed è in gran parte determinato dal rivolgimento teorico che ha contrassegnato la rivoluzione scientifica dei primi deI '900 (teorie quantistica e della relatività).
Il secondo aspetto si sviluppa all'esterno della pratica scientifica con un ventaglio di orientamenti estremamente ampio, i cui punti estremi sono due. Da un lato l'opera di demolizione teorica della validità conoscitiva della scienza e della presunzione di essere l'unica vera conoscenza, che è effettuata da taluni movimenti di pensiero, in primo luogo dallo Spiritualismo e dal Neoidealismo. Dall'altro il tentativo, operato dal Neopositivismo, di riproporre, ma su basi del tutto nuove, costituite da una più rigorosa riflessione e fondazione epistemologica, l'idea positivista del primato della scienza nella conoscenza e nella cultura.
La questione cruciale che viene dibattuta è quella della capacità o meno della scienza per un verso di fornire le basi per un nuovo ordine razionale della cultura e della società, e per altro verso di soddisfare la domanda di significato che l'uomo non può fare a meno di porsi. Si tratta cioè del problema del rapporto che si pone fra scienza e filosofia, fra conoscenza della realtà e domande sul significato di tali conoscenze per l'uomo e per la sua esistenza.
Il terzo aspetto, quello epistemologico, riguarda invece i fondamenti e la natura stessa del sapere scientifico. La riflessione epistemologica mira a determi-nare le condizioni di validità ed i limiti del sapere scientifico, ciò che consente di distinguere le proposizioni considerate "scientifiche" da quelle che non lo sono, in quanto attribuite ad altri campi e forme di conoscenza (la metafisica, l'etica, ecc.), In questo ambito grande rilievo ha la riflessione che viene compiuta sulle rivoluzioni scientifiche. E se è vero che una riflessione "epistemologica" accompagna l'intero arco della filosofia (come mostra la stessa sua etimologia, basata sui termini greci di epistéme, scienza, e lògos, discorso), è anche vero che, come momento di riflessione sistematica e di autoconsapevolezza metodologica, anzi come vera e propria disciplina, essa si è affermata pienamente solo nel Novecento.
L'UNIVERSO COME MACCHINA
Il meccanicismo è il modello teorico della scienza dominante nell'Età moderna, anche se nell'Antichità è stato alla base dell'atomismo. Descrive l'universo come un'immensa macchina, costituita da corpi in movimento, che interagiscono fra loro in base ad una legge di causalità necessaria, ad una rigida concatenazione di cause e di effetti, rigorosamente determinabile sul piano matematico.
In tale visione del mondo, evidentemente, si è privilegiata la meccanica fra le altre scienze, con le sue due grandi ripartizioni della statica (risalente ad Archimede) e della dinamica (costituitasi solo con Galilei e Newton). E, con la meccanica, si sono privilegiate la matematica e la geometria, cui quella scienza si lega strettamente. I concetti portanti del meccanicismo sono quindi quelli di inerzia, massa, forza, sui quali è stata sin dalle origini fondata la meccanica come scienza.
È nell'accezione newtoniana che Kant riproporrà il determinismo causale come principio costitutivo del mondo fenomenico. E, con esso, il meccanicismo, che viene da lui adottato nella Storia universale della natura e teoria del cielo come modello di spiegazione dell'origine stessa dell'universo, a partire dalla nebulosa da cui, per l'azione delle sole forze newtoniane di attrazione e repulsione, si sarebbero poi prodotti il nostro Sistema solare e l'intera Galassia, o addirittura (ipotizza il filosofo) anche altre galassie. Nel suo modello cosmico, la materia è regolata da leggi determinate e necessarie, Il filosofo ritiene che "la formazione dei corpi celesti, le cause dei loro movimenti, l'origine, insomma, della presente costituzione dell'universo saranno messi in luce, molto prima che si possa spiegare in modo chiaro ed esauriente, su basi meccaniche, come nasce un filo d'erba o un bruco". Egli ritiene quindi fiduciosamente che, grazie a quel modello di spiegazione e alla fisica newtoniana, "la parte fisica della scienza dell'universo raggiungerà, in un prossimo avvenire, la stessa perfezione a cui Newton ha portato la parte matematica".
APOGEO E CRISI DEL MECCANICISMO
Analoga fiducia nutre il grande matematico e fisico Laplace, la cui teoria dell'origine dell'universo è simile a quella di Kant e che è convinto assertore di un determinismo assoluto. Sua, infatti, è la tesi dell'universo come un immensa "macchina" cosmica, nella quale ogni stato è "l'effetto del suo stato anteriore e la causa del suo stato futuro". Così, afferma con un'immagine divenuta celebre, se vi fosse un'intelligenza superiore "che, per un dato istante conoscesse tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono e se, per di più, essa fosse abbastanza profonda da poter sottomettere questi dati all'analisi", essa "abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire come il passato sarebbe presente ai suoi occhi". In altri termini, tale intelligenza sarebbe capace di racchiudere in un'unica visione complessiva (o addirittura in una sola formula) l'insieme dei processi dell'universo. Ma l'uomo non possiede tale capacità: quindi, a lui è consentito solo approssimarsi indefinitamente a quell'obiettivo ultimo (senza poterlo mai conseguire del tutto) mediante lo sviluppo della scienza.
Tale sviluppo, nell'Ottocento, sarà appunto ispirato a questa grande utopia, sostenuta dal meccanicismo. Si cercherà sempre di più - mediante quel modello - di unificare i diversi campi conoscitivi in una teoria unitaria dei fenomeni fisici.
Nel XIX secolo, ad esempio, si tenta di legare strettamente chimica e fisica (con la teoria atomica di John Dalton, oppure con la teoria cinetica dei gas, o stabilendo una correlazione fra fenomeni elettrici e chimici), si ripropone la teoria ondulatoria della luce e si collegano elettricità e magnetismo (con Michael Faraday, ma, soprattutto, con James Maxwell e la sua teoria del campo elettromagnetico, che unifica in un sistema di equazioni il magnetismo, l'elettrologia e la luce), o si formula il principio della conservazione dell'energia, che consente di realizzare uno studio unitario dei fenomeni termici. Anche in termodinamica, dove pure sembra affermarsi l'idea antimeccanicistica della degradazione dell'energia, vi sarà uno scienziato, Boltzmann, che "dimostrando che l'irreversibilità entropica e la degradazione dell'energia risultano dal carattere disordinato dell'agitazione molecolare, finirà per fornire una spiegazione meccanicistica statistica del secondo principio della termodinamica".
Nel XIX secolo, quindi, il meccanicismo sembra avere toccato il suo apogeo.
Eppure, sarà proprio grazie alle grandi conquiste della scienza ottocentesca - ed agli sforzi operati dagli scienziati nel ricondurre fenomeni appartenenti a campi scientifici diversi ad un alveo comune - che esso entrerà in crisi. Già il modello di Maxwell, basato sulla teoria ondulatoria, per spiegare la propagazione delle onde elettromagnetiche conservando il modello meccanicistico, aveva dovuto ipotizzare la presenza di una sostanza immobile, l'etere (cioè un mezzo elastico, ma uniforme e fisso nello spazio), capace di sostenere quella propagazione, che veniva considerata impossibile nel vuoto. Ma come spiegare, allora, altri fenomeni, ad esempio la regolarità del moto dei pianeti, che non trovano certo resistenza in una sostanza come quella ipotizzata da Maxwell? Non si tratta di un accorgimento utile per giustificare un dato ordine dei fenomeni (il moto trasversale delle onde elettromagnetiche), ma che è di ostacolo rispetto ad altri ordini e piani di realtà, quindi ambigui, seppur immediatamente accettati dagli scienziati per poter condurre con sicurezza le loro ricerche?
Proprio l'ambiguità dei concetti adottati acriticamente dalla scienza viene messa in evidenza dal fisico e filosofo Ernst Mach, teorico dell'empiriocriticismo (una concezione critica del valore teoretico della scienza, basata su un empirismo radicale), che porrà in evidenza il carattere metafisico della concezione meccanicistica della natura, in quanto "caratterizzata da una precipitazione e unilateralità di pensiero". In tale concezione (e, in generale, nella scienza della natura) usiamo concetti, come ad esempio quelli di "causa", "materia", "forza", "per i quali abbiamo dimenticato come siamo giunti ad essi" e che non risultano fondati empiricamente. Tale concezione ci appare quindi "come un'ipotesi storicamente comprensibile, giustificabile, forse anche temporaneamente utile, ma del tutto artificiosa". Allo stesso modo, Mach conduce una critica rigorosa ai concetti di spazio, moto e tempo assoluti, che avevano costituito l'architrave della scienza newtoniana. Così anche i concetti di causa (trasformato in quello di funzione) e di massa (ricondotto al confronto fra l'accelerazione che un corpo imprime ad un altro e quella che quest'altro riceve) vengono riconsiderati criticamente, anticipando, anche qui, la messa in discussione di alcuni capisaldi teorici del meccanicismo.
LA RIVOLUZIONE EINSTEINIANA
Da queste premesse critiche trae origine la rivoluzione teorica della relatività, che mette in discussione proprio quelle basi concettuali del newtonismo. Einstein estende ai fenomeni elettromagnetici quel principio di relatività che Galilei aveva già affermato per i fenomeni meccanici. Solo con Einstein, quindi, e dopo la riconfigurazione generale da lui compiuta del campo della fisica, è possibile affermare, per l'insieme del reale, che ogni movimento è relativo e commisurabile solo a realtà che sono anch'esse in movimento.
Einstein è colpito dalla rottura di simmetria introdotta nella meccanica tradizionale dalle equazioni di Maxwell. L'asimmetria gli sembra rompere la "completezza" e la coerenza formale complessiva della teoria fisica: ciò lo conduce, ragionando contro il modus operandi comune della scienza del suo tempo, alla consapevolezza della necessità di una ridefinizione complessiva del quadro della teoria. In altri termini, laddove altri hanno visto solamente il particolare e non l'insieme, Einstein guarda invece all'insieme: individuata la pecca formale, procede a rimuoverla mediante l'adozione di un principio generale di grande semplicità e potenza. La sua teoria - ispirata anch'essa a una prospettiva unificatrice delle leggi dei fenomeni fisici, a cui lo scienziato guarderà fino alla fine - pone fine agli sforzi, operati dagli scienziati, di conciliare le nuove leggi scientifiche con il modello dominante della fisica moderna - quello newtoniano - e dello stesso meccanicismo "classico".
Gli esperimenti di Galileo avevano dimostrato come la caduta dei gravi all'interno di una nave in moto uniforme non differisca in nulla dalla caduta di gravi sulla terraferma, cioè come non sia possibile stabilire, facendo cadere un grave al chiuso della stiva di una nave che si muove con moto uniforme, se la nave sia ferm aoppure si muova. Lo stato di quiete e di moto di un corpo è sempre relativo al sistema di riferimento: il moto relativo uniforme della Terra o della nave non cambia in nulla la direzione del movimento dei corpi che si spostano su di essi.
Ma è possibile determinare il moto della Terra misurando gli effetti ditale moto sui fenomeni luminosi, ossia misurando le variazioni della velocità dei raggi luminosi dovute al moto della Terra? L'esperimento effettuato, in tal senso, da Michelson e Morley nel 1887, sommando la velocità c della luce con la velocità v della Terra (cioè basandosi sul principio essenziale della meccanica classica per il quale è possibile sommare la velocità di due corpi che si avvicinano e sul presupposto dell'esistenza dell'etere), era fallito.
Non restava, secondo Einstein, che affermare la costanza della velocità della luce a circa 300.000 km al secondo. E questo proprio in base al principio di relatività, cioè estendendo ai fenomeni elettromagnetici il principio di relatività galileiano, utilizzato per i fenomeni meccanici. Ogni movimento è relativo all'osservatore che intende misurarlo ed agli strumenti che questi adotta per farlo. E poiché i segnali luminosi con cui misuriamo la simultaneità di due eventi (e con cui dovremmo quindi misurare anche la variazione della velocità della luce) viaggiano alla velocità della luce, ne deriva che è impossibile determinare una variazione ditale velocità, in quanto ogni misurazione della variazione dipenderebbe da un mezzo (la luce) che è proprio ciò che dobbiamo misurare e che sarebbe evidentemente soggetto a quella stessa variazione (proprio come i gravi ipotizzati da Galilei, chiusi nella stiva della nave moventesi con moto uniforme) che si vorrebbe misurare. Dimostrando la ragione per cui la velocità della luce deve essere considerata come costante assoluta dei fenomeni fisici, e, quindi, la ragione dell'impossibilità di misurare variazioni della velocità della luce, Einstein sconvolge le basi stesse della fisica newtoniana. Egli dimostra che, paradossalmente, la velocità della luce de-ve essere assunta come costante proprio perché è relativa al sistema di misurazione che è necessario adottare. In altri termini, una variazione della velocità della luce potrebbe essere determinabile solo se si adottasse un metro di misurazione che non fosse esso stesso soggetto a quella variazione. E poiché per determinare la simultaneità di due eventi cosmici occorre utilizzare segnali luminosi che viaggiano con la velocità della luce, ne deriva che è impossibile parlare di "variazione" ditale velocità in quanto la sua misurazione dipende da ciò che si dovrebbe misurare.
Di conseguenza, Einstein critica e smantella un caposaldo della fisica newtoniana, quello dell"'assolutezza" dello spazio e del tempo (quindi della velocità, che è un rapporto tra spazio e tempo). Nella teoria della relatività lo spazio ed il tempo sono, infatti, grandezze relative all'osservatore che intende misurarle: il tempo stesso scorre in modo differente in base alla velocità dell'osservatore, e, nel momento in cui ci si approssima alla velocità della luce, il tempo stesso tende ad annullarsi.
IL PRINCIPIO DI INDETERMINAZIONE E LA CRITICA DEL CONCETTO DI CAUSALITA'
Il modello meccanicistico è inoltre investito e messo in discussione dalla seconda rivoluzione della fisica, in questo caso della microfisica, costituita dalla teoria dei quanti di energia. Planck (1901) scopre che l'emissione e l'assorbimento delle radiazioni elettromagnetiche non avvengono in modo continuo, ma secondo quanti di energia, come granuli o unità di energia. Questi hanno un carattere discontinuo, sono proporzionali alla frequenza delle radiazioni e non possono essere inferiori ad una certa costante (la "costante di Planck") della quale sono sempre multipli. Con ciò viene messa in questione la teoria ondulatoria della luce, che si era affermata alla fine dell'Ottocento, con la teoria dei campi di Maxwell, senza essere in grado, però, di sostituirla completamente con una teoria alternativa.
In questo modo, la fisica si trova in una situazione medita e paradossale: mentre la teoria di Maxwell è fondata su un modello ondulatorio, la teoria di Planck è fondata su di un modello corpuscolare. Ci si trova quindi - agli inizi del XX secolo - di fronte a due teorie inerenti i fenomeni elettromagnetici che sono fra loro alternative e caratterizzate dal fatto che ciascuna delle due risulta efficace nella spiegazione di una parte dei fenomeni ma non di un'altra. Ad esempio, il modello ondulatorio di rappresentazione dei componenti ultimi della materia viene impiegato per spiegare il fenomeno della diffrazione della luce intorno a piccoli ostacoli, mentre quello corpuscolare appare necessario per la spiegazione dei fenomeni fotoelettrici. In tal modo, due nozioni della materia fra loro incompatibili fanno da sfondo a due spiegazioni della stessa classe di fenomeni fisici.
Il fisico Njels Bohr suggerisce di adottare il principio di complementarità, per il quale entrambi i modelli di spiegazione, ondulatorio e corpuscolare, sono ritenuti adottabili, in quanto ciascuno, per un determinato tipo di fenomeni, appare in grado di fornire una spiegazione più coerente e rigorosa dell'altra. In altri termini, si tratta di due modi alternativi di descrivere la realtà subatomica, ciascuno dei quali consente di cogliere un aspetto diverso da un altro e che appaiono così in grado di completarsi fra loro.
Ma è soprattutto il principio di indeterminazione di Heisenberg a mettere radicalmente in discussione il modello meccanicistico della microfisica. Esso afferma che è impossibile determinare, con precisione e allo stesso tempo, due coppie di variabili osservate al microscopio, ad esempio la velocità di una particella e la sua posizione, poiché ogni osservazione volta a determinare una variabile (ad esempio la velocità), in quanto adotta l'energia luminosa per osservare un aspetto del fenomeno, comporta una perturbazione nel sistema a cui l'osservazione e la misurazione del fenomeno si rivolgono, modificandone inevitabilmente i parametri, quindi anche i dati relativi alle altre variabili (nell'esempio, quelli relativi alla posizione della particella di cui viene misurata la velocità). A essere investito direttamente dal principio di Heisenberg è il tradizionale principio di causalità, perché, a causa dell'imprevedibilità delle modifiche che l'opera di misurazione dell'osserva-tore genera in un sistema, occorre fare ricorso a modelli statistici per determinare il campo di possibilità entro il quale quelle variazioni vengono a realizzarsi.
IL CASO E LA NECESSITA'
Evidentemente, la messa in discussione del principio di causalità necessaria porta con sé quella del meccanicismo teorico. E non pochi filosofi, negli anni in cui il principio di indeterminazione fu enunciato da Heisenberg (1925), ritennero definitivamente sepolto il problema della "determinazione causale" e indirettamente confermata l'idea del libero arbitrio di indifferenza, cioè la tesi che il fondamento ultimo della realtà fosse spirituale e non materiale. Le teorie spiritualistiche, idealistiche e vitalistiche sembravano trovare così conferma.
Ma la riflessione interna alla scienza ha seguito percorsi diversi ed è giunta a conclusioni molto più articolate e problematiche, cercando di sfuggire ai termini "metafisici" del dibattito che lo scienziato Heisenberg aveva aperto (e aveva egli stesso alimentato, impegnandosi in considerazioni di ordine filosofico).
In termini sia scientifici che filosofici si è di nuovo affrontato, ad esempio, il problema del caso. Questo era sembrato costituire - nella storia del pensiero - un concetto estraneo alla scienza, cioè all'esigenza di stabilire leggi universali e necessarie per le singole classi di fenomeni. L'ordine stesso della natura aveva portato a rifiutare l'idea di imprevedibilità e indeterminazione. Si pensi, ad esempio, all'ironia con cui gli avversari dell'atomismo avevano descritto l'inconseguenza dei suoi presupposti. Come era possibile giustificare un ordine del mondo fondato su catene causali determinate dagli atomi, con la casualità e l'imprevedibilità degli urti che avevano dato il via a ciascuna catena? Come può il mondo essere stato "fatto a caso"? In effetti, l'atomismo di Democrito aveva rappresentato il più coerente e poderoso sforzo di ideazione di un sistema del mon-do in sé autosufficiente, privo cioè di qualsiasi causalità divina, basato certamente sul meccanicismo. Il suo era stato un grandioso modello teorico, alternativo al finalismo platonico-aristotelico, nel quale si era tentato di fornire una spiegazione materialistica e unitaria dell'universo combinando insieme il caso e la necessità.
E proprio Il caso e la necessità è il titolo del famoso scritto di un biologo francese, pioniere della biologia molecolare, Jacques Monod, il 'quale afferma che se gli eventi iniziali di un processo evolutivo sono "fortuiti", quindi senza alcun rapporto con un'idea di fine, "una volta iscritti nella struttura del DNA", quegli eventi singolari, fortuiti ed imprevedibili vengono replicati e moltiplicati in milioni di esemplari, secondo meccanismi causali e non più casuali. Così la selezione degli esseri viventi agisce, sì, "sui prodotti del caso", ma opera successivamente "su un campo di necessità rigorose da cui il caso è bandito".
Diverso è lo scenario descritto dal fisico e chimico belga di origine russa, Ilya Prigogine. Anch'egli, pur respingendo le teorie estreme della casualità e della ferrea causalità meccanica dell'universo, afferma che "nei processi di auto-organizzazione sia il caos che la necessità giocano un ruolo essenziale". Ma descrive tali processi in termini di strutture dissipative, nelle quali l'ordine viene conservato quando si trova lontano dall'equilibrio. Si tratta di stabilità e fluttuazioni che, nel loro intreccio, costituiscono come "una storia senza fine". La storia dell'universo, la nostra storia.
In tal modo, commenta il filosofo Remo Bodei, "la distanza tra la presunta inesorabile fissità delle leggi della natura e l'inafferrabile mutevolezza del mondo umano tende a ridursi". Si è aperto - per la scienza e per la filosofia - uno spazio nel quale, accantonato l'antico e rigido modello meccanicistico di spiegazione dell'universo, sembra possibile affermare un'idea più articolata e problematica di interazione fra eventi e processi non isolabili fra loro e richiedenti, ogni volta, ipotesi falsificabili (Popper), o comunque l'adozione di modelli di spiegazione (anche di quello meccanicistico) funzionali alle strategie ed alle operazioni che l'uomo compie sul mondo.