LA
NATURA E’ LOGARITMICA?
La
natura sembra prediligere i logaritmi. E' un fatto che molti fenomeni naturali
trovino descrizione chiara e sintetica proprio quando vengono formulati facendo
uso dei logaritmi. Prima di mostrare qualche esempio cerchiamo di capire cosa
sono i logaritmi utilizzando lo stesso ragionamento che portò alla loro
scoperta. I
logaritmi vennero scoperti da uno scozzese di nobile famiglia vissuto a cavallo
fra il sedicesimo e il diciassettesimo secolo in pieno scisma anglicano. Si
chiamava John Napier, ma è meglio noto con il nome latinizzato di Nepero. Egli
aveva mostrato fin da bambino una spiccata attitudine per la matematica, che
tuttavia non sfruttò adeguatamente preferendo dedicarsi agli studi di teologia
ai quali si applicò con grande profitto. Mentre era ancora studente aderì alla
associazione per la riforma religiosa e in seguito fu esponente di spicco del
movimento politico protestante, fortemente critico nei confronti del
cattolicesimo. Passato il periodo dell’infatuazione mistica si dedicò con
maggiore assiduità ai problemi della matematica e della fisica applicata
progettando, fra l’altro, macchine da guerra non molto dissimili da quelle che
verranno costruite e utilizzate, tre secoli più tardi, in occasione del primo
conflitto mondiale. 1. I LOGARITMI
FACILITANO I CALCOLI Il nome di Nepero resta tuttavia legato
all’invenzione dei logaritmi ai quali lo scienziato arrivò notando una
sorprendente corrispondenza fra i termini di alcune progressioni numeriche:
queste non sono altro che successioni di numeri ordinati secondo una determinata
legge. Consideriamo quindi anche noi due particolari progressioni numeriche e
precisamente: 0, 2, 4, 6, 8, 10, 12, 14, 16 e 1, 4, 16, 64, 256, 1.024, 4.096,
16.384, 65.536. La prima serie di numeri che abbiamo scritto si chiama progressione aritmetica ed è caratterizzata dal fatto che ciascun
termine si ottiene aggiungendo 2 al precedente. La seconda serie di numeri si
chiama progressione geometrica ed è
caratterizzata dal fatto che ciascun termine si ottiene dal precedente
moltiplicandolo per 4. In generale, in una progressione aritmetica è sempre
costante la differenza fra ciascun termine (escluso il primo) e il suo
precedente e in una progressione geometrica è sempre costante il quoziente fra
ciascun termine (escluso il primo) e il suo precedente. Questi valori costanti
si chiamano ragione delle rispettive
progressioni. Prendiamo
ora due termini qualsiasi della prima progressione scritta sopra, ad esempio il
4 e il 12, sistemati rispettivamente al 3° e al 7° posto e sommiamoli; si
ottiene 16, un numero che occupa il 9° posto della serie. Se adesso
consideriamo i termini che nella seconda progressione si trovano sistemati
anch’essi al 3° e al 7° posto, cioè il 16 e il 4.096 e li moltiplichiamo
otteniamo un numero, 65.536, che occupa lo stesso posto, il nono, che nella
prima progressione occupava la somma. Facciamo
un altro esempio. Prendiamo il 6 che è sistemato al 4° posto della prima
progressione e sottraiamolo dal 14 che sta all’8° posto; otteniamo 8, un
numero che occupa il 5° posto della serie. Passiamo ora alla seconda
progressione e dividiamo i due numeri sistemati, come i precedenti,
rispettivamente all’ottavo e al quarto posto cioè 16.384 e 64; otteniamo 256,
cioè un numero che ancora una volta occupa il 5° posto, esattamente dove si
trovava l’8 (il risultato della sottrazione) all’interno della progressione
aritmetica. Il
procedimento apparentemente laborioso che abbiamo illustrato serve a chiarire
che le operazioni di moltiplicazione e di divisione, più difficili da eseguire,
possono essere sostituite da quelle di addizione e sottrazione concettualmente
più facili. Ebbene, i logaritmi sono proprio questo: servono a semplificare i
calcoli. Vediamo quindi di definire con maggiore precisione questi nuovi
strumenti di calcolo che abbiamo appena individuato. Per
farlo dobbiamo prima riscrivere la progressione geometrica utilizzata sopra in
modo diverso e cioè come segue: 20, 22, 24, 26,
28, 210, 212, 214, 216.
Ciascun elemento della serie ora appare espresso sotto forma di potenza. Una
potenza, come sappiamo, è costituita da un numero chiamato base (il 2 nel
nostro esempio) elevato ad un altro numero chiamato esponente. E’ facile
verificare che i termini della progressione rappresentati sotto forma di potenze
corrispondono a quelli della progressione geometrica scritta sopra: 20
= 1, 22 = 4, 24 = 16, 26 = 64 e così via. Si
noti inoltre che gli esponenti dei termini della nuova progressione (0, 2, 4, 6
ecc.) sono gli stessi numeri che compaiono nella progressione aritmetica scritta
all’inizio. Ora
possiamo dare la definizione completa di logaritmo: “Il logaritmo di un numero
in una certa base è l’esponente a cui bisogna innalzare la base per ottenere
il numero stesso”. Ad esempio, il logaritmo di 100 in base 10 è 2 perché 10²
fa 100. In simboli il nostro logaritmo si scrive nel modo seguente: log10100
= 2. Si noti che il logaritmo è semplicemente l’esponente di una potenza e
che le due eguaglianze log10100 = 2 e 102 = 100
sono equivalenti. Abbiamo
detto che i logaritmi furono utilizzati originariamente per semplificare i
calcoli numerici che oggi è possibile eseguire facilmente con le calcolatrici
tascabili e quindi hanno perso gran parte della loro originaria funzione. I
logaritmi tuttavia attualmente trovano ancora impiego e applicazione in tante
discipline quali la biologia, l’astronomia, le scienze della terra e nelle
operazioni finanziarie. Per
comprendere in che modo i logaritmi sono in grado di rendere più semplici i
calcoli basta notare che esprimendo i numeri sotto forma di potenze la
moltiplicazione e la divisione si riducono a semplici somme e sottrazione di
esponenti (ad esempio, la moltiplicazione di 10.000 per 1.000 si trasforma
semplicemente in 104 · 103 = 104+3 = 107)
e l’elevamento a potenza e l’estrazione di radice diventano una semplice
operazione di moltiplicazione e di divisione degli esponenti (ad esempio la
radice cubica di 1.000.000 è 106/3 = 102. Non
tutti i numeri, però, possono essere espressi sotto forma di potenze in modo
immediato e semplice come avviene per i multipli del 10. Per esprimere un numero
qualsiasi, ad esempio 132, sotto forma di potenza del 10, bisognerebbe andare
alla ricerca di un numero frazionario (compreso fra il 2 e il 3) da porgli ad
esponente. Il calcolo di questo numero non è cosa semplice e se dovessimo farlo
su tutti i numeri prima di eseguire (in modo semplice) ad esempio una
moltiplicazione, usando gli esponenti delle potenze, il guadagno di tempo non ci
sarebbe più e converrebbe operare in modo tradizionale. Ma
prima lo scozzese Nepero, e successivamente l’inglese Briggs fecero la fatica
di calcolare i logaritmi di molti numeri. Henry Briggs (1561-1631), amico ed
estimatore di Nepero, si prese la briga di calcolare i logaritmi in base 10 dei
numeri da 1 a 20.000 e da 90.000 a 100.000 con quattordici cifre decimali, un
lavoro immane di cui approfittarono i suoi contemporanei e gli immediati
successori, i quali si avvalsero dei logaritmi per le loro ricerche con
risultati sorprendenti. Keplero, ad esempio, se ne servì per scoprire le sue
famose leggi astronomiche.
Come
si è visto, i logaritmi consentono, per così dire, di “abbassare di grado”
le operazioni sui numeri: elevamento a potenza ed estrazione di radice vengono
sostituite da moltiplicazione e divisione e queste ultime da addizione e
sottrazione; è chiaro che il vantaggio di un tale procedimento sarà tanto
maggiore quanto più complicati saranno i calcoli. Ovviamente i logaritmi non
sono applicabili alle operazioni di addizioni e sottrazione. 2. FUNZIONE
ESPONENZIALE E SOVRAPPOPOLAZIONE
Ogni processo di accrescimento può essere lineare o esponenziale. Si
dice che una grandezza cresce linearmente quando ad intervalli di tempo uguali
corrispondono incrementi uguali: così, ad esempio, è lineare l’incremento
dei risparmi di un bambino a cui la mamma, ogni anno, mette da parte un milione
di lire: dopo un anno il bambino si troverà con un milione di lire di risparmi,
dopo due anni con due milioni, dopo tre anni con tre e così via. Si
dice invece che una grandezza cresce esponenzialmente allorché ad intervalli di
tempo uguali corrispondono incrementi pari ad una frazione costante del totale. Se un’altra mamma meno generosa ma più concreta,
invece che mettere ogni anno un milione nel salvadanaio del figlio ne avesse
messo uno solo ma in banca al tasso di interesse ad esempio del 7% annuo, alla
fine dell’anno il bambino avrebbe un milione e settantamila lire. L’anno
successivo, l’interesse del 7% verrebbe calcolato su 1.070.000 lire e
produrrebbe altre 75.000 lire circa di interesse che si andrebbero ad aggiungere
alla somma già posseduta. L’anno
ancora successivo l’interesse verrebbe quindi calcolato su una cifra
nuovamente più alta. Ora è facile comprendere che quanto maggiore è la somma
depositata sul conto tanto più denaro verrà aggiunto ogni anno come interesse;
ma quanto più se ne aggiunge tanto più ve ne sarà nel conto l’anno
successivo e quindi ancora più se ne aggiungerà come interesse. La
caratteristica delle crescite esponenziali è proprio questa: più è grande la
quantità di cui si dispone, più essa si accresce. Se la quantità è piccola
aumenta poco, se è media aumenta moderatamente, se è grande aumenta molto. I
processi di crescita esponenziale sono assai comuni in campo finanziario, in
biologia e in tanti altri settori del sapere, dove a volte possono produrre
conseguenze sorprendenti. Un
modo per illustrare l’estrema rapidità con la quale una crescita esponenziale
porta ad approssimarsi ad un valore prefissato è quella di fare ricorso ad un
indovinello per bambini. L’indovinello è il seguente. Immaginiamo di avere un
laghetto al centro del quale cresce una ninfea che ogni giorno raddoppia le
proprie dimensioni: se la pianta potesse svilupparsi liberamente, dopo 30 giorni
coprirebbe completamente il lago soffocando tutte le altre forme di vita. Ora,
se si decidesse di tagliare la ninfea quando le sue foglie hanno coperto metà
del lago in modo da salvarlo da morte sicura in quale giorno si dovrebbe
intervenire? La risposta è al 29° giorno, cioè vi sarebbe un solo giorno di
tempo per rimediare ad una situazione che il giorno dopo diventerebbe
irreparabile. Il risultato è sorprendente soprattutto se si riflette sul fatto
che il 25° giorno era coperto appena poco più del 3% del lago: nelle crescite
di tipo esponenziale all’inizio le cose vanno piano poi accelerano in modo
impressionante. La
crescita esponenziale viene spesso espressa efficacemente attraverso il
cosiddetto “tempo di raddoppiamento”, che è il tempo necessario affinché
una grandezza raddoppi il proprio valore (incremento del 100%). Nel caso della
ninfea che abbiamo appena esaminato il tempo di raddoppiamento è di un giorno;
per la somma di denaro depositata in banca all’interesse del 7% annuo il tempo
di raddoppiamento è pari a 10 anni circa. Non è difficile calcolare il tempo
di raddoppiamento di una crescita esponenziale se si conosce il tasso di
crescita: esso, in anni, è approssimativamente uguale a 70 diviso per il valore
percentuale del tasso stesso. Secondo
i calcoli del Fondo per la popolazione delle Nazioni Unite il 12 ottobre 1999
gli abitanti della Terra sono diventati 6 miliardi. In realtà nessuno li ha
contati: il numero è frutto di estrapolazioni statistiche e valutazioni di
vario genere e tuttavia non dovrebbe essere molto lontano dal vero. Pertanto,
giorno più o giorno meno, ormai ci siamo: gli abitanti del pianeta con
l’ingresso nel nuovo millennio hanno raggiunto e superato quota 6 miliardi e
si calcola che crescano al ritmo di 1,5% all’anno, cioè ogni anno aumentano
di novanta milioni di unità (ma in seguito, come vedremo subito, l'aumento sarà
sempre più consistente). Si tratta di un numero enorme: basta pensare che se si
volesse dare una casa dignitosa ai nuovi arrivi si dovrebbe costruire tutti i
giorni una città grande come Trieste. Se
la popolazione mondiale continuasse a salire a questo ritmo, nel 2047 sarebbe il
doppio di oggi (70:1,5 @
47), e fra meno di 700 anni arriverebbe a 150.000 miliardi, cioè vi sarebbe un
uomo ogni metro quadrato di superficie terrestre. E' evidente che la popolazione
non potrà continuare a crescere a questo ritmo all’infinito perché la Terra
è di dimensioni finite e su di essa non può esserci niente che diventa
infinitamente grande. La Terra non può quindi produrre alimenti in quantità
illimitate né tanto meno ospitare uomini in numero illimitato. Ora,
se volessimo rappresentare con un grafico la crescita della popolazione mondiale
di questi ultimi secoli, ponendo sull'asse orizzontale di un piano cartesiano i
tempi e su quello verticale il numero degli uomini, scelte opportunamente le
unità di misura, si otterrebbe una curva che si innalza quasi verticalmente al
passare del tempo. Questo tipo di curva prende il nome di curva esponenziale, o
anche, a causa della sua forma, "curva J" ed è la rappresentazione
grafica di quello che i matematici chiamano “funzione esponenziale”. Con
il termine di funzione si intende una grandezza che dipende da un’altra
grandezza. Il numero degli abitanti del nostro pianeta dipende dal tempo, quindi
possiamo dire che questo numero è funzione del tempo che passa. In verità,
quando una grandezza dipende da un’altra grandezza, si può considerare
indifferentemente la prima funzione della seconda o viceversa. Si è convenuto
quindi di chiamare funzione (o variabile dipendente) la grandezza che
costituisce l’oggetto di studio e variabile indipendente quella che fa la
parte accessoria. Quando consideriamo il numero degli abitanti che cresce con il
passare del tempo, lo scopo non è quello di misurare come passa il tempo per
mezzo del numero degli abitanti del pianeta, bensì di misurare il numero degli
abitanti con l’aiuto del tempo. Quindi, in questo caso, chiameremo variabile
dipendente il numero degli abitanti e variabile indipendente il tempo. E’
consuetudine indicare con y la variabile dipendente e con x la variabile
indipendente; in simboli si scrive così: y = f(x) e si legge y è uguale a una
funzione di x. Se x è l’esponente di un’espressione algebrica o anche
semplicemente di un numero, la funzione diventa una funzione
esponenziale. Ad esempio, y = 2x è una funzione esponenziale. Nelle
funzioni esponenziali (con base maggiore di 1) se il valore della x cresce
lentamente la funzione intera cresce molto, ma molto più rapidamente: ad
esempio, nella funzione y = 10x se x assume i valori successivi di 1,
2, 3, 4, ecc., la y assume i valori corrispondenti di 10, 100, 1.000, 10.000,
ecc. Se la base è minore di 1 (ma maggiore di zero) la funzione diventa sempre
più piccola a mano a mano che la x cresce: ad esempio nella funzione
esponenziale y = 0,5x se x assume i valori successivi di 1, 2, 3, 4,
ecc. la y diventa 0,50, 0,25, 0,12, 0,06, ecc.
3. L’INCERTEZZA DELLE PREVISIONI
L’uomo, in passato, ha conosciuto tassi locali di crescita della
popolazione molto vari e irregolari. In alcuni momenti si sono verificati
perfino casi di decremento demografico come ad esempio in occasione della peste
nera del 1348 quando in pochi anni in Europa morì quasi un terzo della
popolazione residente. In verità, specialmente per l’antichità, i dati sono
molto incerti ma pare che fino a 2.000 anni fa i tassi di natalità e di
mortalità siano stati in sostanziale equilibrio. Poi la popolazione ha
cominciato a crescere ma lo ha fatto, fino ad un paio di secoli addietro, ad un
ritmo talmente basso che nessuno si era accorto dell’incremento demografico in
atto. Non
sappiamo con certezza quando sulla Terra sia comparso l’uomo anatomicamente
moderno, cioè la nostra specie di Homo sapiens sapiens, ma possiamo fissare
quella data a circa 100.000 anni fa, quando presumibilmente erano presenti pochi
individui che vivevano cacciando e raccogliendo frutti, bacche e altri vegetali.
Una prima valutazione della popolazione si può fare per il periodo in cui
ebbero inizio l’agricoltura e l’addomesticazione degli animali, ossia circa
10.000 anni fa. Gli antropologi e gli storici hanno valutato in circa 8 milioni
di unità la dimensione della popolazione in quel momento. In
90.000 anni la popolazione del pianeta passò quindi da zero (o se si preferisce
da due: Adamo ed Eva) a 8 milioni di individui con un incremento annuo
estremamente ridotto (0,01 per mille). Dopo la diffusione dell’agricoltura
l’incremento demografico aumentò passando da 0,01 per mille a 0,44 per mille
e gli 8 milioni di uomini dell’8.000 a.C. divennero, nell’anno 1, circa 250
milioni. Dall’anno 1 al 1800 la popolazione del globo arrivò al miliardo di
individui; da quella data prese avvio la straordinaria accelerazione moderna
dell’incremento demografico. Agli
inizi del secolo scorso la popolazione era di poco più di un miliardo e mezzo
di individui e raddoppiò entro il 1960 quando raggiunse i 3 miliardi. Poi, in
quarant’anni, raddoppiò di nuovo raggiungendo i 6 miliardi attuali. Il
nostro pianeta ha visto il massimo tasso di accrescimento agli inizi degli anni
Settanta del secolo scorso quando la popolazione mondiale ammontava a tre
miliardi e mezzo di individui. A quel tempo l’incremento annuo era pari a 2,1%
che corrispondeva a un tempo di raddoppiamento di 33 anni. Ad iniziare dalla
rivoluzione industriale (seconda metà del XVIII secolo) e fino ad una trentina
d'anni fa, non solo la popolazione mondiale è cresciuta esponenzialmente, ma è
aumentato anche il tasso di crescita. Potremmo quindi dire che in quel periodo
la crescita della popolazione è risultata iperesponenziale.
Se si fosse continuato al ritmo di crescita degli anni Settanta oggi la
popolazione mondiale sarebbe di 7 miliardi di persone invece che di 6. Da
quella data invece, soprattutto per il diffondersi nei paesi industrializzati
delle pratiche anticoncezionali e per la politica del contenimento delle nascite
operata in Cina, il tasso di incremento demografico è calato, ma non è calato
il numero degli abitanti del pianeta né è calato il numero di quelli che si
aggiungono annualmente ai presenti. Agli inizi degli anni ‘70 del secolo che
si è appena concluso, con un tasso di incremento del 2,1%, si aggiungevano alla
popolazione esistente (3,5 miliardi) meno di 75 milioni di nuovi individui
all’anno, oggi, nonostante il calo del tasso di incremento dal 2,1% all’1,5%
annuo, il numero di abitanti che va ad unirsi a quelli che già ci sono (6
miliardi) è di circa 90 milioni all’anno.
Non
è la prima volta che l’uomo si sbaglia nel fare previsioni a lungo termine
basandosi sui dati disponibili. Agli inizi del 1.800 la popolazione degli Stati
Uniti era di meno di 10 milioni di individui, ma si andava accrescendo ad un
ritmo impressionante tanto che il pastore anglicano Thomas Malthus, che aveva
notato una forte sproporzione fra crescita della popolazione e crescita delle
risorse alimentari, predisse per il futuro dell’umanità scenari apocalittici,
nei quali l’uomo avrebbe sofferto la fame e sarebbe vissuto nella povertà. Malthus
aveva constatato che fra la fine del 1700 e gli inizi del 1800 la popolazione
degli USA era cresciuta di circa il 3% all’anno, cioè ad un ritmo
esponenziale o, come diceva lui, in progressione geometrica, mentre i mezzi di
sussistenza crescevano, nella migliore delle ipotesi, in progressione
aritmetica, cioè molto più lentamente. Ciò avrebbe portato ad una serie di
conseguenze nefaste per l’umanità con il diffondersi fra la popolazione di
quelli che lui chiamava vizi (guerre e infanticidi) e miserie (carestie ed
epidemie). La differenza fra le due categorie di calamità sta nel fatto che le
prime sono razionali e possono essere evitate mentre le seconde sono naturali e
quindi sfuggono alle possibilità di controllo da parte dell’uomo. Le sciagure
paventate da Malthus non si realizzarono: il popolo americano non soffrì la
fame né visse nella miseria, ma soprattutto non continuò ad accrescersi al
ritmo del 3% annuo. Se fossero state rispettate le previsioni di Malthus la
popolazione degli Stati Uniti (affamata e povera) oggi sarebbe di quasi 2
miliardi di persone, mentre è di poco superiore ai 270 milioni e nessuno (o
quasi) vive in miseria. Se sono difficili le previsioni sugli incrementi
demografici, ancor più difficili sono quelle sui loro effetti. Agli
inizi degli anni 70 gli aderenti al Club di Roma, un gruppo di ricercatori che
si occupava di questo problema, formularono la teoria della cosiddetta
“crescita zero” secondo la quale, per salvare l’umanità, sarebbe stato
necessario fermare la crescita sia della popolazione, sia dello sviluppo
industriale che causava danni gravi e irreparabili all’ambiente come
l’inquinamento e lo sfruttamento selvaggio delle risorse naturali. Anche in
questo caso ci si era sbagliati. La popolazione da allora ad oggi aumentò quasi
raddoppiando di numero e ancora di più aumentò la produzione industriale con
la conseguenza di un sensibile miglioramento del tenore di vita degli abitanti
del mondo industrializzato. Ecco
dove sta il vero problema legato allo sviluppo industriale e di conseguenza al
tasso di crescita della popolazione: esso non è distribuito equamente fra tutti
gli abitanti della Terra. Lo sviluppo industriale mondiale è in realtà
prevalentemente circoscritto ai paesi già industrializzati in cui è
relativamente basso il tasso di crescita della popolazione. Se il processo di
sviluppo economico continuerà in futuro così come attualmente è strutturato,
non c’è speranza che il divario fra paesi poveri e paesi ricchi possa
ridursi: “Il ricco si farà sempre più ricco, mentre il povero farà
figli”. Oggi
non si parla più di crescita zero ma di “sviluppo sostenibile” e, secondo
il parere degli esperti del settore, la popolazione mondiale continuerà a
crescere ancora per un certo tempo ma lo farà ad un ritmo sempre più lento
fino a quando, raggiunto nella seconda metà del XXI secolo il livello di 11-12
miliardi di individui, comincerà a calare. Saranno giuste le previsioni? Lo
sapremo fra cent’anni. 4. I LOGARITMI E
LA CRESCITA DEI BATTERI
Il nome di logaritmo deriva dal greco dove "lògos" significa discorso, ragione e "arithmos"
significa numero, quindi letteralmente il logaritmo sarebbe il "numero
della ragione": un nome altisonante, ma in realtà, come abbiamo visto, si
tratta semplicemente di un esponente. Abbiamo
detto che i logaritmi trovano svariate applicazioni. Fra queste vi è pure
quella di una comoda e chiara rappresentazione di alcuni diagrammi i quali
sarebbero illeggibili, o quanto meno poco significativi, se non si facesse uso
dei logaritmi. Vi sono infatti alcune grandezze che crescono così rapidamente,
al variare di altre, che diventa impossibile rappresentarle efficacemente su un
foglio mantenendo la scala reale dei valori. Per
chiarire il concetto facciamo l’esempio della crescita dei batteri. I batteri
sono organismi viventi fra i più semplici e i più piccoli che si conoscano.
Sono formati da una sola cellula della grandezza del millesimo di millimetro e
il loro peso è dell’ordine del miliardesimo di milligrammo, ossia ce ne
vorrebbero mille miliardi per fare un grammo. I batteri si riproducono con
estrema rapidità per semplice scissione, cioè si dividono a metà e poi
ciascun individuo si accresce e, raggiunta la dimensione adulta, subisce una
nuova scissione. Ora, se le condizioni ambientali sono favorevoli, si possono
avere anche tre generazioni in un’ora. Immaginiamo quindi di voler calcolare
la crescita di una popolazione di batteri partendo da un singolo esemplare: dopo
venti minuti ne avremmo già 2, dopo quaranta minuti 4 e dopo un’ora ossia
dopo tre generazioni 8, dopo 2 ore, cioè dopo 6 generazioni 32 (26),
dopo 5 ore 32.768 (215) e così via secondo le potenze del 2.
Il
numero dei batteri aumenta secondo le potenze del 2 perché la cellula si divide
in due ad ogni generazione, se la cellula si dividesse simultaneamente in tre il
numero aumenterebbe secondo le potenze del 3 e se si dividesse in 10, secondo le
potenze del 10. Il numero dei batteri che si riproduce per semplice scissione può
essere quindi rappresentato attraverso la seguente funzione esponenziale: y
= 2x in cui y è il numero dei batteri e x il numero
delle generazioni. Applicando
l'equazione scritta sopra, è facile calcolare il numero teorico di batteri
presenti dopo un certo numero di generazioni partendo da un singolo batterio.
Per esempio si calcola che dopo 72 generazioni, cioè, nel nostro esempio, dopo
un giorno, i batteri sarebbero diventati 272 che fa circa quattromila
settecento miliardi di miliardi (4,7·1021), un numero di batteri
che, nonostante il peso irrisorio di un singolo esemplare, corrisponde a un peso
complessivo di 4.700 tonnellate. Ci vorrebbe un migliaio di camion caricati fino
all’orlo per portarli via tutti. Naturalmente non si arriva mai a questi
eccessi perché l’ambiente naturale non è illimitato e immutabile e quindi
molto prima di avere una densità massima di circa un miliardo di individui per
cm3 il numero tende a restare stazionario. Tuttavia,
sperimentalmente, si possono realizzare le condizioni desiderate mettendo a
disposizione dell’organismo un terreno di coltura molto ampio e stabile, nel
quale può essere studiato il fenomeno dell’accrescimento teorico dei batteri
o di altri esseri viventi. A
differenza di quanto succede fra gli uomini in cui, come abbiamo visto, il tasso
di incremento demografico cresce con il crescere della popolazione, in tutti gli
altri esseri viventi il tasso di incremento demografico tende a diminuire con
l’ingrossarsi della popolazione. Questo dipende da una serie di fattori fra
cui la scarsa disponibilità di alimenti dovuta al superaffollamento e la
crescente concentrazione di prodotti di rifiuto derivati dal loro stesso
metabolismo. In generale la curva di crescita di una popolazione sale
velocemente all’inizio, ma poi si arresta. Questo tipo di curva, che prende il
nome tecnico di “curva logistica”, è anche chiamata curva ad "S"
per la sua forma. Ora, poiché questo modo di accrescersi di una popolazione
vale per tutti i viventi non è pensabile che solo per l'uomo esso debba fare
eccezione. Pertanto alla attuale fase di crescita esponenziale della popolazione
umana seguirà inevitabilmente una fase stazionaria, se non addirittura di
regressione. Quel che conta è vedere in che modo questa fase di arresto verrà
raggiunta, perché le conseguenze saranno diverse a seconda che a fermare la
crescita della popolazione umana sarà l'uomo stesso facendo uso
dell'intelligenza di cui è dotato o la natura, la quale applicherà le leggi
che essa sola conosce e che non sono certo leggi favorevoli all'uomo. Se
ora volessimo rappresentare con un’immagine geometrica la crescita dei
batteri, dovremmo, come già sappiamo, tracciare su un foglio di carta due rette
perpendicolari che si incontrano in un punto detto origine degli assi e quindi,
scelte opportunamente le unità di misura, segnare su ciascuna retta una serie
di punti che corrisponde a determinati valori delle grandezze in gioco. Ponendo,
ad esempio, sull’asse orizzontale del piano i tempi e sull’asse verticale il
numero dei batteri ci renderemmo subito conto che per quanto piccola fosse stata
l’unità di misura scelta, già dopo una decina di generazioni il foglio di
carta non sarebbe più sufficiente a contenere il diagramma. A
questo punto ci verrebbero tuttavia in soccorso i logaritmi. Se sull’asse
delle ordinate (quello verticale) invece che segnare il numero delle cellule si
riportasse il logaritmo di tale numero il diagramma diventerebbe più contenuto
e di più facile lettura. In verità facendo ricorso ai logaritmi il disegno,
oltre a cambiare dimensioni, cambierebbe anche forma divenendo una retta e
quindi non rispecchierebbe più la realtà rappresentata da una curva a J.
Tuttavia lo schema apparirebbe molto più chiaro e lo scopo che ci si era
prefissati sarebbe stato raggiunto.
Partire
da un singolo batterio per sapere quanti ve ne saranno dopo un certo tempo è un
caso del tutto teorico. Normalmente quello che interessa sapere è quanti
diventeranno i batteri (o qualsiasi altra cosa che si accresca in modo
esponenziale), dopo un certo numero di generazioni, se si parte da un
determinato numero iniziale. L'equazione utile per dare risposta a questo tipo
di quesito è la seguente: N = N0
· 2x in cui N è il numero di batteri che sarà
presente dopo un certo numero di generazioni, N0 è il numero
iniziale di batteri e x è il numero delle generazioni che si vuole considerare.
Si noti che per ottenere il numero dei batteri finali bisogna moltiplicare 2x
per il numero iniziale di essi. La conseguenza di questa operazione è che
il numero finale dei batteri dipende sensibilmente anche dal numero iniziale e
non solo dal valore della x. La logica dell'accrescimento esponenziale, come
abbiamo accennato all'inizio, è proprio questa: più si è e più si diventa. Spesso
non interessa tanto sapere quanti batteri (o più in generale quanti elementi di
un insieme che si accresce) si avranno dopo un certo numero di generazioni, ma
piuttosto quanti saranno diventati dopo un certo tempo (ad esempio dopo un
giorno). In questo caso basta moltiplicare il numero delle generazioni (k),
comprese nell'unità di tempo, per il tempo (t) di durata del processo e porre
il prodotto di queste due grandezze ad esponente del numero che rappresenta i
frammenti in cui si divide ogni singolo oggetto di partenza (due nel nostro
esempio). Sostituendo
quindi kt a x, l'equazione relativa ai batteri, scritta sopra, diventa: N = N0
· 2kt
In questo caso (base della potenza uguale a 2), il reciproco di k, cioè
1/k, rappresenta il tempo necessario per raddoppiare il numero degli elementi
presenti. Se ad esempio fosse k = 3, cioè tre divisioni all'ora, come
nell'esempio dei batteri proposto in precedenza, un terzo di ora (ossia venti
minuti), sarebbe il tempo necessario affinché il numero degli elementi,
presenti in un dato istante, raddoppiasse in seguito alle divisioni successive. 5. IL
DECADIMENTO RADIOATTIVO E IL NUMERO e
Il decadimento radioattivo è un fenomeno che si presta molto bene ad
essere analizzato attraverso i concetti che abbiamo esposto precedentemente. Le
sostanze radioattive sono dei composti chimici costituiti di atomi che si
decompongono spontaneamente in altri atomi non radioattivi. Il fenomeno del
decadimento radioattivo è di tipo esponenziale e l'equazione che dà la misura
secondo cui la massa di sostanza radioattiva diminuisce nel tempo è la
seguente: m
= m0 · e–l·t
dove m è la massa della sostanza radioattiva al
tempo t, m0 è la massa della sostanza radioattiva che era presente
all'inizio dell'esperimento, cioè al tempo t=0, e è un numero irrazionale che vale circa 2,7182 e
rappresenta la base dei cosiddetti logaritmi naturali, e infine l
(lambda) è una costante detta "costante di decadimento radioattivo"
il cui valore è un numero caratteristico di ciascuna sostanza radioattiva e dà
la misura della maggiore o minore rapidità con cui avviene il processo di
trasformazione. Più è grande il valore di lambda e maggiore è il numero degli
atomi radioattivi che si trasformano in atomi non radioattivi nell'unità di
tempo e quindi più rapido è il processo di decadimento. Come si vede si tratta
di una formula molto simile a quella che è stata usata per definire la crescita
dei batteri in condizioni ideali. La differenza più sostanziale sta nel segno
negativo che compare davanti all'esponente di e. Esso suggerisce che la legge di decadimento radioattivo è
una legge di tipo esponenziale decrescente, cioè una legge la quale mostra che
con il passare del tempo gli elementi presenti all'inizio diminuiscono e non
aumentano di numero, come avveniva invece nel caso dei batteri. E'
opportuno, a questo punto, chiarire meglio il significato del numero e,
detto numero di Eulero in onore di Leonhard Euler (latinizzato in Eulero), un
matematico svizzero vissuto nel diciottesimo secolo, che lo presentò in un
lavoro pubblicato nel 1748. Il numero e
in realtà era già noto a Nepero e anzi fu proprio il matematico scozzese
ad introdurlo per primo nei calcoli, anche se sotto altra forma: per questo
motivo esso è chiamato anche numero di Nepero. Il numero e
è un numero irrazionale trascendente: irrazionale perché non è esprimibile
come rapporto fra due numeri interi e trascendente perché l’equazione che lo
definisce trascende le normali operazioni di calcolo. Qualsiasi
numero intero e molti numeri decimali possono essere rappresentati sotto forma
di frazione: 5 ad esempio può essere scritto 5/1 o 10/2 e così via; 0,5 può
essere scritto 1/2 o 5/10 o in molti altri modi, ma sempre come rapporto di
numeri interi. Vi sono tuttavia dei numeri che non possono essere rappresentati
sotto forma di frazione di numeri interi: ad esempio, la radice quadrata di 2 il
cui valore è 1,4142135… e via avanti verso un numero infinito di decimali
apparentemente disordinati, non può essere rappresentata sotto forma di
rapporto di numeri interi. Anche p,
che esprime il rapporto fra la circonferenza e il suo diametro, è un numero che
non può essere espresso come rapporto di due numeri interi, e quindi è
anch’esso un numero irrazionale. Altro numero irrazionale è il numero e
il cui valore, 2,718281..., è dato dal limite cui tende l'espressione (1 + 1/n)n
quando n tende all'infinito. Il numero e,
insieme a p,
è il numero irrazionale più importante che esista in matematica, ma mentre p
ha un riscontro geometrico nella realtà e
non rappresenta nulla di concreto. Pi greco ed e oltre ad essere numeri irrazionali sono anche trascendenti
perché i calcoli che portano alla loro definizione trascendono, ossia vanno
oltre le normali operazioni algebriche. Il numero radice di 2, ad esempio, è un
numero irrazionale ma non trascendente perché è la soluzione di un’equazione
algebrica (x2 = 2) cioè di un’espressione che contiene un numero
finito di termini, mentre per arrivare ad e
bisogna risolvere espressioni che contengono un numero infinito di termini. Può
sembrare strano che un numero così particolare come e sia tanto diffuso nei campi più disparati delle scienze
naturali, ma bisogna considerare che molti problemi di matematica applicata
trovano una rappresentazione più chiara e significativa proprio quando vengono
espressi in termini di potenze di e.
Per
comprendere il significato del numero e
riprendiamo l’esempio del milione di lire depositato in banca all’interesse
del 7% annuo. Come si ricorderà, dopo un anno il milione iniziale diventava un
milione e 70 mila lire, dopo due anni 1 milione e 145 mila lire circa, dopo tre
anni 1.225.000 lire circa e così via verso somme sempre più alte, finché il
valore nel giro di circa 10 anni risulta raddoppiato. L’interesse computato su
questa base è chiamato interesse composto
ed è più redditizio di quello semplice che invece è calcolato sul solo
capitale iniziale e non è fruttifero nei successivi periodi. Si
noti che durante tutto il primo anno il milione di capitale depositato in banca
è rimasto un milione e l’interesse è scattato solo all’inizio del secondo
anno; anche il milione e 70 mila lire si mantiene uguale a sé stesso per tutto
il secondo anno e solo alla fine di questo avviene la capitalizzazione. Cosa
sarebbe successo se l’interesse del 7% invece che aggiungersi alla fine di
ogni anno si fosse distribuito lungo tutto il suo corso procedendo alla
capitalizzazione con maggior frequenza, ad esempio ogni tre mesi o addirittura
ogni settimana? Il guadagno sarebbe stato maggiore? Se
la capitalizzazione venisse fatta ogni settimana, il milione di partenza
crescerebbe al ritmo dello 0,1346% circa alla settimana, cioè dopo la prima
settimana già sarebbe diventato 1.001.346 lire e su questa cifra verrebbe
calcolato l’interesse da aggiungere allo scadere della seconda settimana.
Ebbene, è facile dimostrare che calcolando l’interesse tutte le settimane,
invece che aspettare fine anno, il capitale iniziale dopo 10 anni invece che
raddoppiare diventerebbe di quasi 2 milioni e 700 mila lire. Se la
capitalizzazione venisse fatta ancora più di frequente, ad esempio, ogni giorno
o ogni ora, il capitale, dopo 10 anni, si avvicinerebbe molto alla cifra di
2.718.281 lire. Questo tipo di capitalizzazione si chiama capitalizzazione continua e conduce alla definizione del numero e.
Il
capitale complessivo aumenta di valore quanto più di frequente avviene la
capitalizzazione e può essere calcolato risolvendo la seguente espressione
matematica: (1 + 1/n)n dove n rappresenta la frequenza della
capitalizzazione. E’ facile verificare che più aumenta il valore di n, cioè
più frequente è la capitalizzazione, e più l’espressione si avvicina al
valore di 2,718281828459… Per n uguale a 1, l’espressione diventa (1 + 1/1)1
= 2, che sta a significare che il capitale di partenza raddoppia. Per n = 365 (i
giorni dell’anno) l’espressione diventa (1 + 1/365)365 =
2,714567… Se ad n si assegna un valore ancora più grande, ad esempio 8.760,
il numero delle ore presenti in un anno, l’espressione diventa:
(1
+ 1/8760)8760 = 2,7181266…
Ma
l’espressione (1 + 1/n)n, come abbiamo detto, definisce il numero e
quando n tende all’infinito. E’ facile dimostrare che il capitale
complessivo, quello che con termine tecnico si chiama il montante (M), di un
certo capitale iniziale (P), investito ad un determinato tasso di interesse (i),
alla fine di un certo numero di anni (t), qualora questo interesse venisse
capitalizzato continuamente, può essere calcolato utilizzando la formula
seguente: M = P·eit
Il capitale di un milione, investito all’interesse del 7% annuo, a
capitalizzazione continua, dopo un anno diventa 1.072.506 lire anziché
1.070.000, come sarebbe stato a capitalizzazione annuale.
6. LA “VITA”
DEGLI ATOMI RADIOATTIVI
I logaritmi possono avere una base qualsiasi, purché sia un numero
positivo diverso da 1, ma i logaritmi più comuni sono quelli in base 10 e in
base e. I logaritmi in base 10
si chiamano anche decimali (o volgari, o di Briggs dal nome del matematico
inglese che per primo ne suggerì l’uso) e si indicano con il simbolo Log (con
la L maiuscola per motivi grafici), invece che log10. I logaritmi Torniamo
ora alle sostanze radioattive ed esaminiamo il comportamento di un milione di
atomi di una di queste sostanze che si disintegra al ritmo di un atomo su mille
all'ora. Dopo un'ora, del milione di atomi di partenza, se ne saranno
disintegrati mille e, se tale numero rimanesse costante, dopo mille ore se ne
sarebbero disintegrati un milione, cioè tutti. Però nel caso del decadimento
radioattivo le cose non vanno in questo modo, perché ciò che rimane costante
non è il numero (1.000 atomi), ma l'intensità del fenomeno, cioè l'1 per
mille all'ora (un atomo che si disintegra ogni ora su mille che sopravvivono).
Il decadimento radioattivo infatti non è un fenomeno di tipo lineare ma
esponenziale e pertanto, dopo 1.000 ore, gli atomi rimasti, del milione di
partenza, non saranno zero ma 367.879, cioè un numero che si ricava dal
rapporto di 1 su e, che fa
0,367879..., moltiplicato per un milione. L'equazione
che esprime la legge del decadimento radioattivo può essere formulata in
termini logaritmici, e poiché in questa legge compare il numero e,
si devono usare i logaritmi naturali: ℓn m = ℓn
(m0 ∙ e –l·t)
Ora, siccome il logaritmo di un prodotto è uguale alla somma dei
logaritmi dei singoli fattori e il logaritmo di una potenza è uguale al
prodotto dell'esponente per il logaritmo della base della potenza,
l’espressione scritta sopra può essere riformulata nel modo seguente: ℓn
m = ℓn m0 - l t ·ℓn
e Quindi,
tenendo conto che il logaritmo di base e
di e vale 1 (come d'altra parte
vale 1 qualsiasi logaritmo della propria base), l'equazione può essere anche
scritta in quest’altro modo: ℓn
m0 - ℓn
m = l
t
Scritta sotto questa forma, l'equazione mostra che la differenza fra i
logaritmi di una certa massa di sostanza radioattiva è sempre la stessa in
intervalli di tempo uguali (l
è una costante). In altri termini si può anche dire che se si considera un
determinato intervallo di tempo, per esempio un'ora, la differenza fra il
logaritmo del numero degli atomi radioattivi presenti alla fine dell'ora e
quello degli atomi presenti all'inizio dell'ora è sempre la stessa,
indipendentemente dal momento in cui viene scelto l’intervallo di tempo di
un’ora, cioè subito, fra un giorno o fra una settimana. Ora,
poiché la differenza fra i logaritmi di due numeri è uguale al logaritmo del
loro quoziente, se è costante la differenza fra i logaritmi delle masse delle
sostanze radioattive, deve essere costante anche il logaritmo del loro
quoziente, ma se è costante ℓn (m0/m), è costante pure il rapporto m0/m.
Più
in generale possiamo quindi affermare che in una crescita (o in una decrescita)
di tipo esponenziale il quoziente fra il numero di individui all'inizio e quello
alla fine di un determinato intervallo di tempo si mantiene costante e, siccome
una successione di numeri nella quale è costante il quoziente fra ciascun
termine e il suo precedente è una progressione geometrica, possiamo confermare
che i valori di una funzione esponenziale costituiscono una progressione
geometrica. Da
come viene espresso un incremento (o un decremento) siamo in grado quindi di
capire immediatamente se esso è di tipo esponenziale oppure no: quando un
incremento (o un decremento) viene espresso con un numero esso è di tipo
lineare, se invece viene espresso in termini percentuali esso è sicuramente di
tipo esponenziale. Come
abbiamo già visto in precedenza, anche nel caso del decadimento radioattivo, il
reciproco di lambda rappresenta una misura di tempo e precisamente esso esprime
quello che in fisica nucleare si chiama la "vita media" di un elemento
radioattivo. Non tutti gli atomi radioattivi di una certa specie (per esempio
Uranio) si trasformano nello stesso tempo: ve ne sono alcuni che lo fanno
immediatamente altri che lo fanno dopo tempi più lunghi. E' un po' quello che
avviene per gli uomini: alcuni hanno vita breve ed altri sono molto longevi. Per
l'uomo la vita media si calcola sommando la durata della vita di un certo numero
di persone e poi dividendo questo valore per il numero di persone considerate.
Analogamente, per le sostanze radioattive, questo numero si ottiene sommando i
tempi di vita effettiva dei singoli atomi e poi dividendo questa somma per il
numero totale degli atomi considerati. Il calcolo è piuttosto complesso, ma il
risultato a cui si perviene è molto semplice: la vita media di un elemento
radioattivo è misurata proprio dal reciproco di l.
Normalmente,
però, in fisica nucleare, per indicare il tempo di "vita" di una
sostanza radioattiva non si fa uso della grandezza espressa sopra, ma del
cosiddetto "periodo di semitrasformazione" o "tempo di
dimezzamento". Esso rappresenta il tempo necessario alla disintegrazione
della metà di una determinata massa di sostanza radioattiva. Per calcolare
questo valore basta porre, nell'equazione logaritmica scritta in precedenza, N0/2
(metà della sostanza di partenza) al posto di N. Risulta quindi: ℓn
[N0/(N0/2)] = t½ ×
l
, da cui: t½
= ℓn
2/l
= 0,693/l
. Come
si può vedere il "periodo di semitrasformazione"(t½) di
una sostanza radioattiva è circa i 7/10 di 1/l,
quindi è leggermente inferiore a quella che abbiamo chiamato la "vita
media" di una sostanza radioattiva. I
logaritmi di numeri negativi non esistono, esistono però logaritmi di numeri
positivi maggiori di 1 e logaritmi di numeri positivi minori di 1. I primi danno
come risultato valori positivi, i secondi valori negativi: ad esempio, il
logaritmo in base 10 di 1000 è 3 e il logaritmo in base 10 di 1/1000 è -3. 7. LA
CLASSIFICAZIONE DELLE ROCCE CLASTICHE
Anche i petrografi, ovvero i geologi che studiano i materiali rocciosi
che compongono la crosta terrestre, utilizzano i logaritmi per classificare un
tipo particolare di rocce. Si tratta delle cosiddette rocce detritiche o
clastiche (dal greco clao = spezzo),
cioè di quelle rocce che si sono formate per accumulo di frammenti di rocce
preesistenti. La classificazione di queste rocce è basata fondamentalmente
sulle dimensioni e sulla forma dei frammenti che le costituiscono. Le taglie di
questi frammenti vengono ripartite in numerosi gruppi che sono detti classi
granulometriche. Ogni classe granulometrica raggruppa in sé i frammenti di
roccia le cui dimensioni sono comprese fra due valori limite scelti
arbitrariamente, ma posti all'interno di una determinata scala di grandezze
detta "scala di Wentworth". Le dimensioni limite delle classi
granulometriche sono rappresentate dalle potenze intere positive e negative del
2. Quindi, in millimetri, esibiscono i seguenti valori: …256, 128, 64, 32, 16,
8, 4, 2, 1, 1/2, 1/4, 1/8, 1/16, 1/32, 1/64, 1/128, 1/256… Questi numeri sono
le potenze del 2 elevato rispettivamente agli esponenti: …8, 7, 6, 5, 4, 3, 2,
1, 0, -1, -2, -3, -4, -5, -6, -7, -8 ..., che ne rappresentano quindi i
logaritmi di base 2. Le
classi granulometriche sono molte, ma i limiti dimensionali più importanti sono
solo due: 2 mm e 1/16 mm. Le rocce con granuli di diametro compreso entro questi
due estremi sono dette, con termine derivato dal latino, areniti o psammiti (dal
greco psammos = sabbia). Quelle
formate di frammenti di dimensioni superiori a 2 mm sono dette ruditi o psefiti
(dal greco psephos = ciottolo) e infine quelle con taglia inferiore a 1/16 mm
sono dette lutiti o peliti (dal greco pelos
= argilla). All’interno di ciascuna classe principale si può procedere ad
un’ulteriore classificazione più dettagliata. Le rocce clastiche si dividono
inoltre in due grandi gruppi a seconda che i frammenti di cui sono costituite
siano sciolti oppure cementati insieme. Si
parte, in pratica, da massi con diametro superiore a 256 mm per giungere a
particelle con diametro inferiore a 1/256 mm. Le rocce psefitiche sono quelle in
cui i clasti hanno dimensioni superiori a 2 mm di diametro e comprendono le
ghiaie che sono depositi di detriti piuttosto grossolani a spigoli arrotondati
in conseguenza del trasporto da parte di corsi d’acqua. Se gli spigoli dei
frammenti sono vivi si parla di detriti di falda o brecce di pendio. Quando i
frammenti sono fra loro cementati le rocce prendono il nome di puddinghe (con
ciottoli arrotondati) e brecce (con ciottoli a spigoli vivi). Le
rocce psammitiche hanno i clasti del diametro compreso fra 2 mm e 1/16 mm e
prendono il nome di sabbie o arene se i granuli sono liberi e arenarie se i
granuli sono cementati. Le arenarie sono molto usate come materiale da
costruzione. Fra esse assai note sono quelle toscane utilizzate per la
edificazione dei centri storici delle principali città della regione, compresa
Firenze, in cui ad esempio il “macigno”, un’arenaria a grana media e
cemento calcareo, è servito per la costruzione del basamento di palazzo Strozzi
e la “pietra serena” una varietà di colore grigio azzurrognolo forma lo
scalone della Galleria degli Uffizi. Infine
le rocce pelitiche hanno i clasti del diametro che va da 1/16 di millimetro
(0,0625 mm) fino a valori inferiori a 1/256 di millimetro (0,0039 mm). Quando la
grana è compresa fra 1/16 di mm e 1/128 di mm si hanno le siltiti, cosiddette
perché composte da un sedimento chiamato silt (parola inglese che
significa fango). Quando le dimensioni dei grani sono ancora inferiori a questi
valori, si hanno le argilliti. Siltiti e argilliti vengono anche dette, con
termine comprensivo, limi e si formano per processi di trasporto e di deposito
fluviale (limi fluviali), per trasporto e deposito ad opera del vento (loess
o limi eolici) e per trasporto e deposito glaciale (lehm o limo
glaciale). Le argille sono caratterizzate da forte igroscopicità, ossia hanno
la tendenza a trattenere l’acqua. Quando piove il terreno argilloso tende ad
aumentare di volume, mentre in periodi di siccità, a causa dell’evaporazione
dell’acqua, la massa argillosa diminuisce di volume e su di essa appaiono
profonde spaccature. Abbiamo
già visto che i logaritmi si dimostrano utili quando si deve far uso di
diagrammi; nel caso di sedimenti clastici l’uso dei logaritmi nella
costruzione di diagrammi è ancora più evidente, perché serve a rappresentare
in modo facilmente comprensibile la composizione granulometrica di tali
sedimenti. Attraverso i diagrammi risulta pertanto comodo analizzare le
caratteristiche granulometriche del sedimento e quindi risalire all’ambiente
di formazione e alla natura dei clasti. Si riportano allora, sull'asse delle
ascisse, i valori limite delle classi granulometriche dei clasti esaminati e
sull'asse delle ordinate le quantità, espresse ad esempio in percentuale, del
peso del sedimento delle varie classi. Quello che si ottiene in questo caso è
un grafico discontinuo a gradini, detto istogramma. Se
l'asse delle ascisse viene suddiviso in segmenti proporzionali ai logaritmi dei
valori limite che individuano le classi granulometriche, invece che ai valori
stessi, si ottiene il risultato di mantenere equidistanti i valori numerici fra
le classi granulometriche successive e nel diagramma compare una serie di
rettangoli le cui basi sono tutte uguali e le cui altezze proporzionali alla
quantità dei clasti compresi nella classe granulometrica considerata. Se
venissero invece posti, sull'asse delle ascisse, i valori reali dei clasti, si
otterrebbero rettangoli con le basi di dimensioni diverse e l'analisi del
diagramma non sarebbe più così agevole e immediata. 8. LE
MAGNITUDINI STELLARI Non
vi è campo delle scienze naturali in cui non si faccia uso dei logaritmi per
descrivere qualche fenomeno relativo a quello specifico settore di studio. In
astronomia, ad esempio, lo splendore delle stelle viene valutato in termini
logaritmici attraverso le cosiddette “classi di grandezza” o, con termine
moderno, "magnitudini". Dagli
antichi Greci abbiamo mutuato il criterio di suddividere le stelle in classi di
grandezze. Due secoli prima di Cristo Ipparco di Nicea, uno dei più grandi
astronomi dell’antichità, suddivise le stelle a seconda del grado di
luminosità in sei classi di grandezza, ponendo nella prima le più fulgide, cioè
quelle che la sera appaiono in cielo per prime, un po’ dopo il tramonto del
Sole; nella seconda classe, quelle che si rendono visibili quando il cielo è un
po' più scuro e quindi, nelle classi successive, quelle con luce via via più
fioca. Nella sesta classe infine vennero collocate le stelle appena visibili
nelle migliori condizioni fisiche, cioè quando è notte fonda con il cielo
perfettamente sereno e senza luna. Gli
antichi naturalmente classificarono le stelle ad occhio nudo, quindi senza far
ricorso a strumenti ottici che non erano ancora stati inventati. Essi però
posero molta cura nel fare sì che l'occhio, trasferendosi da una classe
all'altra, valutasse in modo sempre uguale la differenza di splendore. Per
esempio, una stella di prima grandezza doveva apparire più brillante di una di
seconda grandezza quanto quest'ultima lo era di una di terza e così via per le
altre. E’ opportuno far notare che la scala delle grandezze stellari adottata
dagli antichi è rovesciata, nel senso che le stelle di maggiore luminosità
hanno magnitudine minore (una stella di prima grandezza è più brillante di una
stella di seconda grandezza). Verso
la metà del diciannovesimo secolo, quando furono disponibili strumenti tecnici
adeguati e metodi di misurazione raffinati, si avvertì l’esigenza di misurare
con maggiore precisione e accuratezza l’intensità della luce che proviene
dalle stelle. Potendo quindi disporre di dati molto precisi si procedette al
perfezionamento della classificazione proposta dai Greci togliendo anche quel
tanto di arbitrario e di soggettivo che era implicito nella loro formulazione.
Da quel momento si preferì anche usare il termine di "magnitudine" al
posto di “grandezza” al fine di evitare di collegare erroneamente lo
splendore alle dimensioni di una stella. Al riguardo forse è opportuno
precisare che le stelle sono troppo lontane perché si possano valutare, al
telescopio, le loro dimensioni reali. In
realtà gli antichi parlavano di grandezza delle stelle riferendosi alla loro
luminosità perché in effetti le stelle più brillanti ci appaiono anche più
grandi. La stessa cosa accade quando osserviamo una qualsiasi fotografia del
cielo stellato: le immagini delle stelle presentano dimensioni differenti. Il
fenomeno è dovuto alla conformazione della parte sensibile dell’occhio dove
gli elementi che costituiscono la retina (coni e bastoncelli) quando vengono
colpiti dalla luce irradiano essi stessi verso gli elementi circostanti in
misura tanto maggiore quanto più è intensa la luce incidente. La stessa cosa
avviene sulla lastra fotografica sulla quale gli elementi sensibili sono
costituiti da granuli di bromuro di argento. Torniamo
ora alla scala di grandezza delle stelle e al suo aggiornamento. Quale
correlazione fisica - ci si chiese - intercorre fra il flusso di luce che
proviene da una stella e la sensazione recepita dai nostri occhi? Un giovane
assistente del Radcliffe Observatory di Oxford, Norman Robert Pogson, intorno
alla metà dell'Ottocento, intuì che la strada giusta per affrontare il
problema era quella indicata dalla legge psicofisica di Fechner e Weber la quale
stabilisce che la intensità di una sensazione avvertita coscientemente è
proporzionale al logaritmo dell’intensità dello stimolo che la produce,
quindi è meno intensa di esso. Se la risposta che i nostri organi di senso
danno agli stimoli fosse direttamente proporzionale alla loro intensità
rischieremmo di finire in breve tempo con occhi, orecchie e gli altri organi di
senso fuori uso. Essi sono invece in grado di ridurre l’intensità degli
stimoli secondo il loro logaritmo quindi, mentre l’intensità dello stimolo
cresce in progressione geometrica, quella della sensazione cresce solo in
progressione aritmetica. Utilizzando le proprietà delle progressioni potremmo
anche dire che ad uguali differenze di sensazioni corrispondono uguali rapporti
di intensità degli stimoli. Se non avessimo questa capacità selettiva nei
confronti degli stimoli che colpiscono i nostri organi di senso rimarremmo
accecati dalla luce di una folgore e assordati dal suono di una sirena. Una
lastra fotografica colpita da luce troppo intensa rimane “bruciata” e un
apparecchio acustico, a differenza dell’orecchio umano, come ben sanno coloro
che lo usano, non è in grado di selezionare l’intensità dei suoni che
raccoglie. La
legge di Fechner e Weber, applicata al caso delle stelle, assume la forma
seguente: m
= k · Log J dove m (magnitudine) è l'immagine di una stella che
si forma nel nostro occhio e rappresenta quindi la sensazione, mentre J è la
quantità di energia luminosa che incide sul recettore, cioè è lo stimolo; k
è una costante di proporzionalità il cui valore e significato verrà chiarito
in seguito. Log è il simbolo del logaritmo decimale. Pogson
osservò che il rapporto fra la quantità di luce emessa da due stelle che
differivano di una classe di luminosità (secondo la valutazione di Ipparco) era
di circa due volte e mezzo, cioè, in pratica, l’energia luminosa emessa ad
esempio da una stella di prima grandezza era di circa due volte e mezza
superiore a quella emessa da una stella di seconda grandezza (teniamo sempre
presente che la scala delle grandezze è rovesciata). Ora, poiché il valore di
2,5 individuato empiricamente da Ipparco è molto vicino a 2,512 che è la
radice quinta di 100, Pogson scelse proprio questo valore come
"ragione" della progressione geometrica che avrebbe dovuto individuare
i valori di luminosità relativi alle nuove classi di magnitudine stellare. In
una progressione geometrica, come si ricorderà, il rapporto fra ciascun termine
e il suo precedente è un numero fisso che rappresenta quello che viene chiamato
la ragione della progressione: ebbene in questo caso si tratta di scrivere una
progressione geometrica di ragione 2,512. Quindi, se assegniamo il valore 1
all’intensità della luce che proviene dalle stelle molto deboli che stanno al
sesto posto della scala delle magnitudini, le stelle che occupano il 5° posto
producono energia 2,512 volte maggiore, e così di seguito, sempre moltiplicando
il valore precedente per 2,512, nei riguardi delle stelle di magnitudine
maggiore. L’intensità della luce emessa dalle stelle che occupano dal 6° al
1° posto della scala è la seguente: 2,5120 2,5121 2,5122
2,5123 2.5124 2,5125 che corrispondono ai
valori 1, 2,512, 6,310, 15,851, 39,818, 100,0 per le stelle rispettivamente di
magnitudine 6, 5, 4, 3, 2 e 1. Pertanto,
secondo la proposta di Pogson, la luce di una stella di seconda magnitudine
doveva essere 2,512 volte più debole della luce di una stella di prima
magnitudine; la luce di una stella di terza magnitudine doveva essere 2,512
volte più debole della luce di una stella di seconda magnitudine e 6,31 (=2,512²)
volte più debole di una di prima, e così via. Alla fine, una stella di sesta
magnitudine doveva essere 100 volte meno luminosa di una di prima. L'antica
classificazione assume ora un aspetto più rigoroso che può essere anche
espresso attraverso la seguente formula: m1
- m2 = k · Log (J1/J2) dove con m1 - m2 è indicata la
differenza di magnitudine di due stelle le cui intensità luminose siano
rispettivamente J1 e J2. Questa formula ci consente,
qualora siano noti i valori delle intensità luminose di due stelle qualsiasi,
di definire il valore di k. Se misuriamo, ad esempio, fra due stelle un rapporto
di luminosità uguale a 100, sappiamo che si tratta di due stelle che stanno,
all’interno della scala delle magnitudini, su posizioni distanti cinque
gradini (ad esempio una al sesto e l’altra al primo posto): la differenza fra
le magnitudini di queste due stelle (m1 - m2) è quindi
uguale a 5, il valore della costante k risulta allora immediatamente definito.
Infatti si ha: 5
= k · Log 1/100, da cui:
5
5
Si faccia attenzione a non confondere questo 2,5 con il rapporto 2,512
che definisce la scala delle magnitudini. Essendo
noto il valore di k, la formula di Pogson assume ora il seguente aspetto: m1
- m2 = - 2,5 · Log (J1/J2)
Il
segno negativo indica semplicemente che alle stelle più deboli viene attribuito
il valore di magnitudine più alto e a quelle più luminose il valore più
basso, come abbiamo più volte ricordato. La
formula di Pogson, attraverso la misura esatta dei flussi luminosi delle singole
stelle, consente di andare al di là delle sei classi di grandezza considerate
dagli antichi e definire anche magnitudini di valori non interi. Con l'uso dei
telescopi più potenti oggi è possibile fotografare stelle fino alla 24ª
magnitudine, e con i telescopi spaziali si può giungere fino alla 29ª
magnitudine, cioè è possibile vedere oggetti luminosi che inviano meno luce,
agli apparecchi riceventi, di quanta ne invierebbe una candela accesa sull'altra
sponda dell'Oceano Atlantico. Inoltre,
sempre con la formula di Pogson, è possibile attribuire alle stelle più
brillanti, che gli antichi classificavano indiscriminatamente di 1ª grandezza,
magnitudini prossime a zero e anche negative. Così a Sirio, la stella più
brillante del firmamento, oggi viene attribuita magnitudine -1,46 e a Vega 0,04.
La scala vale ovviamente per qualsiasi corpo che brilli in cielo, e quindi non
solo per le stelle. Venere, ad esempio, al momento del suo massimo splendore, ha
magnitudine -4,4; la Luna piena è un astro di magnitudine
-12,7 e il Sole ha
magnitudine -26,7. 9. LE STELLE PIU' LUMINOSE
DEL FIRMAMENTO Qualora sia noto il rapporto fra
l’intensità della luce che proviene da due astri, applicando la legge di
Pogson, è possibile ricavare la differenza di magnitudine dei due astri in
oggetto. Se ad esempio una determinata stella apparisse 70 volte più luminosa
di un’altra, la loro differenza di magnitudine si ricaverebbe immediatamente
moltiplicando per 2,5 il logaritmo di 70 e poi cambiando segno al risultato.
Eseguite le operazioni si otterrebbe –4,61 che è la differenza di magnitudine
fra le due stelle prese in esame. Questo valore tuttavia non ci dice a quale
classe di magnitudine appartengono le due stelle, ma semplicemente che quella
meno luminosa ha una magnitudine 4,61 volte maggiore dell’altra. Se la prima
fosse ad esempio di magnitudine 2,21 la seconda sarebbe di magnitudine 6,82 (non
visibile ad occhio nudo). Per
fissare le classi di magnitudine delle singole stelle era necessario stabilire
un “punto zero”, scegliere cioè una stella campione a cui riferire tutte le
altre. Al fine di mantenere il miglior accordo possibile coi dati di luminosità
dell'astronomia antica, il punto zero fu fissato attribuendo alla Stella Polare
(che gli antichi classificavano di 2ª grandezza) un valore di magnitudine di
2,12. Questo valore tanto preciso fu scelto in seguito alla scoperta di una
debole variabilità della stella. Ora, ad una stella che presentasse un flusso
luminoso x volte inferiore o superiore a quello della Stella Polare verrebbe
attribuita la magnitudine seguente: m = 2,12 ± 2,5 · Log x. La
formula di Pogson permette anche di conoscere il valore del rapporto fra le
intensità luminose che provengono da due astri, se si conosce la differenza di
magnitudine. Ad esempio Rigel, la stella più luminosa della costellazione di
Orione, ha magnitudine 0,34 mentre Venere, al massimo dello splendore, ha
magnitudo -4,4. Ebbene, sottraendo dalla magnitudine di Rigel quella di Venere
si ottiene 4,74 che rappresenta la differenza di magnitudine fra i due astri.
Dividendo questo valore per 2,5 si ottiene 1,9 che è il logaritmo di base 10
del rapporto fra le intensità luminose dei due corpi celesti. Quindi, elevando
il 10 a 1,9 si ottiene 79,43, un numero che definisce di quanto è maggiore
l’intensità luminosa dell’astro più splendente rispetto all’altro. Da
Venere, quando è al massimo splendore, ci arriva quasi 80 volte più luce che
da Rigel che è, essa stessa, una
stella già molto luminosa. Si noti che, per i motivi che abbiamo espresso
sopra, non si ha la sensazione di una così grande differenza di luminosità fra
i due astri. Per
avere un'idea di quanto deboli appaiano le stelle di magnitudine al limite della
sensibilità degli strumenti di rilevamento, basta ricordare che una stella di
prima magnitudine è 100 volte più luminosa di una di sesta e questa è a sua
volta 100 volte più splendente di una di 11ª magnitudine la quale è ancora
100 volte più luminosa di una stella di 16ª magnitudine e così via. In questo
modo, scalando di cinque in cinque, si arriva facilmente a calcolare che una
stella di 1ª magnitudine è un miliardo di volte più brillante di una di 26ª
magnitudine. Se poi si volesse prendere in considerazione il Sole che ha una
magnitudine di -26,7, l'intervallo di magnitudini astronomiche fra
l'astro più brillante, che si vede in cielo, e quello meno brillante, che gli
apparecchi riescono a segnalare, è di oltre 56 ordini di magnitudine
corrispondenti ad un rapporto fra i flussi luminosi di 1022. Ciò
significa che l’energia solare è decine di migliaia di miliardi di miliardi
di volte superiore a quella che ci proviene dalle stelle più deboli. Dai
dati che abbiamo appena fornito emerge chiaro il motivo per il quale risulta più
conveniente e più comodo usare la scala logaritmica (cioè le magnitudini) al
posto della misura diretta degli splendori stellari. La ragione sta nel fatto
che con i logaritmi si fa uso di quantità che impiegano un intervallo numerico
molto limitato, rispetto ai valori di luminosità che sono invece molto grandi.
Dire che due stelle differiscono di dieci classi di magnitudine è molto più
comprensibile e immediato piuttosto che affermare che il rapporto fra i flussi
luminosi dei due astri è diecimila. Il
numero delle stelle aumenta progressivamente con l’aumento della magnitudine.
Vi sono solo tre stelle con magnitudine negativa: Sirio (-1,4), Canopo (-0,7) e
Alpha Centauri (-0,27), mentre sette o otto hanno magnitudine intorno a zero.
Sono circa 20 le stelle di 1ª magnitudine, circa 60 quelle di 2ª, circa 170 di
3ª, 400 di 4ª, 1000 di 5ª, 4000 di 6ª magnitudine e così via fino alla
decima magnitudine, oltre la quale il numero delle stelle cresce
vertiginosamente. 10. LA
MAGNITUDINE ASSOLUTA DELLE STELLE
Le magnitudini che si ricavano dalla formula di Pogson sono apparenti in
quanto ci danno un'indicazione del flusso luminoso che proviene dalle stelle
indipendentemente dal fatto che queste stelle siano vicine o lontane e
intrinsecamente molto o poco luminose. La magnitudine di una stella, come è
stata definita in precedenza, oltre che dalla sua luminosità intrinseca, cioè
dall’energia luminosa che realmente emette, dipende infatti anche dalla sua
distanza. Due stelle che appaiono ugualmente brillanti potrebbero avere
splendore intrinseco molto diverso e apparire uguali per luminosità solo per il
fatto di essere poste a distanze diverse l'una dall'altra; viceversa due stelle
che appaiono di luminosità diversa potrebbero avere in realtà splendore
intrinseco identico, ma apparire di diversa magnitudine apparente solo per il
fatto che non si trovano alla stessa distanza. E' chiaro che l’interesse
prevalente dell'astronomo è quello di conoscere il reale splendore di una
stella perché da esso dipende l'energia che la stella effettivamente emette. A
questa energia, a sua volta, è legata l’età della stella e lo stato attuale
della sua evoluzione. Alla definizione di questa grandezza si arriva attraverso
quella che viene chiamata la magnitudine assoluta (M). Per
magnitudine assoluta di una stella si intende la magnitudine apparente che essa
avrebbe se fosse posta alla distanza, scelta in modo del tutto arbitrario, di 10
parsec (32,6 anni luce circa). Conoscendo la magnitudine apparente e la distanza
di una stella è possibile calcolare quale luminosità avrebbe quella stessa
stella se venisse posta a 10 parsec di distanza. Infatti la fisica insegna che
la luminosità di un corpo diminuisce in modo proporzionale al quadrato della
distanza: la luminosità di una stella posta a distanza doppia si riduce a 1/4,
posta a distanza tripla si riduce a 1/9, e così via.
Con
questa premessa, ed usando la formula di Pogson, è possibile ricavare una
fondamentale relazione che lega tra loro la magnitudine assoluta M di una
stella, la sua magnitudine apparente m e la distanza d espressa in parsec. Si
procede nel modo che segue. Siano
Jd e J10 i flussi luminosi di due stelle poste
rispettivamente alle distanze di d parsec e di 10 parsec. Siano m e M le
rispettive magnitudini. Poiché, come abbiamo appena visto, il flusso luminoso
di una stella diminuisce con l'inverso del quadrato della distanza, possiamo
scrivere: Jd /J10
= (10/d)2. Ora,
prendendo i logaritmi decimali di entrambi i membri dell’equazione e
moltiplicando per 2,5 si ha: 2,5·Log
Jd/J10 = 2,5·Log (10/d)², da cui: 2,5·Log
Jd/J10 = 2,5 · 2·(Log 10 - Log d), quindi, poiché sappiamo che il logaritmo di base 10
di 10 vale 1, possiamo scrivere: 2,5·Log
Jd/J10 = 5 · (1 - Log d) e pertanto: 2,5·Log
Jd/J10 = 5 - 5·Log d
Infine, ricordando la formula di Pogson, che in
questo caso va scritta nel modo
seguente: M - m = 2,5 · Log Jd/J10,
sostituendo i valori, avremo: M - m = 5 - 5·Log
d, da cui: M = m + 5 - 5·Log
d L'applicazione
di questa formula è molto semplice. Prendiamo ad esempio il Sole la cui
luminosità apparente è -26,7 e di cui è nota la distanza: 150 milioni di
kilometri, corrispondenti a 4,85·10-6 parsec. Attraverso la formula
riportata sopra, si ricava il valore della sua magnitudine assoluta nel modo
seguente:
M
= - 26,7 + 5 - 5·Log 4,85·10-6, da cui: M = - 21,7 - 5·(-
5,31) e quindi: M = - 21,74 +
26,57 = + 4,83. Se
ipotizzassimo il nostro Sole alla distanza di 10 parsec (32,6 anni luce, quindi
a circa 300.000 miliardi di kilometri invece che a soli 150 milioni dove
effettivamente si trova), esso ci apparirebbe solo un poco più luminoso di una
stella appena visibile ad occhio nudo. Non solo il Sole, ma anche il cielo
cambierebbe radicalmente di splendore se venissero poste a 10 parsec tutte le
stelle comprese fra la prima e la sesta magnitudine apparente. Queste si
disporrebbero allora più o meno secondo una gerarchia determinata dalle loro
masse in quanto la luminosità intrinseca di una stella è direttamente
proporzionale alla quantità di materia che la compone. Si noterebbe che un
numero elevato di esse, più di 500, apparirebbe più brillante di Sirio e
inoltre si renderebbero visibili molte altre stelle che in condizioni normali
non lo sono. 11. LE SCALE
SISMICHE
Esiste un altro settore del sapere scientifico che ricorre al concetto di
magnitudine per quantificare l'energia che si libera in seguito ad un evento
naturale: si tratta della sismologia la quale classifica i terremoti utilizzando
il termine latino di "magnitudo" che, come ormai sappiamo, vuole dire
grandezza. Fin
dai primordi della sismologia (dal greco seismòs
che significa “scossa”) la determinazione dell'intensità di un terremoto
rappresentò un problema di non facile soluzione. In un primo momento,
nell'impossibilità di pervenire ad una classificazione oggettiva del fenomeno
per mancanza di adeguati strumenti di misura, la forza dei terremoti veniva
determinata osservando i danni che questi provocavano sulla superficie del
terreno e soprattutto sulle opere realizzate dall'uomo. Questo modo di procedere
era, ovviamente, molto approssimativo e legato a valutazioni personali che non
potevano portare se non ad una stima sommariamente qualitativa dell’evento
sismico. Nel
1897 il sismologo italiano Giuseppe Mercalli (1850-1914) tentò di dare
razionalità e universalità alla scala dei terremoti basata sugli effetti che
questi producevano sulle persone, sui manufatti e sul terreno. La scala di
Mercalli ebbe successo ed ancora oggi è molto usata. Essa, tuttavia, più che
fornire un dato sull'intensità del terremoto fornisce una misura della gravità
dei danni prodotti. Questi, come è ovvio, non dipendono solo dall'energia
liberata all'ipocentro, cioè nel luogo in cui si origina il sisma, ma anche e
soprattutto dalle condizioni geografico-economiche della zona colpita, nonché
dal suo grado di urbanizzazione e dal tipo ed età delle costruzioni presenti. La
scala di Mercalli, all'inizio, comprendeva dieci gradi di intensità, ma
successivamente fu portata a 12. L'undicesimo grado fu aggiunto dallo stesso
Mercalli dopo il terremoto di Messina del 1908, mentre l'aspetto definitivo fu
raggiunto nel 1956 per opera di vari sismologi. La scala di Mercalli, o come
meglio attualmente viene chiamata, la "Scala di Mercalli Modificata"
(scala M.M.), è di tipo empirico e pertanto priva di reale valore
scientifico. Per
dare alla classificazione dei terremoti una valenza scientifica fu
indispensabile trovare un sistema per misurare l'energia che si libera al
momento dell’evento sismico. Allo scopo vennero sistemati, in diversi punti
della superficie terrestre, strumenti adeguati in grado di registrare il
fenomeno. In seguito a queste misurazioni nacque la cosiddetta “Scala delle
magnitudo” ideata dal geofisico americano Charles Francis Richter nel 1935. Gli
strumenti di registrazione dei terremoti si chiamano sismografi (dal greco seismós
e graphein che letteralmente significa “scrivere il terremoto”) e la
registrazione che ne deriva prende il nome di sismogramma. Il principio su cui
si basano i sismografi è molto semplice: si tratterebbe di costruire un
supporto fisso che rimanesse fermo nello spazio mentre tutto il resto si muove
sotto gli effetti della scossa tellurica. Ma questo supporto fisso, come è
facile capire, è irrealizzabile e quindi si cerca di approssimare le condizioni
mediante l’inerzia offerta da una massa pendolare con un periodo di
oscillazione molto lungo. Quando avviene la scossa la massa molto pesante di un
pendolo tende a rimanere ferma per inerzia mentre il suolo subisce un movimento
brusco. In questo modo è possibile registrare lo spostamento del suolo rispetto
all’oggetto che non si muove. Un elementare sismografo potrebbe quindi essere
il lampadario di casa, specie se molto pesante. Apparecchi rudimentali come
quello appena citato o oggetti posti in equilibrio precario pronti a cadere al
minimo movimento del supporto o bacinelle piene di liquido che trabocca alla
minima scossa, non sono tuttavia in grado di registrare il fenomeno, ma solo di
farlo vedere: li potremmo quindi chiamare “sismoscopi”. Un
sismografo vero e proprio invece è formato da una massa metallica che viene
tenuta sospesa, mediante molle o fili, all’interno di una intelaiatura in modo
che risenta il meno possibile dei movimenti del terreno. Quando il telaio di
sostegno viene scosso dalle onde elastiche prodotte da un terremoto, l’inerzia
della massa fa sì che essa segua con ritardo il moto del telaio. Questo
movimento relativo fra la massa del pendolo e il telaio che la sostiene, viene
registrato da un pennino scrivente su carta avvolta intorno ad un cilindro
ruotante. Il sistema scrivente non registra quindi l’effettivo movimento del
suolo ma un moto molto complicato che è il risultato di due movimenti: il
movimento del suolo e quello del pendolo. Sulla carta comparirà pertanto una
traccia che rappresenta la copia ingrandita del movimento del suolo rispetto a
quello della massa inerziale che seguirà con oscillazioni più o meno smorzate.
Il
valore della magnitudo di un terremoto si determina confrontando l'ampiezza
delle oscillazioni registrate dal sismografo e quella prodotta, sullo stesso
strumento, da un terremoto campione. Come riferimento Richter scelse un
terremoto che produce su un particolare tipo di sismografo (il sismografo a
torsione di Wood-Anderson), posto a 100 km dall'epicentro (il punto della
superficie terrestre posto sulla verticale dell’ipocentro), un sismogramma con
oscillazione massima di un millesimo di millimetro (0,001 mm). Supponiamo
ora, per fare un esempio, di voler determinare l'intensità di un terremoto il
cui epicentro, casualmente, si trovi proprio a 100 km di distanza dalla stazione
di registrazione e che l'ampiezza massima delle oscillazioni che esso produce
sul sismogramma sia di 0,1 mm. Il rapporto fra l'ampiezza massima del terremoto
di cui si vuol conoscere l'intensità (0,1 mm) e quello standard (0,001 mm) è
100. Diremo allora che il terremoto registrato è 100 volte più
"forte" di quello standard. Quello
riportato sopra è un caso limite perché abbiamo immaginato l'epicentro del terremoto
proprio a 100 km di distanza e la registrazione è stata effettuata proprio dal
sismografo di Wood-Anderson. Normalmente gli epicentri dei terremoti non si
trovano a quella distanza dalle stazioni sismiche che tuttavia attualmente si
contano a migliaia dislocate in ogni parte del globo, né i sismografi sono
tutti di un unico tipo. Per poter quindi confrontare l'ampiezza di un terremoto
qualsiasi con quella del terremoto standard è indispensabile calcolare il
valore di quest'ultimo a distanze dall'epicentro diverse da 100 km e registrate
da sismografi di altro tipo da quello preso a campione. Questi valori sono stati
calcolati, una volta per tutte, tenendo conto che l'attenuazione (o
l'accentuazione) delle onde che si verificano a varie distanze dalla sorgente,
dipendono anche dal tipo di terreno che attraversano. Ogni stazione sismica oggi
è quindi in possesso di una tabella con i valori del terremoto campione già
determinati in relazione a diverse distanze, al tipo di terreno e al sismografo
operante. Poiché
l'ampiezza massima di un forte sisma, registrata su un sismogramma, può essere
anche milioni di volte maggiore di quella di un terremoto debole, al fine di
evitare numeri molto grandi, Richter propose di ricorrere ai logaritmi di base
10. La magnitudo di un terremoto può essere quindi definita come la misura
logaritmica dell’energia liberata. Il logaritmo di base 10 del rapporto fra
l'ampiezza massima del terremoto misurata sul sismogramma e l'ampiezza che
verrebbe prodotta dal terremoto standard alla stessa distanza rappresenta il
valore della magnitudo di quel determinato evento sismico. Nell'esempio fatto in
precedenza in cui il rapporto fra le ampiezze era 100, la magnitudo sarebbe
stata 2. Infatti, come ben sappiamo, il logaritmo di base 10 di 100 è 2. La
magnitudo M di un terremoto può essere ricavata dalla seguente formula: M = Log A - Log A0
dove A rappresenta l'ampiezza massima delle onde
sismiche relative al terremoto considerato e A0 indica il valore
massimo dell'ampiezza delle onde sismiche del terremoto campione. 12. I TERREMOTI
PIU' VIOLENTI
La scala della magnitudo è aperta ad entrambi gli estremi in quanto non
ha un valore massimo, né minimo, e può anche assumere valori negativi. Sinora
la massima magnitudo registrata è stata di poco superiore a 9 e si riferisce al
terremoto che sconvolse il Cile nel maggio del 1960. Ma gli strumenti più
sensibili sono in grado di registrare microsismi di magnitudo fino a –3: si
tratta di scosse estremamente deboli che liberano quantità di energia
insignificanti. Ad esempio un sisma di magnitudo zero libera una quantità
minima di energia che, tutta insieme, sarebbe appena sufficiente per sollevare
un’automobile. Poiché
la scala delle magnitudo, come abbiamo visto, è logaritmica, un aumento di
un'unità nella magnitudo, corrisponde ad un aumento di un fattore 10
nell'ampiezza del movimento del terreno e ad una liberazione di energia circa 30
volte maggiore. Così, ad esempio, un terremoto di magnitudo 5 produce
vibrazioni 10 volte più ampie di un terremoto di magnitudo 4 e libera una
quantità di energia 30 volte maggiore di questo. L'energia
liberata da un terremoto non è derivabile direttamente dal valore di M,
tuttavia esistono delle formule empiriche che consentono di correlare l'energia
liberata con la magnitudo. Una di queste relazioni, che si adatta abbastanza
bene per l'Italia, è la seguente: Log E = 5 + 1,5 M
dove E è l'energia totale espressa in joule e M è
la magnitudo. Un terremoto di magnitudo 6,6, come quello che si verificò in
Friuli nel 1976, libera energia pari a circa 1015 joule. Questa
corrisponde all'energia prodotta da 4 bombe atomiche del tipo di quelle
sganciate in Giappone sulle città di Hiroshima e Nagasaki nel 1945. Le
esplosioni atomiche producono molti più danni e soprattutto molte più vittime
dei terremoti perché l’energia che esse liberano è concentrata su aree molto
più ristrette rispetto a quelle che interessano i terremoti. Il
terremoto che colpì il Friuli nel 1976 fu, come abbiamo detto, di magnitudo
6,6, e causò 1000 morti. Il terremoto che colpì Los Angeles nove anni più
tardi, nel 1985, fu della stessa magnitudo, ma determinò solo 6 vittime. I due
terremoti avevano quindi la stessa magnitudo ma, rispetto alla scala Mercalli,
intensità molto diverse. Come si vede non c'è corrispondenza precisa fra
l’intensità di un terremoto e i valori di magnitudo in quanto i danni e le
vittime di un sisma dipendono, oltre che dall’energia liberata, anche da altri
fattori come il tipo di terreno su cui sorgono le costruzioni, la densità della
popolazione residente e via dicendo. Se il terremoto di Messina del 28 dicembre
1908 che causò 125.000 vittime e la distruzione quasi totale della città,
fosse avvenuto a qualche kilometro di distanza avrebbe risparmiato una
notevolissima parte dei danni. Se poi un terremoto della stessa intensità si
fosse verificato in una zona desertica, non vi sarebbero state né vittime né
distruzioni e forse non sarebbe nemmeno stato menzionato dalle cronache. In un
anno si registra più di un milione di terremoti (tremila al giorno) dei quali
almeno dieci sono molto forti. La maggior parte di questi terremoti,
fortunatamente, colpisce aree disabitate oppure ha epicentro in fondo al mare e
lontano dalle coste: essi quindi non vengono avvertiti dalla gente ed
ovviamente non ne viene nemmeno data notizia. Come
abbiamo già fatto notare la magnitudo è una misura strumentale del terremoto,
mentre l'intensità secondo la scala Mercalli si riferisce agli effetti
provocati dallo stesso e quindi non è una caratteristica di quel dato evento
sismico, ma piuttosto una valutazione del modo in cui esso è avvertito nelle
diverse zone della Terra. Tuttavia da un punto di vista pratico ed esplicativo
è molto più significativo, per la gente comune, il riferimento ai gradi della
scala Mercalli che alla magnitudo della scala Richter. Nonostante
la differenza concettuale del modo di valutare i terremoti, è ragionevole
pensare che all'aumentare della magnitudo aumenti anche l'entità degli
effetti. Deve esistere quindi una relazione tra magnitudo e intensità
riferibile almeno alle zone abitate. Per l'Italia centro-settentrionale vale la
seguente relazione empirica: M = 0,45 I
+ 1,9 in cui M è la magnitudo della scala Richter e I
è l'intensità massima della scala Mercalli Modificata. Il terremoto del
Friuli, di magnitudo 6,6 della scala Richter, fu infatti giudicato di intensità
compresa fra il X e l'XI grado della scala M.M. 13. I POTENZIALI
DI OSSIDO-RIDUZIONE
Abbiamo visto che i logaritmi più usati sono quelli in base 10 e quelli
in base e, e infatti le
equazioni che descrivono fenomeni naturali attraverso l'uso di logaritmi
contengono normalmente logaritmi di un tipo o dell'altro. A volte si presenta
quindi la necessità di passare da un logaritmo con una certa base ad un altro
con base diversa. Esiste naturalmente una formula appropriata che permette di
far ciò e ci si arriva attraverso passaggi algebrici che vengono qui di seguito
formulati. Riscriviamo
la definizione di logaritmo che ben conosciamo: loga
x = y che significa:
ay
= x Scriviamo
quindi il logaritmo di una generica base b dell'equazione esponenziale
riprodotta sopra: logb
ay = logb x, questa equazione, per un noto teorema sui logaritmi,
diventa: y
· logb a = logb x da cui si può ricavare il valore dell'incognita y:
logb x
Ora, poiché, per definizione di logaritmo, sappiamo che: y = loga
x, sostituendo avremo:
logb
x
da
cui: loga
x · logb a = logb x
Nel caso di logaritmi naturali e di logaritmi decimali, sostituendo e
a b e 10 ad a, la formula scritta sopra assume il seguente aspetto: log10
x · loge10 = loge
x
Ora, poiché il logaritmo in base e
di 10 fa 2,303, dalla formula si ricava che per ottenere il logaritmo naturale
di un numero basta moltiplicare il suo logaritmo decimale per 2,303: loge
x = 2,303 · log10 x e quindi, con i simboli appropriati: ℓn
x = 2,303 · Log x Una
circostanza in cui si presenta la necessità di passare da un logaritmo
all'altro al fine di semplificare i calcoli è quella relativa alla formula di
Nernst. Si tratta di una formula che consente di determinare il potenziale di
ossido-riduzione (potenziale redox) di soluzioni nelle quali le concentrazioni
degli ioni presenti non sono quelle standard (1 molari). L'equazione
di Nernst normalmente appare scritta nella forma seguente:
R · T
[ox]
dove E è il potenziale redox di cui si vuol
determinare il valore, E0 è il corrispondente potenziale redox
standard, R è la costante universale dei gas perfetti che vale, in opportune
unità di misura, 8,313, T è la temperatura assoluta, n è il numero delle moli
di elettroni che in seguito alla reazione si spostano da una specie chimica ad
un'altra, F è il valore unitario del Faraday, cioè la carica trasportata da
una mole di elettroni (che corrisponde a circa 96.500 coulomb), ℓn
è il simbolo del logaritmo naturale e infine, con le scritture [ox] e [red],
vengono indicate le concentrazioni molari delle specie chimiche rispettivamente
allo stato ossidato e a quello ridotto. Se
si fissa la temperatura a 25 °C, cioè 298 K, che è la temperatura alla quale
normalmente si opera nei laboratori scientifici, e si sostituisce questo valore
nella formula insieme a quello dei termini costanti R (8,313)
e F (96.500), quindi si sostituisce il logaritmo naturale ℓn con il prodotto di 2,303 per il logaritmo decimale Log, si
ottiene un'espressione molto semplificata, e più facilmente memorizzabile che
corrisponde a quella che viene usata in pratica:
8,313 · 298
[ox]
0,059 [ox]
Vediamo ora, con un esempio, come viene usata questa formula e per quale
motivo si preferisce il logaritmo in base 10 a quello in base e.
Il
potenziale standard redox dell'argento E0 vale + 0,80 volt. Se invece
che essere in concentrazione standard (1 molare) la soluzione che contiene gli
ioni argento fosse, ad esempio, in concentrazione 0,01 molare (10-2 M),
il suo potenziale sarebbe:
0,059
[Ag+] Sostituendo
i valori, e tenendo presente che la concentrazione dell'argento metallico vale
1, trattandosi della concentrazione di un solido, si ottiene: EAg/Ag+(0,01
M) = + 0,80 + 0,059 · Log 10-2
= + 0,80 +
0,59 · (- 2)
= + 0,80 - 0,12 = + 0,68 Volt Come
si può vedere, il potenziale redox di una semipila ad argento in concentrazione
0,01 M è minore di quello relativo alla stessa semipila, ma a concentrazione 1
M. Una pila può essere quindi costruita anche unendo due semipile dello stesso
elemento che differiscono soltanto per le concentrazioni degli ioni che le
costituiscono. Questo tipo di pile sono dette pile a concentrazione. 14. IL pH
Il logaritmo più famoso che si incontra nello studio delle scienze
naturali, quello di cui ha sentito parlare anche la gente comune, è senza
dubbio il pH. Questo è un simbolo che si usa in chimica per indicare la
maggiore o minore acidità delle soluzioni acquose.
Il
pH fu introdotto, nel 1909, dal biochimico danese Søren P. L. Sørensen il
quale stava affrontando alcuni problemi relativi al processo di fermentazione
della birra. Questo processo richiede un controllo molto accurato dell'acidità
dei mosti la quale, a quel tempo, veniva espressa attraverso la concentrazione
degli ioni H+ presenti in soluzione. Questi ioni, normalmente, sono
in quantità molto piccola e vengono indicati, usando le parentesi quadre per
simboleggiare le concentrazioni molari, attraverso espressioni del tipo:
[H+]
= 10-5 mol/L che significa che in un litro di acqua vi è un
centomillesimo di mole di ioni H+. La mole è una grandezza molto
usata in chimica e corrisponde a circa seicentomila miliardi di miliardi di
particelle, il famoso numero di Avogadro (6,022·1023). Sørensen
si rese immediatamente conto che i calcoli si sarebbero di molto semplificati
facendo riferimento al solo esponente del valore della concentrazione, anziché a tutto il numero. Propose quindi di chiamare questo esponente pH: dove p sta
per potenza (cioè esponente del 10) e H sta per idrogeno (o meglio, per ione
idrogeno). Oggi
il pH viene definito come il logaritmo negativo, in base 10, della
concentrazione molare degli ioni idrogeno. Pertanto: pH
= - Log [H+]
Ora, poiché il logaritmo negativo di un numero si chiama cologaritmo,
possiamo anche scrivere: pH
= Colog [H+]
La conoscenza del pH riveste grande importanza sia
teorica che pratica perché consente di spiegare numerose reazioni e perché
dalla concentrazione idrogenionica delle soluzioni dipende la vita stessa degli
organismi viventi. Ogni processo biologico e molte trasformazioni chimiche
subiscono infatti profonde alterazioni per variazioni anche minime della
concentrazione idrogenionica del mezzo in cui enzimi o altre sostanze devono
operare. Le soluzioni acquose, in particolare, hanno bisogno di un costante
controllo del pH in quanto tali soluzioni rappresentano un costituente
essenziale degli organismi viventi. L'acqua
pura ha pH = 7, ma l'acqua di cui l'uomo fa uso per soddisfare le sue necessità
vitali non è acqua pura, ma acqua che contiene disciolti, anche se in
concentrazioni molto basse, sali ed altre sostanze che ne modificano il pH.
Quando il valore del pH esce da certi limiti l'acqua non è più potabile e
potrebbe anche essere dannosa oltre che per l’uomo pure per le piante e per
gli animali. Il controllo del pH è quindi importante in molte lavorazioni che
interessano i prodotti alimentari, i terreni e più in generale tutti quei
composti chimici che l'uomo giornalmente manipola. La
misura del pH di una soluzione si può ottenere utilizzando alcune sostanze che
cambiano colore a seconda della concentrazione degli ioni H+ presenti
nel liquido con cui vengono a contatto. Queste sostanze sono dette indicatori
chimici e non sono altro che acidi o basi deboli che si dissociano più o
meno fortemente a seconda dell’ambiente nel quale si trovano. La
determinazione del pH di una soluzione attraverso l’uso degli indicatori è
piuttosto approssimata, ma esiste anche un modo più preciso per raggiungere lo
scopo che è basato sull’uso di un apparecchio chiamato piaccametro. Questo
strumento consiste sostanzialmente in una pila a concentrazione in cui un
elettrodo a idrogeno è a concentrazione nota mentre l’altro è rappresentato
dalla soluzione di cui si vuole determinare il pH. Dal valore del potenziale
elettrico che la pila misura si può risalire alla concentrazione degli ioni H+
presenti in soluzione e quindi del pH. 15. LE SOLUZIONI
TAMPONE
Abbiamo visto che il pH della materia vivente non può uscire da certi
limiti altrimenti ne risulterebbe compromesso il procedere stesso della vita. D'altra parte
gli alimenti ed altri prodotti di cui l'uomo fa uso non si conserverebbero a
lungo, se non si riuscisse ad impedire la variazione del pH al loro interno.
Esistono delle soluzioni particolari, dette "soluzioni tampone", che
hanno la prerogativa di mantenere grosso modo invariato il loro pH nonostante
l'aggiunta di piccole quantità di acidi o di basi forti. Una
soluzione tampone si ottiene mescolando in acqua un acido debole con un suo sale
(o una base debole con un suo sale) in quantità più o meno uguali. Immaginiamo
allora, per fare un esempio, di voler preparare una soluzione tampone acido
carbonico/bicarbonato di sodio versando in acqua uguale numero di moli di queste
due sostanze fino ad ottenere un litro di soluzione. L'acido
carbonico (H2CO3) è un acido debole che in acqua
normalmente è assai poco dissociato in ioni, ma, nel caso del nostro esempio,
per la presenza degli ioni bicarbonato (HCO3¯),
che derivano dalla dissociazione del sale e che ne impediscono ulteriormente la
dissociazione, lo è ancora di meno. D'altra parte, il bicarbonato di sodio
(NaHCO3), come tutti i sali, è un elettrolita forte e pertanto, in
acqua, è completamente dissociato in ioni (Na+ e HCO3¯). In soluzione, trascurando gli ioni Na+ che non ci
interessano, si viene quindi ad instaurare l'equilibrio seguente: H2CO3 D H+ + HCO3¯
in cui le molecole di acido indissociato sono
presenti in numero più o meno uguale a quello degli ioni bicarbonato (una mole
per entrambi). La costante di equilibrio dell'acido carbonico (Ka) è
data dalla seguente espressione:
[H+] · [HCO3¯]
che può essere scritta, in seguito a facili
passaggi, anche nel modo seguente:
1
1
[HCO3¯]
quindi, passando ai logaritmi in base 10, abbiamo:
1
1 [HCO3¯]
Il logaritmo di 1/[H+] non è nient'altro
che il pH, infatti, per un noto teorema che abbiamo già incontrato in
precedenza, il logaritmo del quoziente di due numeri positivi è uguale alla
differenza fra il logaritmo del dividendo e quello del divisore; possiamo quindi
scrivere:
1
perché il logaritmo in base 10 di 1 è 0. Ora, poiché
abbiamo definito: pH
= - Log [H+], deve valere anche
1
Per
analogia con pH, il logaritmo decimale dell'inverso della costante di acidità
(Log 1/Ka) di un acido debole viene indicato con pKa,
pertanto l'equazione scritta sopra ora prende la forma seguente:
[HCO3¯]
Questa
espressione è detta equazione di
Henderson e Hasselbach e rappresenta un'altra delle tante equazioni, che si
possono incontrare nello studio delle scienze naturali, nelle quali compaiono i
logaritmi. La
Ka dell'acido carbonico vale 4,3 ·10-7 mol/L e pertanto
il pKa cioè il logaritmo cambiato di segno di quel numero, vale
6,37. Se la concentrazione dell'acido carbonico e del suo sale (che coincide con
quello degli ioni HCO3¯)
sono le stesse, il loro rapporto sarà uguale a 1. Il logaritmo di base 10 di 1
fa 0: ciò significa che il pH di una soluzione siffatta è uguale al pKa
dell'acido che è stato adoperato per realizzarla, cioè, nel nostro caso, a
6,37. Un sistema tampone funziona nel modo migliore quando il suo pH è uguale
al pKa dell'acido che è stato adoperato per prepararlo. Vediamo
ora per quale motivo un sistema tampone "tampona", cioè per quale
motivo una tale soluzione non fa sentire i suoi effetti quando in essa vengono
aggiunte piccole quantità di acido o di base anche forti. Per
rispondere a questa domanda immaginiamo di aver preparato un litro di soluzione
tampone mescolando una mole di acido carbonico e una mole di bicarbonato di
sodio in acqua. Il pH della soluzione sarà 6,37 e in questa soluzione vi sarà
praticamente lo stesso numero di molecole di acido e di ioni HCO3¯. Supponiamo ora di versare in questa soluzione una piccola quantità di
idrossido di sodio (NaOH), per esempio un millesimo di mole (4 centesimi di
grammo, una quantità piccolissima). L'idrossido di sodio è una base forte che
in soluzione libererà immediatamente tutti gli OH¯
di cui dispongono le sue molecole. Questi si uniranno agli ioni H+
che l’acido debole metterà a disposizione perché indotto a dissociarsi
ulteriormente proprio dalla la presenza degli OH¯,
formando molecole di acqua indissociate. Gli ioni OH¯
spariranno quindi dalla soluzione, ma nello stesso tempo calerà il numero delle
molecole di acido (per avere fornito gli H+) e aumenterà quella
degli ioni bicarbonato. La differenza, rispetto alla situazione iniziale, sarà
però minima e quindi lascerà praticamente invariato il valore del logaritmo
che compare nell’equazione di Henderson e Hasselbach: il pH della soluzione
rimarrà praticamente lo stesso (6,37). Per confronto si consideri che se la
stessa quantità di idrossido di sodio (0,001 moli) venisse versata in un litro
di acqua pura, invece che nella soluzione tampone, l'acqua cambierebbe il suo pH
da 7 a 11, con un salto di ben 4 unità. Lo
stesso evento, ma di natura opposta, si verificherebbe aggiungendo una piccola quantità di un
acido forte, per esempio 0,001 moli di HCl. In questo caso gli ioni H+
derivati dall’acido forte che si liberano in soluzione andrebbero a legarsi
agli ioni bicarbonato formando molecole indissociate di acido carbonico e
facendo quindi sparire dalla soluzione gli ioni responsabili dell’acidità.
Nel contempo diminuirebbe però il numero degli ioni bicarbonato mentre
aumenterebbe quello delle molecole di acido, ma la differenza rispetto alla
situazione iniziale sarebbe minima, tanto che il valore del logaritmo
all’interno della equazione di Henderson e Hasselbach rimarrebbe ancora una
volta praticamente invariato e quindi nemmeno il pH cambierebbe di molto.
Il
pH del sangue si mantiene intorno al valore di 7,4 nonostante l’aggiunta o la
sottrazione di prodotti metabolici che tenderebbero a farlo variare. Per poter
mantenere costante il suo pH il sangue utilizza alcuni sistemi tampone il primo
dei quali è basato sulla presenza dell’acido carbonico e dello ione
bicarbonato. L'acido carbonico, presente nel sangue e nei fluidi extracellulari,
è a sua volta in equilibrio con la CO2 che si forma in seguito al
metabolismo cellulare. La reazione di equilibrio fra anidride carbonica ed acqua
che porta alla formazione dell'acido carbonico è la seguente: CO2 + H2O D
H2CO3 .
Quando l'acido carbonico si dissocia per liberare
ioni H+ al fine di tamponare gli OH¯
che sono stati aggiunti, altro acido carbonico si forma a spese dell'anidride
carbonica che non viene quindi espulsa attraverso la respirazione. Viceversa
quando si forma troppo acido carbonico in seguito alla presenza, nei
liquidi interstiziali, di acidi di varia provenienza, la quantità
sovrabbondante si scinde in anidride carbonica ed acqua, sostanze che poi
verranno eliminate attraverso la respirazione. fine |