LA
MISURA DELLE GRANDEZZE FISICHE
Fu Galileo Galilei, agli inizi del diciassettesimo
secolo, a rivoluzionare il metodo di studio dei fenomeni naturali. Prima di Lui,
sulla scia degli insegnamenti aristotelici, la scienza era considerata una
disciplina sostanzialmente descrittiva e consisteva, in pratica,
nell'osservazione dei fenomeni naturali e nella ricerca di un'interpretazione
plausibile degli stessi. Con lo scienziato toscano la scienza progredì
enormemente perché, alle osservazioni di carattere qualitativo, si aggiunsero
quelle di natura quantitativa, che esigevano la misurazione degli oggetti di
studio. La misurazione, nell'ambito della ricerca
scientifica, rappresentò un fatto di enorme importanza soprattutto per le
garanzie di obiettività che essa forniva, tanto che nel secolo scorso il fisico
e matematico irlandese William Thomson, più noto con il nome di lord Kelvin,
così descriveva l'oscuro lavoro del ricercatore scientifico: "Io affermo
che quando voi potete misurare ed esprimere in numeri ciò di cui state
parlando, solo allora sapete effettivamente qualcosa relativamente all'oggetto
della vostra indagine." La ricerca scientifica pone quindi dei limiti
alla sua stessa attività in quanto stabilisce di occuparsi esclusivamente di ciò
che è possibile misurare; le entità di cui non è possibile cogliere la misura
(come, ad esempio, l'anima, la giustizia o gli UFO) esulano dal campo dell'indagine
scientifica. Vediamo quindi in che cosa consiste esattamente la misura di un
oggetto e come si opera per realizzarla. Iniziamo col dire che le proprietà della materia
che possono essere determinate quantitativamente si chiamano grandezze (o parametri)
e possono essere fisiche o chimiche. Esse sono dette anche variabili, perché
appunto possono assumere valori diversi. La massa, il volume e la temperatura di
un corpo, sono esempi di grandezze fisiche, mentre il grado di acidità (pH) di
una soluzione o il numero di ossidazione di un elemento sono esempi di grandezze
chimiche. Ora, misurare una grandezza, relativa all'oggetto
di studio, significa confrontare quella grandezza con un'altra di riferimento,
ad essa omogenea, detta unità di misura.
Come risultato dell'operazione si ottiene un numero. Questo numero, considerato
singolarmente, non ha alcun significato concreto ma, se è seguito dall'unità
di misura, rappresenta l'entità della grandezza considerata. Per fare un
esempio, dire che una persona pesa 80 non significa nulla, ma dire che pesa 80
kg significa che pesa 80 volte di più della quantità che è stata presa per
convenzione uguale a 1 kg, cioè l'unità di peso. Attualmente quasi tutti gli Stati del mondo
riconoscono e usano il Sistema Internazionale di Unità,
abbreviato in SI (iniziali di Systéme
International). Il vantaggio di avere un sistema di misura internazionale è
quello di dare la possibilità a scienziati e tecnici di tutto il mondo di
comunicare con facilità i risultati della loro attività. Sappiamo infatti
quanto è importante, per il progresso della scienza, che i risultati della
ricerca possano venire diffusi, e gli esperimenti ripetuti in luoghi diversi. Un aspetto che molto spesso si trascura di
chiarire, nello studio delle scienze sperimentali, è che il risultato di una
misurazione non può mai essere di assoluta precisione perché qualsiasi misura
è sempre gravata da un errore più o
meno grande. Questo è una conseguenza del fatto che ad operare la misurazione
di una grandezza deve essere necessariamente l'uomo il quale, come ben sappiamo,
non è perfetto; così come non è perfetto lo strumento di cui si serve per
eseguire la misura. Per convincersi che il valore numerico di una
grandezza è un'approssimazione si provi a misurare la lunghezza del foglio di
carta che sta sotto i vostri occhi, facendo uso di un doppio decimetro con scala
millimetrica. Operando con attenzione si potrebbe ottenere, ad esempio, la
misura di 29,68 cm. Ebbene, l'ultima cifra di questa misura, l'8, non è un
valore sicuro al cento per cento nel senso che ripetendo più volte la misura o
facendola eseguire da altre persone si potrebbero ottenere valori diversi: per
esempio 29,67, 29,69 o anche 29,66 cm. Qual è allora fra tutte le misure
ottenute quella più attendibile? O, per essere più espliciti, qual è la
misura giusta? Evidentemente nessuna di quelle indicate,
altrimenti dovremmo dare più credito ad un operatore piuttosto che ad un altro.
In effetti tutti noi potremmo essere d'accordo nel dire che la misura del foglio
è sicuramente compresa fra 29,6 e 29,7 cm, ma non tutti saremmo invece
d'accordo se dovessimo indicare il punto preciso, fra le due tacche del
righello, corrispondenti ai valori di 29,6 e 29,7 cm, in cui cade il bordo
estremo del foglio. Gli scienziati esprimono l'incertezza (o errore)
della misura con una notazione particolare che noi riporteremo riferita alla
misura del nostro foglio. Nel caso in esame dovremmo scrivere il valore
probabile della lunghezza del foglio e quindi, appresso a quel valore, indicare
l'incertezza della misura, per esempio nel modo seguente: 29,67 ± 0,02 cm. La
notazione suggerisce che il valore reale dovrebbe essere compreso fra 29,67 -
0,02 = 29,65 cm e 29,67 + 0,02 = 29,69 cm. Questa convenzione, tuttavia, è poco
pratica per cui normalmente se ne adotta un'altra, molto più sbrigativa, che è
quella di prendere per buono il valore medio dei risultati delle singole misure
e sottintendere, all'interno di quel valore, l'errore. Nell'esempio da noi proposto, il valore della
misura del foglio verrebbe espresso semplicemente con un numero di quattro cifre
e precisamente: 29,67 cm (valore medio probabile della grandezza misurata).
Queste quattro cifre sono dette cifre
significative: di esse le prime tre rappresentano valori sicuri della
misura, mentre la quarta contiene un certo grado di incertezza nel senso che
quella cifra potrebbe essere anche 8 o 6. Con questa convenzione si assume
infatti che l'ultima cifra possa contenere solo l'incertezza di ± 1.
Il numero delle cifre significative dipende
ovviamente dalla scala dello strumento di misura utilizzato, cioè da quello che
viene definito il limite di apprezzabilità
(o limite di sensibilità) dell'apparecchio. Questo limite corrisponde alla
minima quantità che l'apparecchio riesce ad apprezzare. E' ovvio, ad esempio,
che non si possono pretendere misure di lunghezza con cinque o sei cifre
significative usando il metro del sarto (uno strumento di misura, come tutti
sanno, non molto preciso), perché molte di quelle cifre non avrebbero alcun
significato. E' "proibito" infatti, in generale, nell'operazione di
misurazione, assumere un numero di cifre significative superiore a quello
compatibile con la precisione dello strumento di misura utilizzato (la
cosiddetta portata dello strumento di misura, un parametro legato alla sua
sensibilità): l'aggiunta di altre cifre sarebbe un'operazione del tutto
arbitraria e non rappresenterebbe affatto una maggiore precisione della misura.
Nessuno si sognerebbe, ad esempio, usando il doppio decimetro, di attribuire al
foglio di carta che ha sotto gli occhi la misura di 29,687524 cm: le ultime
quattro cifre che abbiamo scritto, infatti, sono state letteralmente inventate.
ERRORI NELLE MISURE Le possibilità di errore, durante l'operazione
di rilevamento di una misura, sono molteplici, tuttavia, gli errori in sé
possono essere classificati in due soli tipi fondamentali: errori sistematici ed
errori accidentali. Gli errori
sistematici sono quelli che compaiono in ogni singola misura e sono dovuti
all'impiego di strumenti poco precisi, mal tarati, o inadatti alla misura in
questione. Di questo tipo di errori fanno parte anche quelli dovuti
all'imperizia o alla negligenza dello sperimentatore o quelli che derivano
dall'aver trascurato l'influenza, sul risultato, di fattori esterni come ad
esempio la pressione nel caso della misurazione della temperatura dell'acqua. Come tutti sanno, infatti, se si volesse misurare
la temperatura di ebollizione dell'acqua, bisognerebbe accertarsi innanzitutto
che si tratti di acqua distillata (le soluzioni bollono a temperature tanto più
alte quanto più sono concentrate) e successivamente che la pressione a cui è
sottoposto il liquido sia di 1 atm altrimenti, anche facendo uso di un
termometro molto preciso, il risultato non sarebbe mai di 100 °C, perché
l'acqua distillata bolle a 100 °C solo se la pressione esterna è di 1 atm. Gli errori sistematici influiscono sulla misurazione
sempre nello stesso senso e, in genere, con la stessa entità. Possono,
tuttavia, essere ridotti, per esempio sostituendo lo strumento di misura o
tarando meglio quello in uso, ma non possono, in nessun caso, essere eliminati
del tutto. Gli errori
accidentali (detti anche casuali) sono quelli non prevedibili e di entità
variabile. Essi sono dovuti sia allo stato psicofisico dello sperimentatore (mai
perfetto), sia alla inevitabile e imprevedibile imprecisione degli strumenti
usati. Questi errori possono anche essere dovuti alla variazione casuale e di
breve durata di fattori esterni come la pressione, l'umidità o la temperatura
dell’aria, di cui lo sperimentatore non ha tenuto conto durante l'esecuzione
della misura. Questo tipo di errore può influire sulla misura ora in un senso,
ora nell'altro; e può essere ridotto al minimo ripetendo più volte la misura e
facendo quindi la media aritmetica dei valori trovati. Fra i due tipi di errori, quelli sistematici e
quelli accidentali, come si sarà notato, vi è una notevole differenza. Agli
errori sistematici è infatti associato il concetto di accuratezza, mentre agli errori accidentali è associato quello di precisione.
Diremo allora che una misura è accurata quando è stata eseguita in condizioni
sperimentali adatte e facendo uso di strumenti idonei. Diremo invece che una
misura è precisa quando l'esecutore della misura stessa è in grado di indicare
l'entità degli errori dai quali essa è affetta; potremmo anche dire che una
misura è ritenuta precisa quando ripetute esecuzioni della stessa danno valori
concordanti. Da quanto abbiamo detto si deduce, quindi, che una misura potrebbe
essere precisa, ma non accurata. Chiariamo ulteriormente il concetto con un
esempio. Consideriamo di nuovo il nostro foglio di carta e supponiamo che sia
stato misurato più volte da operatori diversi e molto esperti, e con strumenti
ben tarati. Immaginiamo anche che alla fine i nostri sperimentatori abbiano
deciso che la misura vera del foglio non dovrebbe essere molto lontana dal
valore di 29,67 cm. A questo punto chiediamo ad uno studente di
effettuare una serie di misure sullo stesso foglio e immaginiamo che i valori in
centimetri siano stati i seguenti: 29,68; 29,67; 29,68; 29,68; 29,67. Ebbene, in
questo caso, la serie di misure eseguite dal nostro studente deve essere
giudicata sia accurata che precisa. Essa è accurata perché è molto vicina
alla misura indicata come vera dagli esperti; precisa perché lo studente ha
ottenuto valori variabili entro un intervallo molto ristretto. Un secondo studente verificando, a sua volta, le misure
sullo stesso foglio ottiene i seguenti valori in centimetri: 29,58; 29,58;
29,59; 29,58; 29,59. Il risultato conseguito è ancora
molto preciso, ma niente affatto accurato, perché troppo lontani, i valori,
dalla misura indicata dagli esperti: la scarsa accuratezza potrebbe essere
dipesa, ad esempio, dall'uso di uno strumento mal tarato. Infine, un terzo studente, ottiene i seguenti
valori, sempre in centimetri: 29,63; 29,67; 29,61; 29,72; 29,68. Questa serie di
misure deve essere considerata del tutto inaccettabile in quanto imprecisa e
anche poco accurata. Stabilito quindi che non vi è modo alcuno di
cogliere la misura "vera" di un oggetto fisico, possiamo però
chiederci fino a che punto è possibile pretendere la precisione in una
operazione di misurazione. In altre parole, quanto precisa può essere, anche
solo in linea di principio, una misurazione? La questione può essere affrontata
su due piani diversi: l'uno pratico, l'altro teorico. Da un punto di vista pratico, si deve partire dal
presupposto che per eseguire una misura esatta si dovrebbe disporre di un
apparecchio di misura perfetto. Ma uno strumento perfetto, come abbiamo già
avuto modo di dire, è irrealizzabile. Comunque, anche qualora si potesse
effettivamente disporre di uno strumento perfetto, questo ancora non sarebbe
sufficiente per ottenere una misura esatta, perché anche l'operatore dovrebbe
essere, a sua volta, perfetto, ma l'operatore è l'uomo. Vediamo ora come potrebbero svolgersi le cose da
un punto di vista prettamente teorico. Immaginiamo, allora, un esperimento
concettuale che ci consenta una misurazione ideale, con uno strumento
assolutamente perfetto. Immaginiamo anche l'uomo in perfette condizioni fisiche:
vista perfetta, riflessi pronti, mano ferma ecc. Riuscirà questa persona a
cogliere la misura esatta dell'oggetto in esame? Prima di rispondere dobbiamo
chiederci: "Esiste in realtà il valore esatto di una grandezza
fisica?" La risposta è negativa e ci viene fornita dalla
meccanica quantistica che è una teoria che si occupa del comportamento
degli oggetti molto piccoli, come sono ad esempio gli atomi. Ebbene, la teoria
insegna che tutte le misure sono soggette ad un tasso più o meno elevato di
indeterminazione. Questo significa che è impossibile misurare con precisione
assoluta un oggetto fino nei suoi costituenti più intimi perché nella
costituzione stessa della materia sono insite delle approssimazioni che non
dipendono da difetti delle apparecchiature con le quali si procede alla misura,
ma dal modo stesso in cui è fatta la materia. In altri termini, in base alla teoria della
meccanica quantistica, è l'atomo stesso un'entità dai contorni sfumati e
quindi non può avere dimensioni esatte. Di esso cioè non sarà mai possibile
conoscere l'esatta grandezza, né il suo vero peso, né sarà mai possibile, in
generale, compiere su di esso un'operazione di misura perfetta. E' evidente
allora che una misura, per quanto precisa la si possa immaginare, non potrebbe,
in nessun caso, arrivare al di sotto delle dimensioni di un atomo. Per chiarire ulteriormente il concetto possiamo
immaginare di misurare la temperatura dell’acqua. Riempiamo allora la vasca da
bagno di acqua calda ed immergiamo in essa il bulbo di un termometro che ci
fornirà la sua temperatura. Siamo sicuri che quella registrata è esattamente
la temperatura dell’acqua contenuta nella vasca? Il termometro, per cogliere
la temperatura, in realtà ha sottratto del calore all’acqua che quindi è
diventata un po’ più fredda. Certo, questo piccolo abbassamento della
temperatura può essere trascurato anche perché di gran lunga inferiore alla
precisione dello strumento usato. Ma immaginiamo ora di dovere misurare la
temperatura di una goccia d’acqua. Di certo non potremo usare lo stesso
termometro di prima, perché in questo caso sottrarrebbe dall’acqua una
quantità di calore non trascurabile. Per avere un risultato apprezzabile si
dovrebbe far uso di un termometro di piccole dimensioni, molto più piccolo
della goccia d’acqua. La cosa sarebbe ancora fattibile. Se però si volesse misurare la temperatura
di un atomo non potremmo disporre di un termometro di più piccole dimensioni.
Pertanto, qualunque strumento usassimo, questo modificherebbe in modo decisivo
la sua reale temperatura. La meccanica quantistica, come abbiamo visto,
suggerisce infatti che è impossibile misurare con precisione assoluta gli
oggetti molto piccoli come ad esempio gli elettroni, i protoni, o gli atomi
stessi. DETERMINAZIONE DELLE CIFRE SIGNIFICATIVE Abbiamo detto che le cifre ottenute da una
misurazione si chiamano cifre significative, perché sono quelle che hanno
significato in quanto effettivamente registrate dallo strumento utilizzato per
compiere la misura. Il numero di tali cifre è dato da quelle note con sicurezza
più una incerta. Se, ad esempio, la massa di un oggetto, pesato con una
bilancia tecnica che presenta un limite di apprezzabilità di 0,01 g, risultasse
di 12,47 g, le cifre significative corrispondenti a questo valore sperimentale
sarebbero quattro di cui l'ultima, il 7, si presenterebbe incerta di un valore
± 0,01 g. Lo stesso oggetto, pesato con una bilancia con limite di
apprezzabilità maggiore, ad esempio, 0,0001 g (0,1 mg), assumerebbe un valore
più preciso, diciamo 12,4739 g. In questo caso le cifre significative sarebbero
sei con l'ultima, cioè il 9, incerta di un valore ± 0,1 mg. Quando si ha a che fare con numeri molto grandi o
con numeri molto piccoli relativi ad una misura, non è sempre così facile
decidere sul numero delle cifre significative. Prendiamo, ad esempio, il numero
di Avogadro:
602.200.000.000.000.000.000.000 Si tratta, come sappiamo, del numero che
individua le particelle presenti in una mole di una sostanza qualsiasi. E' un
numero di 24 cifre che potrebbe essere letto nel modo seguente: seicentoduemila
e duecento miliardi di miliardi. Le cifre che lo compongono sono tutte cifre
significative? Evidentemente no perché, per quanto precisa e scrupolosa possa
essere stata la misura di questa grandezza, nessuno può pensare che la 24ª
cifra di quel numero rappresenti un'entità con reale significato. In effetti,
la massima precisione che si è potuta realizzare nella determinazione di questa
grandezza non si è mai spinta al di là di un valore con quattro cifre
significative. Pertanto, nei casi in cui devono essere indicati
valori sperimentali espressi da numeri molto grandi (cioè con molti zeri, come
nel caso del numero di Avogadro), per evitare malintesi, quei numeri devono
essere rappresentati in notazione scientifica (detta anche notazione
esponenziale, perché usa le potenze del 10). Si deve allora dividere il numero in due fattori,
di cui il primo fornisce le cifre significative della misura e il secondo indica
semplicemente di quanti posti deve essere spostata verso destra la virgola per
stabilire i decimali. Il numero di Avogadro, per esempio, in notazione
scientifica, dovrebbe essere scritto correttamente nel modo seguente: N
= 6,022·1023 particelle La stessa regola vale per i numeri molto piccoli,
cioè per quei numeri che presentano molti zeri iniziali, come, ad esempio, per
la seguente grandezza: 0,0002967 km. Gli zeri, che compaiono come prime cifre di un
numero decimale, non sono considerati cifre significative perché essi servono
semplicemente a fissare la posizione della virgola.
Per rendersene conto si provi ad esprimere in kilometri la lunghezza del
nostro foglio di carta; essa risulta proprio quella riportata sopra, cioè
0,0002967 km. Questa misura ovviamente non contiene otto cifre significative, ma
solo quattro, esattamente come quando era stata espressa in centimetri. Per non
creare equivoci si procede, anche in questi casi, a scrivere la misura nella
notazione scientifica. Nel nostro esempio essa risulta: 2,967·10-4
km che, come è facile verificare,
comprende solo quattro cifre significative. Ricapitolando, per quanto riguarda le cifre
significative, si può dire che gli zeri che si trovano a sinistra di una
qualsiasi altra cifra, non contano mai come cifre significative. Ad esempio, la
grandezza 0,00000012 cm ha solo due cifre significative. Se invece gli zeri si trovano a destra di una
qualsiasi altra cifra, allora bisogna distinguere: essi potrebbero o no essere
considerati cifre significative. Dipende, caso per caso, dalla precisione con
cui è stata effettuata la misura. Se ad esempio venisse fornito, del peso di un
oggetto, il valore di 1000 g e questo peso fosse stato ottenuto con una bilancia
di precisione, in grado di valutare il grammo, allora tutte e quattro le cifre
del nostro numero dovrebbero essere considerate cifre significative. Ma se il
valore fosse stato ottenuto con una bilancia molto meno precisa (ad esempio del
tipo di quelle che si usano in casa), allora le cifre significative sarebbero
sicuramente di meno, forse, al massimo, solo due o tre. In tal caso, se il
valore, invece che in grammi, venisse espresso in kilogrammi, si eviterebbero
contestazioni e dubbi. Se, infatti, il peso del nostro oggetto venisse
presentato con la seguente scrittura: «1,00 kg», questo non comporterebbe
alcun equivoco in quanto gli zeri, posti dopo la virgola, hanno lo scopo proprio
di indicare la precisione con cui è stata eseguita la misura stessa, la quale,
in questo caso, si presenta con tre cifre significative. OPERAZIONI DI CALCOLO CON LE MISURE Vediamo ora come si procede quando si devono
eseguire operazioni aritmetiche con le misure sperimentali. Poiché, come
abbiamo detto, il valore di una misura non deve essere inteso come fosse un
numero matematico (e nemmeno usato come tale), il risultato di un calcolo fra
grandezze non potrà contenere un numero di cifre significative superiore a
quello dei valori ricavati dalle misurazioni e dai quali si è partiti per
eseguire i calcoli. Se ad esempio si volesse calcolare la superficie
del foglio di carta che abbiamo sotto gli occhi dovremmo moltiplicare i 29,67 cm
della sua lunghezza per i 21,08 cm della sua larghezza: si otterrebbe il
risultato di 625,4436 cm². Le sette cifre che rappresentano il risultato della
moltiplicazione fra lunghezza e larghezza del foglio, non possono tuttavia
essere considerate tutte cifre degne di significato. Essendo solo quattro le
cifre significative delle dimensioni lineari del foglio, altrettante dovranno
essere quelle della sua superficie e pertanto il risultato valido sarà: 625,4
cm². Per ricavare le cifre significative del risultato
di un operazione aritmetica, in questo caso sono state semplicemente soppresse
le ultime tre cifre a destra del risultato. Molto spesso però l'operazione di
arrotondamento del risultato di un'operazione algebrica non consiste nella
semplice soppressione delle ultime cifre del valore ottenuto con il calcolo.
Poiché, soprattutto con l'uso delle calcolatrici tascabili, i risultati delle
operazioni algebriche vengono spesso forniti con un gran numero di cifre, che
ovviamente non devono essere prese tutte in considerazione, riportiamo, in modo
sintetico, le regole di arrotondamento dei risultati delle operazioni di
calcolo. a) Quando, l'ultima cifra che deve essere
eliminata, partendo da destra, è minore di 5, la prima cifra che viene
mantenuta, resta invariata. Ad esempio, per arrotondare il numero 3,74821 a sole
due cifre significative, di deve scrivere 3,7 (il 4, ultima cifra eliminata, è
minore di 5). b) Quando l'ultima cifra da eliminare, partendo
da destra, è maggiore di 5, oppure è proprio 5 (ma allora deve essere seguita
da altre cifre che non siano tutti zeri) alla prima cifra che viene mantenuta si
deve aggiungere un'unità. Ad esempio, volendo arrotondare il numero 3,67538 a
sole due cifre significative, si deve scrivere 3,7; allo stesso modo, per
arrotondare il numero 3,65028 sempre a due sole cifre significative, si deve
ancora scrivere 3,7. c) Quando la cifra da eliminare è esclusivamente
il 5, allora si aggiunge un'unità alla cifra che la precede se questa è
dispari, mentre la si mantiene invariata se questa è pari.
Esempi: Il numero 3,35, arrotondato a due cifre significative diventa
3,4, mentre il numero 3,85 arrotondato a due cifre significative diventa 3,8. Se
però il numero 5 da eliminare è a sua volta seguito da altre cifre (ovviamente
anch'esse da eliminare) alcune delle quali diverse da zero, allora la cifra che
si conserva viene aumentata di un'unità anche se pari. Esempio: il numero
3,85023 arrotondato a due sole cifre significative assume il valore di 3,9. In
ogni caso, è buona regola, quando si eseguono i calcoli, portarsi dietro una
cifra in più rispetto a quelle significative. Queste poi verranno ridotte al
numero esatto una volta completati i calcoli. Vediamo ora alcuni esempi concreti di operazioni
algebriche. 1. ADDIZIONE E SOTTRAZIONE Nel risultato di una addizione o di una sottrazione
deve comparire lo stesso numero di decimali della misura che ne contiene il
minor numero. E' evidente, infatti, che il risultato di un'operazione di somma
non potrà essere più preciso di quanto non lo sia l'addendo meno preciso. Esempi:
5,27 +
175,8 +
24,25 - Nel primo caso il risultato valido è 29; nel secondo
caso 188,1; e nel terzo 24,0 (si noti che è stata riportata una grandezza con
tre cifre significative). 2. MOLTIPLICAZIONE E DIVISIONE Il risultato di una moltiplicazione o di una
divisione non può avere più cifre significative di quante non ne possegga il
termine che ne ha di meno. Fanno eccezione i risultati nei quali la prima cifra
significativa è 1 o 2: in tali casi, il numero delle cifre significative deve
essere aumentato di un'unità. Si noti che mentre per le moltiplicazioni e le
divisioni, negli arrotondamenti, si fa riferimento alle cifre significative, per
le addizioni e le sottrazioni si erano prese in considerazione le cifre
decimali. Esempi: a) 12,4 x 84 = 1041,6. Il risultato valido
dovrebbe contenere solo due cifre significative (come il fattore che ne ha di
meno). Siccome però la prima cifra del risultato è 1 le cifre significative
devono essere aumentate a tre. Il risultato valido è quindi 104, o meglio,
scritto in notazione scientifica, 1,04·102. b) 9,84 : 9,3 = 1,058064516 (risultato letto sul
display della calcolatrice tascabile). In realtà le cifre significative del
quoziente dovrebbero essere due sole (quante sono quelle del divisore) e il
risultato dovrebbe essere 1,1. Siccome però la prima cifra del quoziente è 1,
è lecito assumere una cifra in più; il risultato finale è quindi 1,06. c) 13,28 : 0,714 = 20. Si faccia attenzione, in questo caso, che siccome le cifre significative devono essere tre (quante ne contiene il divisore) bisogna aggiungere una cifra al risultato che correttamente deve essere quindi scritto nel modo seguente: 20,0. UNITA' DI MISURA DEL SISTEMA INTERNAZIONALE
fine |