Sie sind auf Seite 1von 34

Universit`a degli studi di Genova

Dipartimento di Fisica
Introduzione Elementare alla Teoria degli
Errori
Renzo Collina
anno acc. 2012/13
2
Indice
0.1 Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1 Grandezze Fisiche 5
1.1 Grandezze e misure . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Sistemi di unit` a e dimensioni . . . . . . . . . . . . . . . . 6
1.2 Errori di misura e Sensibilit`a degli Strumenti . . . . . . . . . . . 8
1.2.1 Distribuzione degli errori accidentali e loro calcolo . . . . 10
1.2.2 Stima a priori degli errori e loro propagazione . . . . . . . 13
1.2.3 Errori e cifre signicative . . . . . . . . . . . . . . . . . . 19
2 Aspetti statistici della teoria degli errori 23
2.1 Errori accidentali e probabilit`a . . . . . . . . . . . . . . . . . . . 23
2.1.1 Denizioni empiriche di probabilit`a . . . . . . . . . . . . . 23
2.1.2 Propriet`a della probabilit`a . . . . . . . . . . . . . . . . . . 25
2.1.3 Speranza matematica e varianza . . . . . . . . . . . . . . 26
2.2 Densit` a di probabilit`a . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.1 Distribuzione Costante e Distribuzione Normale . . . . . . 31
2.2.2 La distribuzione di Bernoulli . . . . . . . . . . . . . . . . 33
3
4 INDICE
A Giuliana
0.1 Prefazione
Prima di iniziare lo studio della Fisica Generale mi `e sembrato opportuno in-
trodurre una trattazione elementare (e per ragioni di tempo, molto parziale)
del concetto di misura e parlare, in maniera molto essenziale, degli errori. Ri-
tengo infatti importante per qualunque attivit`a, anche di tipo professionale,
comprendere quale sia il signicato di un numero legato ad una misura od a
una osservazione.
Queste brevi note non sono un testo per un corso sulla teoria degli errori, non
avendone in nessun modo la completezza necessaria, e per chiunque desideri
approfondire largomento un testo resta quindi raccomandato. Questi appunti
rappresentano solo una traccia per gli argomenti che verranno trattati allinizio
del corso.
Un ottimo testo di riferimento `e: An Introduction to Error Analysis - The
study of uncertainties in Physical mesurements: John R. Taylor (University of
Colorado) - University Science Book, Sausalito, California
Un altro ottimo (e completo testo), che `e disponibile direttamente in rete a
http://wwwcdf.pd.infn.it/labo/INDEX.html , `e quello del prof. Maurizio Lo-
reti dellUniversit` a di Padova: Teoria degli Errori e Fondamenti di Statistica -
Introduzione alla Fisica Sperimentale.
Genova 25 / 09 / 2012 Renzo Collina
Capitolo 1
Grandezze Fisiche
1.1 Grandezze e misure
La sica moderna n dal suo nascere, cio`e da Galileo in poi, si `e sviluppata
attraverso una continua applicazione di metodi e concetti matematici. Ovvero
la matematica, dagli aspetti elementari a quelli pi` u avanzati, `e stata (e lo `e
tuttora) il linguaggio e lo schema logico che ha permesso di associare alle os-
servazioni delle quantit` a non soggettive e di costruire tra queste delle relazioni
che, tramite lo schema matematico (e quindi esso stesso non soggettivo), por-
tino a delle previsioni vericabili del loro evolversi.
Le leggi matematiche pi` u direttamente legate alle osservazioni, o almeno quelle
che sono pi` u spesso applicate ai problemi sici, sono relazioni fra numeri. Que-
sto implica che i vari enti che vengono associati alle osservazioni devono essere
quelli per i quali `e possibile associare dei valori numerici, in modo riproducibile
per ogni osservatore, che ne rispecchiano il signicato in modo completo e fedele.
Questi valori numerici sono detti misure. Le leggi matematiche, quando sono
applicate agli enti sici, sono relazioni tra le loro misure e non direttamente tra
gli enti stessi.
Un ente al quale sia possibile associare (anche concettualmente) un valore
numerico, ovvero sia misurabile, prende il nome di grandezza. Ad esempio sono
grandezze la lunghezza di un segmento o la massa di una pietra, mentre non lo
sono il segmento di una retta o la pietra.
Per denire la misura di una grandezza si considerano poche operazioni ma-
tematiche elementari, quali la somma e il rapporto, ai quali si pu` o dar signicato
non solo nel campo dei numeri, ma anche quando sono riferiti a grandezze della
stessa specie (grandezze omogenee). Ad esempio in geometria, tramite opera-
5
6 CAPITOLO 1. GRANDEZZE FISICHE
zioni quali la disposizione consecutiva o la sovrapposizione, `e possibile denire
il rapporto tra due segmenti o fra due angoli etc. In modo analogo per una
qualunque classe di grandezze siche omogenee `e possibile dar signicato al
rapporto tra due di esse. Per far questo dovremo stabilire tramite quali opera-
zioni (ssate in modo non ambiguo e riproducibili per ogni osservatore) si dovr`a
intendere che due grandezze sono uguali e quando una `e il doppio dellaltra. Ad
esempio possiamo dire che le quantit`a di calore cedute da due corpi diversi sono
uguali quando, alla stessa temperatura costante di 0
0
C e alla stessa pressione
di una Atmosfera, fondono due masse uguali di ghiaccio e che una quantit`a
`e il doppio dellaltra quando le masse di ghiaccio sono una doppia dellaltra.
Procedendo secondo questa logica potremo dire quando una quantit`a `e il triplo,
il quadruplo e cos via dellaltra, cio`e potremo stanbilirne il rapporto. Stabili-
to cos il rapporto tra due grandezze omogenee, si dice misura di una di esse
rispetto allaltra, scelta come unit`a di misura, questo rapporto.
Dalle osservazioni precedenti ne segue che quando si denisce una grandezza
va, allo stesso tempo, stabilita la possibilit`a di misurarla. Le grandezze siche
si possono denire in due modi diversi; alcune di esse si assumono come fonda-
mentali e si introducono in modo indipendente da tutte le altre. Cos `e stato
fatto per le lunghezze, gli intervalli di tempo, le masse e la carica elettrica. Per
stabilire la loro misurabilit`a vanno quindi dati i criteri di uguaglianza e di rap-
porto. Tutte le altre grandezze, che sono dette derivate, sono denite in base
a relazioni matematiche con le altre precedentemente introdotte; per queste la
misurabilit`a `e conseguenza diretta della loro denizione.
Da un punto di vista pratico, indipendentemente da come una grandezza sia
denita, una misura pu` o essere ottenuta in due modi diversi: si pu` o confrontare
la grandezza direttamente con lunit` a di misura, come si fa misurando un pezzo
di stoa con un metro certicato; in questo caso la misura si dice diretta o
relativa. Oppure si pu` o ottenere la misura cercata tramite le misure di altre
grandezze legate alla gradezza in esame. In tal caso la misura `e detta indiretta o
assoluta. Le misure che si fanno tramite apparecchi gi`a tarati possono rientrare
nella prima o nella seconda categoria a seconda della procedura di taratura
seguita.
1.1.1 Sistemi di unit`a e dimensioni
Conseguenza di quanto abbiamo osservato nel paragrafo precedente `e la neces-
sit` a di ssare quali siano le grandezze fondamentali; questa scelta non `e univoca
e scelte diverse deniscono sistemi di unit` a dierenti. Attualmente esiste un ac-
1.1. GRANDEZZE E MISURE 7
cordo internazionale per un sistema di unit` a di misura (il sistema internazionale
(IS)) che ha come grandezze fondamentali la lunghezza, la massa, lintervallo
di tempo, e la carica elettrica. Le unit` a di misura relative a queste quattro
grandezze (una in pi` u dei vecchi sistemi MKS e CGS), sono il metro m, il chi-
logrammo Kg, il secondo s e il Coulomb C. Di queste unit` a di misura sono poi
deniti i multipli e i sottomultipli secondo il sistema decimale. A queste unit` a
di misura sono associati dei campioni che in passato erano, ad esempio per la
lunghezza e la massa, degli oggetti costruiti dalluomo (il metro campione e
il chilogrammo campione); questi campioni erano opportunamente conservati,
ma presentavano molti problemi relativamente alla stabilit` a del campione stes-
so e alla sua riproducibilit`a. Attualmente, per quanto riguarda i campioni, ci si
riferisce a dei fenomeni sici che hanno caratteristiche non mutabili e che non
necessitano della costruzione di nessun oggetto. In particolare dal 21 ottobre
1983 si `e assunto come campione la velocit`a della luce nel vuoto c assegnandole
il valore di c = 299792458 m s
1
. Da questa si ricavano altre grandezze, ad
esempio il metro, come unit` a delle lunghezze, una volta noto il campione del
tempo che `e realizzato con lorologio atomico al cesio 133

.
La dipendenza delle unit` a derivate da quelle fondamentali viene messa in
evidenza tramite il concetto di dimensione. Per chiarire questo concetto, sup-
poniamo che che a, b, ..., c, siano le grandezze fondamentali del nostro sistema
(nellIS: l = lunghezza, m = massa, t = tempo, q = carica) e A, B, ..., C le cor-
rispondenti unit` a (nellIS: m = metro, Kg = chilogrammo, s = secondo, C =
Coulomb), sia poi d una grandezza derivata e indichiamo con D la sua unit` a. Se
D varia proporzionalmente alla pesima potanza di A, alla q esima potenza
di B, alla r esima potenza di C, diremo che d ha la dimensione p rispetto
ad a, la dimensione q rispetto a b e la dimensione r rispetto a c e scriveremo in
modo simbolico
[d] = a
p
b
q
c
r
.
Ad esempio nellIS la velocit`a v `e una grandezza derivata e scriveremo
[velocit` a] =
[lunghezza]
[tempo]
[v] = lt
1
.
Oppure per la pressione p
[pressione] =
[forza]
[superfice]
=
[massa] [accelerazione]
[lunghezza]
2
=
[massa]
[lunghezza]
[tempo]
2
[lunghezza]
2
[p] = ml
1
t
2
.

un secondo corrisponde a 9192631770 periodi nella transizione tra i due livelli iperni
dello stato fondamentale dellatomo di cesio 133
8 CAPITOLO 1. GRANDEZZE FISICHE
Come ultima cosa osserviamo che esistono delle grandezze che hanno una di-
mensione nulla in qualunque sistema di unit` a. Un esempio `e dato dalla misura
di un angolo; infatti questa `e una grandezza derivata data dal rapporto di due
lunghezze. In casi come questo si dice (in modo improprio) che si tratta di un
numero puro.
1.2 Errori di misura e Sensibilit`a degli Strumenti
Il valore numerico che si ottiene da una misura `e sempre accompagnato da delle
incertezze. Il motivo di queste imprecisioni, che non possono mai essere com-
pletamente eliminate, sta nellimperfezione dei nostri sensi che pu` o manifestarsi
in tre modi diversi
1) Direttamente nellesecuzione della misura perche `e sempre ricondotta, in
modo pi` u o meno diretto, a una percezione sensoriale.
2) Attraverso luso di strumenti che sono sempre costruiti dalluomo.
3) Attraverso limpossibilit`a di eliminare o tener conto di tutte le piccole
cause perturbatrici che non siamo in grado di valutare.
Si osservi che loperazione stessa di misura quasi sempre modica il valore
della grandezza da misurare o il fenomeno da studiare; si pensi ad esempio alla
misura della temperatura di un corpo tramite un usuale termometro. Infatti
lequilibrio termico tra corpo e termometro viene raggiunto con il passaggio di
calore dal corpo al termometro (o viceversa) e la temperatura nale del corpo
sar` a diversa da quella iniziale. Nella maggior parte dei casi, usando metodi
e strumenti adatti, si pu` o far si che leetto di queste cause pertubatrici sia
trascurabile difronte allincertezza dovuta a quelle che inuenzano la misura,
ma non loggetto da misurare.
Per quanto riguarda le applicazioni che possono interessarci, sar` a sempre
possibile valutare i limiti dellincertezza della nostra misura. Cio`e non potre-
mo trovare il valore esatto, ma individuare un intervallo, pi` u o meno esteso,
allinterno del quale questo valore deve cadere. Questo intervallo si chiama in-
determinazione o approssimazione della misura. La stima di questo intervallo
pu` o avvenire in due modi diversi:
[a)] Si supponga di aver misurato una grandezza M e di avere ottenuto, come
risultato delle misura, il valore m. Si vari poi la grandezza M di una quantit`a
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 9
M e si ripeta la misura, che dovrebbe darci un valore diverso da m. Le-
sperienza insegna che se M `e pi` u piccolo di un certo valore, il risultato della
misura non cambia, o se cambia la variazione non dipende in nessun modo da
M.
Linverso del minimo valore di M che pu` o essere rivelato `e detto sensibilit` a
della misura. Molto spesso la sensibilit`a della misura `e legata allo strumento
usato, ma la sensibilit` a dello strumento `e una cosa diversa dalla sensibilit`a della
misura. In genere la lettura di una misura tramite uno strumento avviene, per
quelli analogici, con lo spostamento di una lancetta lungo una scala o con
lapparire di un numero su uno schermo per quelli digitali. Supponiamo che il
valore della grandezza M sia proporzionale linearmente allo spostamento della
lancetta o al valore letto sullo strumento (che indichiamo entrambi con s). Sar` a
cio`e
M = ks .
Dove k `e una costante di proporzionalit` a. Linverso della costante k `e detta
sensibilit` a dello strumento. Daltra parte la costante k da lordine di lettura
della scala dello strumento, ovvero se `e k = 10
1
vuol dire che un intervallo
della scala dello strumento corrisponde ad un decimo dellunit`a di misura, se
k = 100
1
lintervallo della scala corrisponde ad un centesimo dellunit`a di
misura e cos via. Poiche `e dicile dare un valore a un intervallo pi` u piccolo di
quelli della scala dello strumento (per gli strumenti digitali `e impossibile), in
questo senso si parla di sensibilit`a dello strumento.
[b)] Supponiamo adesso di ripetere pi` u volte la misura di una stessa grandezza,
usando sempre lo stesso metodo e gli stessi apparecchi, oppure cambiandoli.
I risultati delle varie misure saranno tutti, anche se di poco, diversi tra loro.
Questo vuol dire che ogni misura `e aetta da errori e, per quanta cura si
metta nelleseguirla, questi non possono mai essere eliminati completamente.
Le cause di questi errori sono molteplici e di diversa natura; alcune sono dovute
allapparato di misura stesso o ad azioni dirette su di esso, altre hanno origini
ambientali e inne pu` o inuire linadeguatezza dei nostri sensi.
Entrando pi` u nel dettaglio si possono distinguere due tipi di errori e cio`e:
1) Errori sistematici ,
2) Errori accidentali .
Gli errori sistematici sono dovuti ad un difetto dello strumento di misura, o
al metodo usato per fare la misura, questi errori contribuiscono sempre nella
10 CAPITOLO 1. GRANDEZZE FISICHE
stessa direzione. Poiche questi errori non sono rivelabili per una serie di misure
fatte tutte allo stesso modo, possono facilmente sfuggire. Ci si pu` o accorgere
della loro presenza ripetendo le misure con uno strumento diverso o usando,
ove possibile, un diverso metodo di misura. Attraverso uno studio accurato del
metodo di misura e degli strumenti usati, `e quasi sempre possibile ridurli in
modo da renderli irrilevanti.
Gli errori accidentali sono quelli che si presentano di volta in volta in modo
irregolare. Alcuni di questi si riescono ad eliminare migliorando gli apparecchi
di misura. Pu`o anche capitare che questi errori qualche volta non compaiano,
cio`e che tutte le misure diano lo stesso risultato. Questo avviene quando il loro
valore `e inferiore al limite di sensibilit`a della misura. Ma quando la misura `e
ricondotta alla determinazione della posizione di un indice su una scala, come
avviene per gli strumenti analogici, intervengono i piccoli errori di lettura (sem-
pre che non si trascurino le frazioni di divisione), naturalmente per gli strumenti
digitali questo tipo di incertezza non `e presente.
Spesso il limite di sensibilit`a `e molto inferiore agli errori; questo acquista
importanza in due circostanze: quando la misura `e adata, in modo sostan-
ziale, ad una valutazione sensoriale o quando `e eseguita con un apparecchio
tarato. Un esempio del primo caso pu` o essere il confronto dellilluminamento
di due superci; il nostro occhio `e molto preciso nel giudicare quando i due
illuminamenti sono uguali, ma, al contrario, `e quasi incapace di confrontarne i
valori quando sono diversi. Esempi del secondo caso sono le misure fatte con
un dinamometro, ad esempio la normale bilancia pesa persone come quella che
molti di noi tengono in bagno, o la misura fatta con un termometro; anche
questi strumenti sono pi` u precisi quando si tratta di vericare se la misura di
una grandezza si mantiene costante pi` uttosto che valutarne la sua variazione
(pi` u ci si allontana dal valore sul quale lo strumento `e stato tarato pi` u cresce
lerrore). Questi fatti spiegano perche si usano spesso nelle misure metodi di
azzeramento o di compensazione, nei quali si verica lannullarsi di una gran-
dezza, o la costanza del suo valore. Oppure si verica quando due grandezze
sono uguali.
1.2.1 Distribuzione degli errori accidentali e loro calcolo
Le cause degli errori accidentali sono numerose e indipendenti fra loro, i loro
eetti hanno entit`a, di volta in volta, variabili, ma sempre molto piccole. Per
studiarli dobbiamo considerare una misura che soddis a due condizioni limi-
te, cio`e che non si realizzano mai in modo rigoroso, ma che sono una buona
approssimazione della realt` a. Ovvero
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 11
1) Gli errori sistematici sono stati eliminati o corretti,
2) Il limite di sensibilit`a `e tanto piccolo da poter essere trascurato.
Assumendo quindi che le due condizioni precedenti possano considerarsi veri-
cate, supponiamo di ripetere un gran numero di volte (diciamo n) una misura.
In questo modo si otterr` a la successione di risultati a
1
, a
2
, ...a
n
, in generale i
vari risultati non avranno tutti lo stesso valore, ma ad uno stesso valore po-
tranno corrispondere pi` u risultati. Supponiamo anche che, come avviene nella
maggioranza dei casi, si abbia a che fare con dei valori discreti. Si scelga allora
una coppia di assi cartesiani ortogonali; riportiamo in ascisse i singoli valori e
Figura 1.1: distribuzione dei valori di due serie di misure
in ordinate, per ciascuno di essi, il numero di misure che lo hanno in comune.
Otterremo in questo modo una serie di punti distribuiti pi` u o meno come i cer-
chietti neri di g:1.1; questi punti rappresentano la distribuzione della misura.
Supponiamo adesso di fare, nelle stesse condizioni, unaltra serie di n misure
e di riportare, con lo stesso criterio, i valori sullo stesso graco. La nuova di-
stribuzione non coincider`a esattamente con la precedente, ma sar` a molto simile
e apparir`a come le crocette della stessa g:1.1. Laspetto delle distribuzioni
rappresentate nel graco ci fa intuire che deve esistere una legge comune che
inuenza i risultati delle nostre misure. Per individuare questa legge procedia-
mo ad eseguire un gran numero di serie di n misure e riportiamo su un graco
come quello di g:1.1, per ogni valore trovato, la media del numero di volte
che questo valore compare. Cio`e se si fanno m serie di misure e, ad esempio,
il valore a
i
, 1 i n compare nella prima serie di misure s
1
volte, nella se-
conda s
2
volte e cos via, in corrispondenza al valore a
1
dellascissa si riporta
nellordinata il valore
S
a
i
=
s
1
+s
2
+... +s
m
m
. (1.2.1)
12 CAPITOLO 1. GRANDEZZE FISICHE
Lesperienza mostra che pi` u `e grande il numero m delle serie di misure, pi` u
i valori medi (1.2.1) si dispongono sulla curva continua, a forma di campana,
rappresentata in g:1.1. In altri termini questa curva rappresenta la distribu-
zione dei valori delle misure che si otterrebbe con una serie innita delle stesse.
Si tratta quindi di una situazione limite che non si raggiunge in pratica, ma alla
quale ci si pu` o avvicinare quanto si vuole. Questa curva `e molto importante
da un punto di vista teorico e si pu` o dimostrare con la teoria delle probabilit`a
che eettivamente rappresenta la distribuzione limite conseguenza degli errori
accidentali. Da un punto di vista analitico la curva in questione `e rappresentata
dalla funzione di Gauss ovvero
y =
h

e
h
2
(x m)
2
. (1.2.2)
Dove = 3.1415... `e il solito rapporto tra la circonferenza e i suo diametro e
e = 2.718... `e la base dei logaritmi naturali. Si osservi anche che
y(x = m) = y
max
=
h

.
Cio`e
h

rappresenta il massimo della curva, che corrisponde al numero di volte


che il valore m `e stato trovato e che a sua volta `e il valore che `e stato trovato
pi` u volte. Quindi h `e legato e cresce col numero delle serie di misure; h `e detto
il modulo di precisione delle misure.
Tornando adesso al caso pratico, dove si fanno sempre un numero nito di
misure, dobbiamo porci due domande:
1) Tenuto conto delle n misure fatte, quale `e il valore pi` u plausibile che
dobbiamo assegnare alla grandezza che stiamo misurando?
2) Assegnato questo valore come possiamo capire di quanto questo valore si
pu` o discostare dal valore vero della grandezza?
Per quanto riguarda la prima domanda la cosa che sembra pi` u naturale `e quella
di prendere come valore pi` u plausibile della grandezza la media aritmetica delle
misure fatte
m =

n
i=1
a
i
n
. (1.2.3)
Giusticare in modo rigoroso questa scelta, anche se molto intuitiva, non `e cosa
facile e, in ogni caso, essa diventa signicativa se si sa dare una risposta anche
alla seconda domanda. Quello che si pu` o dimostrare (ma qui lo aermiamo
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 13
senza dimostrazione) `e che quando il numero delle misure diventa molto gran-
de (cio`e n ) si ha che m m, che `e il valore che corrisponde al massimo
della curva di g:1.1.
Per cercare di rispondere alla seconda domanda sarebbe utile conoscere le die-
renze dei valori della singole misure dal valore vero della grandezza, ma questo
non `e noto; quello che `e noto sono gli scarti dalla media deniti dalle quantit`a

1
= a
1
m,
2
= a
2
m, ...,
n
= a
n
m .
Una quantit`a che approssima abbastanza bene lampiezza dellinervallo allin-
terno del quale cadr` a il valore vero della misura `e la media quadratica degli
scarti
=
_

n
i=1
(a
i
m)
2
n
=
_

n
i=1

2
i
n
.
Si assume la quantit`a come errore quadratico medio delle singole misure, ma
se vogliamo rispondere alla domanda posta allinizio dovremo valutare lerro-
re quadratico medio della media di esse, cio`e trovare quella quantit`a che dia
unidea dellerrore che si commette prendendo la media dei valori delle misure
al posto del valore vero della grandezza. Indicando con lerrore quadratico
medio della media si pu` o dimostrare che `e
=


n
i=1

2
i
n(n 1)
=

n 1
. (1.2.4)
Riferendosi alla serie di misure eseguite, alla quantit`a si d` a semplicemente il
nome di errore quadratico medio e il risultato della misura di una grandezza M
viene indicato come
m = m . (1.2.5)
La scrittura (1.2.5) `e simbolica e sta ad indicare che il valore vero m della
grandezza M `e allinterno dellintervallo aperto ( m, m+), cio`e
m < m < m+ .
1.2.2 Stima a priori degli errori e loro propagazione
Quanto abbiamo descritto no a qui `e, per cos dire, una stima a posteriori
degli errori che segue dallanalisi dei dati risultanti da una serie, pi` u o meno
lunga, di misure. Da un punto di vista pratico, in molti casi, si pu` o fare una
stima a priori dellerrore. Si tratta in genere di una stima per eccesso, ma
compatibilissima con molte applicazioni pratiche.
14 CAPITOLO 1. GRANDEZZE FISICHE
La stima a priori degli errori, in molti casi dipende dalla sensibilit`a dello stru-
mento che si sta usando; quando il valore degli errori `e inferiore alla sua sensibi-
lit`a si pu` o prendere come stima dellerrore il valore dellintervallo minimo della
scala dello strumento stesso. In ogni caso si fa una stima dellerrore massimo
che ci si pu` o aspettare.
Indichiamo allora con G lerrore stimato di una grandezza G. Per quanto
seguir`a adesso indichiamo con lo stesso simbolo comunque lerrore sia stato
stimato. Osserviamo anche che, quasi sempre, `e pi` u signicativo il rapporto
G
G
,
che si chiama lerrore relativo che G, che `e detto errore assoluto. Infatti, come
`e evidente, lerrore di un cmsu una distanza di un metro rappresenta una misura
peggiore dellerrore di un metro sulla distanza di un km:
G
1
G
1
=
1cm
1m
= 10
2
,
G
2
G
2
=
1m
1km
= 10
3
.
Consideriamo adesso il caso di una grandezza che dipende da altre grandez-
ze e che si possa conoscere il suo valore dalla misura delle grandezze dalle quali
dipende. Il problema che si presenta `e quindi quello di vedere come gli errori
sulle grandezze dalle quali dipende si ripercuotono sulla grandezza stessa. Vo-
gliamo cio`e arontare, qui in modo elementare, il problema della propagazione
degli errori
Il punto di partenza per questo tipo di analisi `e la considerazione che gli errori,
perche una misura sia signicativa, devono essere piccoli rispetto al valore della
grandezza da misurare, cio`e per ogni grandezza deve essere piccolo il rapporto
G
G
. In altri termini si deve avere
G
G
1 e
_
G
G
_
2
trascurabile rispetto a
G
G
.
Cominciamo a studire due casi semplici e cio`e:
a) una grandezza denita come la somma o la dierenza di due grandezze
omogenee,
b) una grandezza denita come il prodotto o il rapporto di due grandezze.
Caso a): sia G = A
1
+ A
2
. Le grandezze omogenee A
1
e A
2
hanno i seguenti
valori
A
1
: a
1
a
1
e A
2
: a
2
a
2
con a
1
, a
2
> 0 .
Come abbiamo visto, questo vuol dire che il valore di A
1
cade allinterno dellin-
tervallo (a
1
a
1
, a
1
+a
1
) e quello di A
2
internamente a (a
2
a
2
, a
2
+a
2
),
ma non sappiamo in che posizione rispetto agli estremi di questi intervalli i ri-
spettivi valori di A
1
e A
2
siano posizionati. La situazione peggiore si realizza
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 15
quando entrambi i valori delle grandezze A
1
e A
2
si trovano vicini allestremo
superiore (o inferiore) dei rispettivi intervalli di indeterminazione; non poten-
do, daltra parte, sapere quale sia la situazione, lintervallo di indeterminazione
del valore della grandezza G = A
1
+ A
2
avr`a unampiezza uguale alla somma
delle ampiezze degli intervalli di A
1
e A
2
, cio`e per il valore g della grandezza G
avremo
a
1
+a
2
(a
1
+ a
2
) < g < a
1
+a
2
+ (a
1
+ a
2
) .
Cio`e gli errori (sempre deniti positivi) si sommano
G : a
1
+a
2
(a
1
+ a
2
) .
Osserviamo che quando i valori a
1
e a
2
hanno segno opposto (cio`e si fa la
dierenza di due grandezze con valori positivi) possono nascere dei problemi
poiche gli errori hanno sempre segno positivo. Cio`e il problema nasce quando
si deve fare la dierenza di due grandezze che hanno valori molto vicini tra loro
e questo anche quando le singole grandezze sono note con piccoli errori. Infatti,
in queste condizioni, lerrore relativo della grandezza dierenza `e maggiore degli
errori relativi delle due grandezze che la deniscono e pu` o essere tale da rendere
privo di signicato il valore che si trova.
Pensiamo ad esempio di dover decidere quale sia tra due montagne la pi` u
Figura 1.2: montagne
alta. Supponiamo in oltre di non avere la possibilit`a di ricorrere a satelliti o
a radar, ma di avere a disposizione, per fare le misure, solo dei teodolite. In
16 CAPITOLO 1. GRANDEZZE FISICHE
queste condizioni le misure si fanno con delle triangolazioni, cio`e si scelgono due
punti sul terreno, diciamo A e B abbastanza distanti tra loro, ma che risultino
reciprocamente visibili. Prima si individuano i piani orizzontali che passano sia
per A che per B (questa operazione si fa con le livelle che sono su i teodolite);
supponiamo, per semplicare, che i due punti A e B si trovino sullo stesso piano
orizzontale (situazione questa molto ideale). Si traguardano poi, dai punti sia
A che B i punti C e D (vedi g:1.2) che individuiamo come i punti pi` u alti
delle due montagne

. Ammesso di aver fatto le operazioni precedenti, unendo


idealmente i vari punti, si ottengono i due triangoli ABC e ABD di g:1.2. Si
misurano quindi tutti gli angoli dei due triangoli e la loro inclinazione rispetto al
piano orizzontale (che abbiamo supposto essere lo stesso sia nel punto A che nel
puntoB). In questo modo, con un p` o di trigonometria, si arriva a determinare
la distanza del punto C dal piano orizzontale e cos pure quella del punto D.
Queste sono le altezze, che indichiamo con H
1
e H
2
delle due montagne rispetto
al piano orizzontale passante per i punti A e B. A noi interessa determinare la
grandezza R = H
1
H
2
.
Le nostre misure hanno dato
H
1
= 782.00 0.80 m , H
2
= 780.50 1.00 m
che, visti i mezzi a nostra disposizione, non sono tanto male, infatti H
1
`e de-
terminata con un errore relativo di 1.02 10
3
cio`e di una parte su mille e H
2
con un errore relativo di 1.28 10
3
appena un p` o maggiore. Ma per quanto
riguarda R troviamo
R = 1.50 1.80 m .
Cio`e R `e determinato con un errore relativo di 1.2 cio`e pi` u del 100% e non
siamo in grado di decidere quale delle due montagne sia la pi` u alta. Infatti il
valore di R risulta allinterno dellintervallo (0.3, 3.3) e pu` o assumere valori
sia positivi che negativi.
Caso b): sia G = A B. Le grandezze A e B (anche non omogenee) hanno i
seguenti valori
A : a a e B : b b con a, b > 0 .
Quindi, indicando con g il valore della misura della grandezza G, avremo
g g = ab ab ba + ab . (1.2.6)

Questa operazione pu` o essere aetta da errori abbastanza grandi, perche, in queste condi-
zioni, `e molto dicile individuare otticamente il punto pi` u alto della montagna, nella maggio-
ranza dei casi non sar`a proprio visibile e si preferisce traguardare un punto diverso dal quale
poi fare una misura successiva
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 17
Poiche, come abbiamo supposto, gli errori di una grandezza, se la sua misu-
ra `e signicativa, sono molto piccoli rispetto alla gradezza stessa, `e
ab
ab

_
a
a
+
b
b
_
1. Quindi
ab
ab
`e, come si dice, una quantit`a piccola di ordine
superiore, cio`e `e dello stesso ordine di grandezza di
_
a
a
_
2
o, che `e lo stesso,
di
_
b
b
_
2
e, per le ipotesi fatte, ab viene trascurato. Quindi il valore della
grandezza G `e compreso nellintervallo
ab ba ab < g < ab +ba +ab .
Tornando alla (1.2.6) (dove come detto si trascura lultimo termine a secondo
membro) potremo anche scrivere
g
_
1
g
g
_
= ab
_
1
_
a
a
+
b
b
__
.
Si ottiene quindi luguaglianza
g
g
=
a
a
+
b
b
.
In altri termini lerrore relativo del prodotto di due grandezze `e la somma dei
singoli errori relativi.
Una osservazione importante riguardo a gli errori relativi di una grandezza
`e che lerrore relativo dellinverso di una grandezza `e uguale allerrore relativo
della grandezza stessa.
Consideriamo quindi la grandezza A la cui misura `e m = a a, la misura
della sua inversa sar` a compresa (poiche a > 0) nellintervallo
1
a + a
<
1
m
<
1
a a
Al solito possiamo scrivere
1
a + a
=
1
a
1
1 +
a
a
con
a
a
1
Ma
1
1+
a
a
`e linverso di 1+
a
a
e linverso di un numero non nullo `e unico. Osser-
viamo allora che vale
_
1 +
a
a
_ _
1
a
a
_
= 1
_
a
a
_
2
e, nellapprossimazione,
assunta valida, di poter trascurare
_
a
a
_
2
si ha
1
1 +
a
a
= 1
a
a
e analogamente
1
1
a
a
= 1 +
a
a
.
Tenuto conto di questa osservazione `e immediato provare che anche nel caso
del rapporto di due grandezze si sommano gli errori relativi.
18 CAPITOLO 1. GRANDEZZE FISICHE
Concludiamo questo paragrafo considerando il caso generale di una gran-
dezza che dipenda in un qualunque modo da un numero qualsivoglia (purche
nito) di altre grandezze. Cio`e la gandezza G sia funzione delle n grandezze
A
1
, A
2
, ..., A
n
G = f(A
1
, A
2
, ..., A
n
) (1.2.7)
Dove i valori delle grandezze A
i
, i = 1, 2, ..., n sono dati da
A
i
: a
i
a
i
, i = 1, 2, ..., n .
Interessa trovare la misura della grandezza G, ovvero G : g g, ovvero g
in termini dei a
i
.
Per introdurre largomento supponiamo che la grandezza G sia funzione di
Figura 1.3: rappresentazione graca della funzione g = f(a)
una sola variabile cio`e G = f(A). In questo caso avremo per la misura di G
g g = f(a) f .
Come si vede dalla g:1.3, `e f = tan ; daltra parte `e anche tan =
f
a
,
quindi
g g = f(a)
f
a
a . (1.2.8)
A questo punto vale la pena di osservare che
f
a
=
f(a+a)f(a)
a
e, essendo
a 1 possiamo , allinterno dellapprossimazione fatta, sostituire
f
a
con
lim
a0
f
a
=
df
da
,
ottenendo cos
g g = f(a)
df
da
a g =
df
da
a .
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 19
Per lerrore relativo si ha
g
g
=
1
f
df
da
a =
_
d
da
ln f
_
a .
Dove con ln f si `e indicato il logaritmo in base e (logaritmo naturale) di f.
Per generalizzare al caso generale (1.2.7), poniamo

1
f = f(a
1
+ a
1
, a
2
, ..., a
n
) f(a
1
, a
2
, ..., a
n
),

2
f = f(a
1
, a
2
+ a
2
, ..., a
n
) f(a
1
, a
2
, ..., a
n
),
...,
n
f = f(a
1
, a
2
, ..., a
n
+ a
n
) f(a
1
, a
2
, ..., a
n
).
La generelazzazione della (1.2.8) `e data da
g g = f(a
1
, a
2
, ..., a
n
)
_

1
f
a
1
a
1

2
f
a
2
a
2

+... +

n
f
a
n
a
n

_
Dove i moduli sono introdotti perche pu` o essere anche

i
f
a
i
< 0, mentre gli
errori sono sempre positivi. Daltra parte `e anche
lim
a
i
0
f(a
1
, ..., a
i
+ a
i
, ..., a
n
) f(a
1
, ..., a
i
, ..., a
n
)
a
i
=
f
a
i
Ragionando in modo analogo al caso di una variabile si ha
g g = f(a
1
, a
2
, ..., a
n
)
n

i=1

f
a
i
a
i

.
E per lerrore relativo
g
g
=
n

i=1

_

a
i
ln f
_
a
i

.
1.2.3 Errori e cifre signicative
In questo breve paragrafo faremo delle osservzioni, che dovrebbero essere ovvie,
ma alle quali qualche volta non `e dato il giusto rilievo. Nei paragra precedenti
abbiamo spiegato il signicato della scrittura del valore di una misura, ma per
chiarire alcuni punti consideriamo un esempio esplicito. Supponiamo di voler
stimare iltempo che una sfretta di acciaio di circa 100 grammi impiega a giun-
gere in terra cadendo da unaltezza di circa 5 metri partendo da ferma. I dati
a nostra disposizione sono i seguenti:
1) nellambiente non sono presenti correnti daria apprezzabili
20 CAPITOLO 1. GRANDEZZE FISICHE
2) massa della sferetta m = 0.10 0.01 kg
3) distanza iniziale del centro della sferetta dal terreno l = 5.10 0.02 m
4) accelerazione di gravit`a nel luogo g = 9.81 0.01 ms
2
Date le caratteristiche ambientali, la forma e la massa della sferetta, nonch`e
laltezza di caduta, possiamo trascurare gli eetti aereodinamici e usare la legge
di caduta di un grave nel vuoto (che non dipende dalla massa del grave) e cio`e,
nel nostro caso dove la sferetta non ha una velocit`a iniziale,
t =

2l
g
Quindi, per quello che abbiamo visto il valore previsto `e
t =

2l
g

_

2l
g
_
l

_

g

2l
g
_
g

_
=

2l
g

_

2lg

l
2g
g
g

_
.
Cminciamo col fare alcune osservazioni. Per quanto riguarda la distanza l, da
un punto di vista della teoria dei numeri. 5.10 e 5.1 sono lo stesso numero, ma
in questo cao no perche lerrore cade sulla seconda cifra dopo la virgola e lo 0 `e
signicativo. In altri termini il valore di l cade nellintervallo (5.08, 5.12) cio`e
la regione di variabilit` a di l `e nota con la precisione dei centimetri e non dei
decimetri. Osserviamo che con lerrore specicato non avrebbe senso scrivere
l = 5.102 0.02 perch`e la nostra precisione `e dellordine dei centimetri e non
siamo in grado di apprezzare i 2 millimetri che sono scritti. Osserviamo anche
che questa scrittura sarebbe proprio sbagliata perche assumerebbe siglicativo
un valore no al millimetro che non `e accessibile con la precisione dichiarata.
La stessa cosa si pu` o dire per il valore della massa della sferetta (che per` o non
entra in gioco) e il valore dellaccelerazione di gravit`a (in quel caso lultima
cifra non `e lo 0, ma il signicato `e lo stesso).
Cominciamo con scrivere lerrore. Con una semplice calcolatrice troviamo

2lg = 10.003099..., gli errori sia di l che di g cadono sulla seconda cifra
decimale, quindi il valore signicativo `e

2lg = 10.00 ms
1
e

2lg

= 0.002 s.
Analogamente
_
l
2g
= 0.51 s e
_
l
2g
g
g
= 0.00052 s che `e trascurabile rispetto
al primo termine (fra i due termini, che sono omogenei, della somma, poiche si
tratta di errori, va preso sempre il maggiore). Inne si ha
_
2l
g
= 1.019683... s
Quindi
t = 1.019 0.002 s
1.2. ERRORI DI MISURA E SENSIBILIT
`
A DEGLI STRUMENTI 21
Si ha sul tempo un errore relativo del 2 per mille, essendo sulla lunghezza
del 4 per mille e su g dell1 per mille. Lesempio fatto riguarda un caso
particolarmente fortunato e dipende dal fatto che la legge `e una radice quadrata.
22 CAPITOLO 1. GRANDEZZE FISICHE
Capitolo 2
Aspetti statistici della teoria
degli errori
2.1 Errori accidentali e probabilit`a
Nel capitolo precedente abbiamo fatto la distinzione tra errori sistematici ed
errori accidentali e, per questi ultimi, abbiamo discusso vari criteri per dare
un signicato, non ambiguo e riproducibile, al risultato di una misura. In
particolare ci siamo occupati come lerrore si propaga quando il valore di una
grandezza dipende da una combinazione di misure diverse. Abbiamo anche
osservato che, quando si ripete pi` u volte una misura, i valori trovati, via via
che il numero di misure fatte aumenta, si ordinano in modo da far pensare
ad una legge generale. La spiegazione di questo comportamento sta nel fatto
che gli errori accidentali di una misura seguono le leggi della statistica e uno
studio approfondito richiede la conoscenza della teoria della probabilit`a. Tale
argomento non `e arontabile in maniera soddisfacente in queste breve note; qui
ci limiteremo a dare, in modo pragmatico, i concetti di base.
2.1.1 Denizioni empiriche di probabilit`a
Oggetto della teoria della probabilit`a `e lo studio dei fenomeni casuali o aleato-
ri, ovvero fenomeni ripetibili (almeno in teoria) innite volte che si presentano
con modalit` a diverse, singolarmente imprevedibili e che si escludono vicende-
volmente. Un esempio classico `e il risultato che si ottiene dal lancio di un dado
non truccato o dallestrazione di una carta da gioco da un mazzo e, a causa
della presenza degli errori accidentali, anche il risultato di una singola misura
di una grandezza `e un fenomeno aleatorio.
23
24CAPITOLO 2. ASPETTI STATISTICI DELLA TEORIA DEGLI ERRORI
Per studiare in modo scientico tali fenomeni, ad ogni evento aletorio si as-
socia un numero reale positivo, compreso tra 0 e 1, che va sotto il nome di
probabilit`a dellevento. La denizione di probabilit`a di un evento mostra per` o
notevoli dicolt` a di principio e sono state date varie denizioni, ma lunica che
non presenta ambiguit` a `e la denizione assiomatica che inquadra la probabilit`a
nellambito della teoria della misura in matematica. Qui preferiamo dare due
denizioni classiche che risultano pi` u intuitive. La prima `e la seguente:
Si denisce probabilit` a di un evento casuale il rapporto tra il numero di casi
favorevoli al presentarsi dellevento stesso e in numero totale di casi possibili,
purche tutti questi casi possibili siano ugualmente probabili.
Da questa denizione segue subito il corollario:
La probabilit` a di un evento casuale `e un numero compreso tra 0 e 1, che
assume il valore 0 per gli eventi impossibili ed 1 per quelli certi.
`
E evidente che tale denizione contiene una tautologia e, da un punto di vista
logico, `e inconsistente. Daltra parte il concetto di equiprobabilit` a `e considerato
noto come concetto intuitivo. In altri termini nel caso del lancio di un dado non
c`e nessun motivo perche una delle sei facce sia favorita rispetto alle altre e la
probabilit`a che si ottiene, dopo il lancio, ad esempio per la faccia che vale 1 `e,
in base alla denizione,
1
6
e cos pure per le altre facce. Per` o per situazioni pi` u
complesse del lancio di un dado le dicolt` a possono essere maggiori. Unaltra
denizione (empirica) si basa sul concetto di frequenza. Si denisce frequenza
relativa f(E) con cui un evento casuale E si `e presentato in un numero totale
N di casi reali, il rapporto tra il numero di volte (n) in cui levento si `e eetti-
vamente prodotto (frequenza assoluta) e il numero N delle prove eettuate. La
probabilit`a di E `e denita come lestensione del concetto di frequenza relativa
su un numero grandissimo di prove, ovvero
p(E) = lim
N
f(E) = lim
N
_
n
N
_
. (2.1.1)
Si osservi per` o che la (2.1.1) `e una scrittura euristica perche, ssato un > 0,
non esiste un numero N
0
per cui per N > N
0
|p(E) f(E)| < . Quindi, an-
che in questo caso, si deve far ricorso allintuizione. La denizione logicamente
consistente resta quindi quella assiomatica, ma ci riferiremo a quelle precedenti
che sono pi` u intuitive.
2.1. ERRORI ACCIDENTALI E PROBABILIT
`
A 25
2.1.2 Propriet`a della probabilit`a
Dato un evento E si chiama evento complementare di E (e si indica con

E) la
mancata realizzazione dellevento stesso. E e

E si escludono vicendevolmente
ed esauriscono tutti i possibili risultati di una prova. La frequenza relativa di

E su N prove `e evidentemente
f(

E) =
N n
N
= 1
n
N
= 1 f(E) . (2.1.2)
Quindi, in base alle denizioni precedenti, si ha
p(

E) = 1 p(E) p(

E) +p(E) = 1 . (2.1.3)
In modo analogo si pu` o dimostrare che se A, B, C, ..., Z sono eventi casuali
mutuamente esclusivi e che esauriscono linsieme di tutti i possibili risultati
vale
p(A) +p(B) +p(C) +... +p(Z) = 1 . (2.1.4)
Sempre riferendosi ad un insieme di eventi possibili, mutuamente escludentisi,
A, B,...Z ci chiediamo quale sia la probabilit`a che si verichino indipendente-
mente o A o B, ad esempio nel lancio di un dado quale sia la probabilit`a che
esca 1 oppure 3. Nel caso del dado, poiche ognuno dei due eventi ha probabilit`a
1
6
, e entrambi gli eventi sono favorevoli la probabilit`a cercata `e
1
6
+
1
6
=
1
3
. Nel
caso degli eventi A e B, dette P(A) e P(B) le rispettive probabilit`a si ha
P(A or B) = P(A) +P(B) (2.1.5)
Nel caso si accettino come eventi favorevoli A, B, C avremo P(A or B or C) =
P(A)+P(B)+P(C) e cos via. Inne nel caso che tutti gli eventi siano ritenuti
favorevoli si riottiene la (2.1.4).
Un altro caso che pu` o presentarsi `e quando un evento B avviene perche
prima `e avvenuto levento A (probabilit`a condizionata o probabilit`a composta).
Nel caso che i due eventi siano statisticamente indipendenti `e facile dimostrare
che
p(AB) = p(A) p(B) (2.1.6)
Che si generalizza a
p(ABC...Z) = p(A) p(B) p(C) p(Z) (2.1.7)
26CAPITOLO 2. ASPETTI STATISTICI DELLA TEORIA DEGLI ERRORI
Come esempio possiamo calcolare quale sia la probabilit`a, giocando al lotto, di
fare un ambo su una singola ruota. Per ssare le idee supponiamo che il nostro
ambo sia la coppia di numeri A = 3 e B = 25. Consideriamo prima la coppia
AB e poi la coppia BA. Da un punto di vista de gioco le due combinazioni sono
considerate coincidenti, da un punto di vista statistico hanno la stessa probabi-
lit`a e sono vicendevolmente escludentisi. Cominciamo quindi dalla coppia AB.
La probabilit`a che venga estratto A `e
1
90
mentre che venga estratto B `e
1
89
.
Quindi
p(AB) = p(A) p(B) =
1
90

1
89
=
1
8010
Ma a noi interessa
p(AB or BA) = p(AB) +p(BA) =
1
4005
0.025% .
Cio`e circa il due e mezzo per diecimila!
Un modo del tutto equivalente di giungere a questo risultato `e quello di contare
quante sono le coppie distinte che si possono ottenere estrandole da 90 numeri.
Queste sono quante le combinazioni di 90 oggetti distinti presi 2 alla volta;
ovvero
_
90
2
_
=
90!
(90 2)!2!
= 4005
Quindi la probabilit`a che esca una coppia data `e
1
4005
, come trovato prima.
2.1.3 Speranza matematica e varianza
Come abbiamo gi`a osservato un insieme di misure della stessa grandezza (depu-
rate degli errori sistematici) formano un insieme di eventi statistici. Vediamo
quindi come i concetti espressi nel primo capitolo possono collegarsi al punto di
vista statistico. Supponiamo quindi che levento x
i
sia il valore di una variabile
casuale x che assume n valori (che possono rappresentare linsieme delle misure
di una grandezza sica). Indichiamo con p
i
la sua probabilit`a di realizzarsi. Si
chiama speranza matematica della variabile casuale x la quantit`a
E(x) =
n

i=1
p
i
x
i
. (2.1.8)
Se ci riferiamo alla denizione empirica della probabilit` a a partire dalle fre-
quenze avremo
E(x) =
n

i=1
n
i
N
x
i
,
2.1. ERRORI ACCIDENTALI E PROBABILIT
`
A 27
dove n
i
`e la frequenza del valore x
i
e N = n
1
+ n
2
+ ... + n
n
il numero totale
degli eventi. Quindi la speranza matematica generalizza il concetto di media
eritmetica della variabile casuale x. Per la legge dei grandi numeri E(x) sar` a
la media della variabile x quando N (questo tipo di convergenza, come
gi`a osservato, non v`a intesa nel senso matematico rigoroso).
Si chiama varianza della variabile casuale x la speranza matematica della va-
riabile casuale [x E(x)]
2
, ovvero
V ar(x) = E
_
[x E(x)]
2
_
=
n

i=1
p
i
[x
i
E(x)]
2
. (2.1.9)
Questa ultima generalizza il concetto di scarto quadratico medio; la convergenza
della varianza verso lo scarto quadratico medio va anchessa intesa nellambito
della legge dei grandi numeri.
Ci sono due teoremi, che qui daremo senza dimostrazione, che hanno delle con-
seguenze relativamente alle misure di una grandezza.
Siano x, y, z, ... un insieme di variabili casuali; consideriamone una combinazio-
ne lineare
F = ax +by +cz +... con a, b, c, ... R
Vale il seguente teorema:
La speranza matematica di una combinazione lineare di variabili casuali `e la
combinazione lineare delle speranze matematiche delle singole variabili casuali.
Ovvero
E(F) = aE(x) +bE(y) +cE(z) +... (2.1.10)
Una importante conseguenza della (2.1.10) pu` o essere applicata alla media arit-
metica ( x) di un campione di N misure. Tale media infatti pu` o essere conside-
rata come una particolare combinazione lineare delle misure stesse con tutti i
coecenti uguali tra loro e uguali a
1
N
. Prendiamo adesso, dallo stesso insieme,
un altro campione ancora di N misure; la media aritmetica ( x) che si ricava in
genere sar` a diversa da quella dellaltro campione. Ci chiediamo quale sar` a la
speranza matematica di x, ovvero il valore medio delle varie x su un numero
molto elevato di campioni di N misure estratti a caso dallo stesso sistema (dalla
stessa popolazione) e, a limite, su tutti i campioni della stessa dimensione N
che si possono estrarre dallinsieme. Per la speranza matematica della media si
ha
E( x) = E
_
1
N
N

i=1
x
i
_
28CAPITOLO 2. ASPETTI STATISTICI DELLA TEORIA DEGLI ERRORI
Che, tenuto conto della (2.1.10), diventa
E( x) =
1
N
N

i=1
E(x
i
) =
1
N
NE(x)
Quindi
E( x) = E(x) (2.1.11)
cio`e:
Il valore medio della popolazione delle medie aritmetiche dei campioni di di-
mensione nita N, estratti da una popolazione, coincide con il valore medio
della popolazione stessa.
Consideriamo ancora un insieme di variabili casuali statisticamente indi-
pendenti x, y, z, .... Si prenda quindi la combinazione lineare nita di tali
variabili
F = ax +by +cz +... con a, b, c R
Si consideri la varianza di F
V ar(F) = E
_
[F E(F)]
2
_
=
2
F
Vale il seguente teorema:
Una combinazione lineare nita, a coecenti costanti, di variabili casuali sta-
tisticamente indipendenti, ha varianza uguale alla combimazione lineare delle
varianze delle singole variabili, con i quadrati dei coecenti
Ovvero

2
F
= a
2

2
x
+b
2

2
y
+c
2

2
z
+... con
2
x
= E
_
[x E(x)]
2
_
, etc. (2.1.12)
Torniamo a considerare la media aritmetica un campione di N misure indipen-
denti estratte da una popolazione,
x =
1
N
N

i=1
x
i
e determiniamone la varianza. Dalla (2.1.12) otteniamo

2
x
=
1
N
2
N

i=1

2
x
i
=
1
N
2
N
2
x
Quindi

2
x
=

2
x
N
. (2.1.13)
2.2. DENSIT
`
A DI PROBABILIT
`
A 29
Cio`e:
Le medie aritmetiche di campioni di N misure hanno varianza pari alla varianza
della popolazione da cui le misure provengono, divisa per la dimensione dei
campioni.
Di conseguenza
lerrore quadratico medio della media di un campione `e minore dellanalogo
errore delle singole misure, e tende a zero al crescere del numero di misure
eettuato.
Si osservi che c`e dierenza tra la varianza di un campione di N misure
e quella
2
della popolazione da cui il campione proviene. Non possiamo qui
entrare nei dettagli (per i quali si rinvia alla letteratura citata nellintroduzione),
ma riportiamo i risultati.
Indichiamo con
s
2
=
1
N
N

i=1
(x
i
x)
2
la varianza di un campione di N misure, si dimostra che la speranza matematica
di s
2
ha il seguente legame con la varianza
2
della popolazione da cui si `e
estratto il campione
E(s
2
) =
N 1
N

2
.
Quindi la varianza di un campione di N misure `e mediamente inferiore al-
la varianza dellintera popolazione di un fattore
N1
N
. Per correggere questa
dierenza si denisce come errore quadratico medio della media

2
=
N
N 1
s
2
=

N
i=1
(x
i
x)
2
N 1
.
vedi (1.2.4) del primo capitolo.
2.2 Densit`a di probabilit`a
Fino ad adesso abbiamo considerato per una variabile casuale sempre un insie-
me discreto di valori, cio`e quelli inerenti al campione delle N misure estratto
dalla popolazione. Ci chiedevamo, ad esempio, quanto sia la probabilit`a di tro-
vare un dato valorer della variabile corrispondente ad una misura del campione.
Consideriamo adesso una variabile casuale che possa variare in modo continuo
eci chiediamo quale sia la probabilit`a di trovare uno dei valori compresi allin-
terno di un intervallo dellinsieme di variabilit` a della variabile. In altri termini
se x `e una variabile casuale che pu` o assumere tutti i valori corrispondenti alla
30CAPITOLO 2. ASPETTI STATISTICI DELLA TEORIA DEGLI ERRORI
retta dei numeri reali relativi da a + ci chiediamo quale sia la pro-
babilit` a che essa assuma uno qualunque dei valori compresi allinterno di un
dato segmento nito (aperto) della retta dei numeri reali. Naturalmente tale
probabilit`a sar` a legata alle dimensioni di tale segmento, dipender`a anche dalla
regione della retta in cui `e posto e non possiamo aspettarci che sia costante
allinterno del segmento stesso. Daltra parte se dividiamo la retta del nostro
esempio in segmenti molto piccoli, non faremo un grande errore, se allinterno
di ognuno di essi, approssimeremo la probabilit`a ad una costante.
Figura 2.1: Densit` a di probabilit`a dal discreto al continuo
Se riportiamo su un graco x; p(x) i valori cos rappresentati otterremo una
gura a gradini (vedi g.2.1 a)) che, nel limite degli intervalli che tendono a zero,
diventa una curva continua (g.2.1 b)). Il graco di g.2.1 b) rappresenta una
funzione f(x). Tale funzione `e la densit`a di probabilit` a per la variabile casuale
x. La probabilit`a che la variabile x assuma un qualunque valore compreso in
un intervallo nito di estremi (a, b) `e
p (x (a, b)) =
_
b
a
f(x)dx . (2.2.14)
Poiche la probabilit`a che la variabile x assuma uno qualunque dei valori del suo
dominio, cio`e < x < , `e la certezza, ovvero p = 1, vale la condizione di
normalizzazione
_
+

f(x)dx = 1 . (2.2.15)
I concetti di speranza matematica e di varianza per la variabile continua x
seguono da una facile generalizzazione dal caso discreto. Per la speranza
matematica (il valore medio) si ha
E(x) =

i
p
i
x
i
E(x) =
_
+

x f(x)dx . (2.2.16)
2.2. DENSIT
`
A DI PROBABILIT
`
A 31
In particolare per una qualunque funzione della variabile x, W(x) `e
E(W(x)) =
_
+

W(x) f(x)dx .
Per quanto riguarda la varianza, ragionando analogamente, si ottiene
V ar(x) =

i
p
i
[x
i
E(x)]
2
V ar(x) =
_
+

[x E(x)]
2
f(x)dx .
(2.2.17)
In generale per una variabile casuale (sia continua che discreta), si possono
denire, sempre sulla popolazione, i momenti rispetto allorigine

k
= E(x
k
) con k Z
e i momenti rispetto alla media

k
= E
_
[x E(x)]
k
_
con k Z .
Quindi la speranza matematica E(x) corrisponde al momento
1
mentre la
varianza corrisponde a
2
. Tutte le volte che E(x) esiste il momento del primo
ordine
1
`e nullo. Infatti

1
=
_
+

[x E(x)] f(x)dx =
_
+

xf(x)dx E(x)
_
+

f(x)dx
= E(x) E(x) = 0 (2.2.18)
Dove si `e tenuto conto della denizione di E(x) e della condizione di normaliz-
zazione (2.2.15). Se la densit`a f(x) `e una funzione pari (f(x) = f(x)) tutti i
momenti rispetto allorigine
k
con k dispari sono nulli.
2.2.1 Distribuzione Costante e Distribuzione Normale
Il caso pi` u semplice di densit`a di probabilit`a corrisponde alla distribuzione co-
stante. Cio`e f(x) = cost. A causa della condizione di normalizzazione (2.2.15)
tale funzione deve essere necessariamente a supporto compatto. In particolare
se la variabile casuale x varia tra i due valori a < b `e
_
a < x < b f(x) =
1
ba
x < a o x > b f(x) = 0
(2.2.19)
La probabilit`a che la variabile x assuma un qualunque valore allinterno del-
lintervallo (z
1
, z
2
) con a < z
1
< z
2
< b `e
p(x (z
1
, z
2
)) =
1
b a
_
z
2
z
1
dx =
z
2
z
1
b a
.
32CAPITOLO 2. ASPETTI STATISTICI DELLA TEORIA DEGLI ERRORI
Mentre la speranza matematica per x `e
E(x) =
1
b a
_
b
a
xdx =
b
2
a
2
2(b a)
=
b +a
2
e la varianza
V ar(x) =
1
b a
_
b
a
[x E(x)]
2
dx =
(a b)
2
12
.
Un esempio decisamente pi` u importante `e quello della distribuzione normale.
f(x) =
1

2
e

(x m)
2
2
2
. (2.2.20)
Tale distribuzione `e rilevante per gli errori casuali di una misura e corrisponde
alla (1.2.2) incontrata nel primo capitolo dove =
1

2h
.
`
E facile vericare che
la (2.2.20) soddisfa alla condizione di normalizzazione
1

2
_
+

(x m)
2
2
2
dx, posto
x m

2
=

_
+

2
d = 1 .
La speranza matematica `e facilmente calcolabile e si trova
E(x) =
1

2
_
+

(x m)
2
2
2
xdx posto y =
x m

2
E(x) =

_
+

d
dy
e
y
2
dy +
m

_
+

e
y
2
dy
=

e
y
2

+ m = m
Quindi la speranza matematica coincide con m che, nel capitolo precedente, era
il valor medio delle nostre misure.
Per la varianza, che generalizza lo scarto quadratico medio delle nostre misure
discusse nel primo capitolo, si ha
V ar(x) =
1

2
_
+

(x m)
2
2
2
[x m]
2
dx .
Con la solita sostituzione y =
x m

2
si ottiene
V ar(x) =
2
2

_
+

e
y
2
y
2
dy =
2
. (2.2.21)
La probabilit`a che la variabile x prenda un qualunque valore nellintervallo
z
1
, z
2
`e
p(x (z
1
, z
2
)) =
1

2
_
z
2
z
1
e

(x m)
2
2
2
xdx .
Questo integrale non `e elementare e si trova tabulato.
2.2. DENSIT
`
A DI PROBABILIT
`
A 33
2.2.2 La distribuzione di Bernoulli
Consideriamo un evento casuale ripetibile E che ha una probabilit`a costante p di
vericarsi. Naturalmente la probabilit`a di non vericarsi (ovvero la probabilit`a
dellevento complementare

E) `e q = 1 p. Ci proponiamo di determinare la
probabilit`a P(x; N) che, in N prove ripetute, E si verichi esattamente x volte (`e
necessariamente 0 x N). Levento casuale costituito dal presentarsi x volte
levento E (e naturalmente del presentarsi N x volte levento complementare

E) corrisponde a tutte le possibili sequenze di successi e fallimenti (che sono


ovviamente reciprocamente esclusive). Queste sequenze sono numericamente
quante le combinazioni di N oggetti presi x alla volta cio`e
_
N
x
_
=
N!
(N x)!x!
.
Essendo ognuna delle prove statisticamente indipendente dalle altre (infatti la
probabilit`a di E non cambia di prova in prova) ognuna delle possibili sequenze
di x successi e di N x fallimenti ha una probabilit`a di presentarsi che vale
p
x
q
Nx
. Quindi in denitiva si ha
P(x; N) =
N!
(N x)!x!
p
x
q
Nx
. (2.2.22)
Questa distribuzione di probabilit`a P(x; N) per una variabile discreta x va sot-
to il nome di distribuzione binomiale o di Bernoulli.
`
E facile vericare che tale distribuzione soddisfa alla condizione di normalizza-
zione, infatti
N

x=0
P(x; N) =
N

x=0
N!
(N x)!x!
p
x
q
Nx
= (p +q)
N
= 1
Per calcolare la speranza matematica della variabile x (ossia il numero di suc-
cessi attesi, in media, in N prove) conviene introdurre una variabile casuale
ausiliaria. Introciamo la variabile y
i
che rappresenta il numero di volte che
levento E si `e presentato nella prova i delle N eettuate. y
i
pu` o prendere solo
i valori 1 con probabilit`a p o 0 con probabilit`a q. Quindi
E(y
i
) = 1 p + 0 q = p
ma anche
E(y
2
i
) = 1 p + 0 q = p
e per la varianza
V ar(y
i
) = E([y
i
p]
2
) = E(y
2
i
2py
i
+p
2
) = p 2p
2
+p
2
= p(1 p) = pq .
34CAPITOLO 2. ASPETTI STATISTICI DELLA TEORIA DEGLI ERRORI
Poiche
x =
N

i=1
y
i
Si ha
E(x) = E
_
N

i=1
y
i
_
=
N

i=1
E(y
i
) = Np ,
e
V ar(x) =
2
x
= V ar
_
N

i=1
y
i
_
=
N

i=1
V ar(y
i
) = Npq .
`
E interessante studiare il comportamento della distribuzione di Bernoulli al-
laumentare del numero N delle prove.
Figura 2.2: Distribuzioni di Bernoulli con N = 5, N = 7 e N = 9
In g.2.2 sono rappresentate le curve che interpolano le distribuzioni di Ber-
noulli per N = 5, 7, 9 e p = q = 0.5.
Figura 2.3: Distribuzioni normali con
2
= 5 0.25,
2
= 7 0.25,
2
= 9 0.25,
e m = 0.25, 3.5, 4.5
mentre in g.2.3 sono rappresentate le distribuzioni normali corrispondente-
mente con
2
= Npq e m = Np. Si pu` o dimostrare che per N molto grande
la distribuzione di Bernoulli tende alla distribuzione normale con
2
= Npq e
m = Np.

Das könnte Ihnen auch gefallen