Beruflich Dokumente
Kultur Dokumente
ISBN 2-86883-456-6
ISBN 2-86883-590-2
© EDP Sciences, 2002
ANALYSE STATISTIQUE DES
DONNEES EXPERIMENT ALES
Konstantin PROTASSOV
SCIENCES
17, avenue du Hoggar
Pare d'Activite de Courtabceuf, BP 112
91944 Les Ulis Cedex A, France
Ouvrages Grenoble Sciences edites par EDP Sciences
Le but de ce petit ouvrage est de repondre aux questions les plus frequentes que
se pose un experimentateur et de permettre a un etudiant d'analyser, d'une fagon
autonome, ses resultats et leurs precisions. C'est cet esprit assez "utilitaire" qui a
determine le style de presentation.
Dans 1'analyse des donnees experiment ales, il existe plusieurs niveaux qui sont condi-
tionnes par notre desir d'obtenir une information plus ou moins riche, mais aussi par le
temps que nous sommes prets a y consacrer. Frequemment, nous voulons juste obtenir
la valeur d'une grandeur physique sans nous preoccuper de verifier les hypotheses a
la base de notre demarche. Parfois, cependant, les resultats obtenus nous paraissent
etre en contradiction avec nos estimations preliminaries et ainsi nous sommes obliges
d'effectuer un travail plus scrupuleux. Ce livre est ecrit pour permettre au lecteur de
choisir le niveau d'analyse necessaire.
La partie "indispensable" du texte correspondant au premier niveau est composee
avec une police de caracteres normale. Les questions qui correspondent a une analyse
plus approfondie et qui necessitent un appareil mathematique plus complexe sont
composees avec une police de caracteres speciale. Cette partie du livre peut etre sautee
lors d'une premiere lecture.
A la base de toute analyse des donnees experimentales, on trouve une approche
statistique qui exige des considerations mathematiques rigoureuses et parfois com-
plexes. Neanmoins, Pexperimentateur n'a pas toujours besoin de connaitre les details
et les subtilites mathematiques. De plus, rares sont les situations ou les conditions
experimentales correspondent exactement aux conditions d'application de tel ou tel
theoreme. C'est pourquoi 1'accent est mis non pas sur la demonstration des resultats
mathematiques mais sur leur signification et leur interpretation physique. Parfois,
pour alleger la presentation, la rigueur mathematique est volontairement sacrifice et
remplacee par une argumentation "physiquement evidente".
Le plan du livre est simple. Dans 1'introduction, on presente les causes d'erreurs et
on definit le langage utilise. Le premier chapitre rappelle les principaux resultats
de statistique essentiels a 1'analyse des donnees. Le deuxieme chapitre presente des
notions plus complexes de statistique, il est consacre aux fonctions de varables alea-
toires. Dans le troisieme chapitre qui est la partie la plus importante, on s'efforce de
repondre aux questions les plus frequentes qui se posent dans 1'analyse des donnees
experimentales. Le dernier chapitre est consacre aux methodes les plus frequemment
utilisees pour 1'ajustement de parametres.
6 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Bien que ce livre soit particulierernent adapte au travail d'etudiants de second cycle,
il pourra etre egalement utile aux jeunes chercheurs, aux ingenieurs et a tons ceux
qui sont amenes a realiser des mesures.
quelles sont les valeurs les plus frequentes ou les plus rares. II faut souligner une fois
encore que, dans cette approche, il ne s'agit pas tellement de la valeur concrete d'une
grandeur physique, mais surtout de la probabilite de trouver differentes valeurs.
On verra par la suite que cette fonction — la distribution d'une valeur physique — est
heureusement suffisamment simple (en tout cas, dans la majorite des experiences).
Elle a deux caracteristiques. La premiere est sa valeur moyenne qui est aussi la
valeur la plus probable. La deuxieme caracteristique de cette fonction de distribution
indique, grosso modo, la region autour de cette moyenne dans laquelle se regroupe la
majorite des resultats des mesures. Elle caracterise la largeur de cette distribution et
est appelee 1'incertitude. Comme nous pourrons le voir par la suite, cette largeur a
une interpretation rigoureuse en terme de probabilites. Pour des raisons de simplicite
nous appellerons cette incertitude "1'incertitude naturelle" ou "initiale" de la grandeur
physique elle-meme. Ce n'est pas tout a fait vrai, puisque cette erreur ou incertitude
est souvent due aux conditions experimentales. Bien que cette definition ne soit pas
parfaitement rigoureuse, elle est tres utile pour la comprehension.
Le fait que, dans la plupart des experiences, le resultat puisse etre caracterise par
seulement deux valeurs, permet de revenir sur la question avec laquelle nous avons
commence notre discussion : "Peut-on se demander quelle est la valeur d'un parametre
physique ?" II se trouve que dans le cas ou deux parametres sont necessaires et
suffisants pour caracteriser une grandeur physique, on peut reconcilier notre envie
de poser cette question et la rigueur de 1'interpretation d'un resultat en termes de
probabilites. La solution existe : on appellera valeur physique la valeur moyenne de la
distribution et incertitude ou erreur de la valeur physique la largeur de la distribution 1 .
C'est une convention admise de dire que "la grandeur physique a une valeur donnee
avec une incertitude donnee". Cela signifie que 1'on presente la valeur moyenne et la
largeur d'une distribution et que cette reponse a une interpretation precise en termes
de probabilites.
Le but des mesures physiques est la determination de cette fonction de distribution
ou, au moins, de ses deux parametres majeurs : la moyenne et la largeur. Pour
determiner une distribution on doit repeter plusieurs fois une mesure pour connaitre
la frequence d'apparition des valeurs. Pour obtenir 1'ensemble des valeurs possibles
ainsi que leurs probabilites d'apparition, on devrait en fait effectuer un nombre infini
de mesures. C'est tres long, trop cher, et personne n'en a besoin.
On se limite done a un nombre fmi de mesures. Bien sur, cela introduit une erreur
Pour des raisons historiques, les deux termes "incertitude" et "erreur" sont utilises en physique
pour decrire la largeur d'une distribution. Depuis quelques annees, les organismes scientifiques
internationaux essaient d'introduire des normes pour utiliser correctement ces deux termes (de la
meme fagon que 1'on a introduit le systeme international d'unites). Aujourd'hui, on appelle une
erreur la difference entre le resultat d'une mesure et la vraie valeur de la grandeur mesuree. Tandis
que 1'incertitude de mesure est un parametre, associe au resultat d'une mesure, qui caracterise la
dispersion des valeurs qui peuvent raisonnablement etre attributes a la grandeur mesuree. Dans
ce livre, nous tacherons de suivre ces normes, mais parfois nous utiliserons des expressions plus
habituelles pour un physicien. Par exernple, une formule tres connue dans 1'analyse des donnees
experimenatles porte le nom de "la formule de propagation des erreurs". Nous utiliserons toujours
ce nom bien connu bien que, selon les normes actuelles, nous aurions du 1'appeller "la formule
de propagation des incertitudes". Le lecteur interesse trouvera dans la bibliographie toutes les
references sur les normes actuelles.
POURQUOI LES INCERTITUDES EXISTENT-ELLES ? 9
Dans ce chapitre, nous avons reuni des notions de base de la theorie des probabilites :
la definition d'une probability et ses proprietes elementaires ainsi que 1'introduction
des distributions les plus frequemment utilisees dans 1'analyse des donnees experi-
mentales. Parmi ces distributions, celle de Gauss joue un role tres particulier, c'est
pourquoi la partie esssentielle de ce chapitre (paragraphes 1.2 et 1.4) lui est consacree
car elle et est indispensable a la comprehension du reste du livre.
1.1 PROBABILITES
Pour pouvoir decrire une grandeur physique en termes de probability il faut rappeler
les definitions et les proprietes les plus simples. Pour les mesures les plus frequentes
faites en laboratoire nous n'avons pas besoin de toute la panoplie des methodes de la
statistique mathematique et notre experience du monde est largement sumsante pour
comprendre et assimiler les proprietes fondamentales des probabilites. Logiquement,
chaque lecteur de ce livre a deja eu 1'occasion dans sa vie de jouer, au moins aux
cartes et ainsi la notion de probabilite ne lui est pas etrangere.
et que la somme sur tous les caracteres (de meme nature) possibles {/}, i = a,b,c,...
est egale a 1
Un exemple d'evenement est le tirage d'une carte du jeu. La marque distinctive serait
la categoric de couleur (pique, coeur, carreau ou trefle). Pour un jeu de 52 cartes, la
probabilite d'une categoric de couleur est egale a 1/4. On notera par A 1'ensemble
d'evenements ou ce signe s'est manifested
Introduisons deux operations tres simples avec les probabilites. Definissons par A + B
1'ensemble des evenements dans lesquels la marque a ou la marque 6, ou les deux, sont
presentes (ici a et 6 peuvent etre de nature differente). Par exemple, a est une categoric
de couleur, 6 est la valeur de la carte (le roi, la dame, etc.) De plus, defmissons par AB
1'ensemble des evenements dans lesquels ces deux signes se manifestent simultanement.
Alors,
C'est-a-dire, pour trouver la probabilite qu'un evenement possede au moins une des
marques nous devons, d'abord, ajouter deux probabilites P(A) et P(B). Cependant,
certains evenements peuvent avoir les deux signes en meme temps et on les a comptes
deux fois. C'est pourquoi il faut soustraire la probabilite P(AB}.
Prenons un jeu de 52 cartes avec 13 cartes dans chaque couleur (le roi, la dame, le
valet et 10 cartes numerotees de 1 a 10). Pour une carte tiree au hasard, la probabilite
d'etre soit le roi soit une carte de cceur (a etant le roi, 6 une carte de coeur) est egale a
Introduisons une notion un peu plus compliquee. Supposons que 1'evenement A puisse
se produire de na manieres differentes, 1'evenement B de n^ manieres et 1'evenement
AB de nab manieres. Si le nombre total de realisations possibles est egal a N (ne pas
confondre avec le nombre Ne d'evenements introduit au debut du paragraphe), alors
et ainsi ces deux evenements ne sont plus independants dans le jeu de 53 cartes !
L'explication de cette difference est relativement simple : si nous savons qu'une carte
est un roi alors elle ne peut pas etre le joker, et ainsi nous avons deja obtenu une
certaine information pour determiner sa categoric de couleur.
Figure 1.1 : Histogramme de la premiere serie de mesures de la longueur / : sont portees sur 1'axe
des abscisses la valeur mesuree et sur 1'axe des ordonnees la frequence de son apparition
Ton reprend notre exemple, ou le comptage d'un detecteur, si 1'on considere des exem-
ples plus physiques. Mais plus frequemment en physique, on mesure des grandeurs
continues, comme la longueur, la duree, le courant, etc.
Cette distinction des valeurs (ou des grandeurs) discretes et continues est tout a fait
justifiee. Neanmoins, en physique, on decrit assez souvent une grandeur continue
par une valeur discrete et vice versa. De ce point de vue, cette separation est, en
partie, conventionnelle et les proprietes (ou meme Pecriture) valables pour les valeurs
discretes seront utilisees pour les valeurs continues et inversement. On franchira cette
frontiere regulierement, meme parfois sans se rendre compte de ce que Ton fait. Cette
attitude correspond a un parti pris de presentation. Le lecteur ne doit pas en deduire
que le passage a la limite s'effectue dans tous les cas sans difficulte.
Pour illustrer le caractere conventionnel de cette distinction, considerons un exem-
ple de mesure de la longueur d'une chambre (il est evident que la longueur est
une grandeur continue) a 1'aide d'un decimetre qui possede aussi des divisions cen-
timetriques. Le fait meme que nous disposions d'un decimetre avec des divisions nous
oblige a decrire une grandeur continue a 1'aide de valeurs entieres done discretes (on
aura un certain nombre de decimetres ou de centimetres). On peut aller plus loin et
dire que la representation d'une longueur par un nombre fini de chiffres est un passage
oblige d'une valeur continue a une valeur discrete.
Bien sur, il existe des situations ou une valeur discrete ne peut pas etre remplacee par
une valeur continue, par exemple dans le jeu de cartes. Cependant, ces situations sont
rares dans les experiences de physique. Nous observerons par la suite des passages des
valeurs d'un type a 1'autre. Les proprietes de probabilite resteront les memes dans
I - RAPPELS SUR LA THEORIE DBS PROBABILITIES 15
les deux cas. C'est pourquoi nous donnerons les demonstrations generales pour les
variables continues et considererons que les resultats s'appliquent aussi aux variables
discretes.
Continuons notre experience mentale. Supposons qu'apres avoir fait une dizaine de
mesures rapides, nous ayons trouve une fois la longueur de la chambre egale a 323
centimetres, cinq fois — 324 cm et quatre fois — 325 cm. Les resultats sont presentes
sur la figure 1.1 qui s'appelle un "histogramme". Sur 1'axe des abscisses, on montre la
valeur mesuree et, sur 1'axe des ordonnees, le nombre relatif (HI mesures
de la valeur / par rapport au nombre total N de mesures) c'est-a-dire la frequence
d'apparition de chaque valeur. Le sol n'etait pas plat, notre decimetre n'etait pas
toujours droit, la longueur etait, la plupart du temps, comprise entre 324 et 325 cm
et nous ne savions pas dans quel sens il fallait Tarrondir. D'ou la dispersion de nos
resultats.
Pour clarifler la situation nous avons pris un instrument de mesure gradue en mil-
limetres et en augmentant sensiblement le nombre de mesures nous avons obtenu les
nouveaux resultats representes sur la figure 1.2. Avec une autre echelle on retrouve
les memes tendances : les resultats sont legerement differents et se regroupent autour
d'une certaine valeur.
Figure 1.2 : Histogramme de la deuxieme serie de mesures de la longueur / : sont portees sur 1'axe
des abscisses la valeur mesuree et sur 1'axe des ordonnees la frequence de son apparition
valle donne. Ainsi, dans le cas d'un grand nombre de mesures et selon notre definition
(1), le produit f(x}dx donne la probabilite que la grandeur mesuree se trouve dans
1'intervalle La fonction f(x) represente la densite de probabilite.
On 1'appellera aussi la fonction de distribution de probabilite. x varie au hasard et
s'appelle variable aleatoire.
D'apres notre definition, la probabilite P de trouver la valeur dans 1'intervalle compris
entre xi et x<i est egale a
qui est la somme (1'integrale) de f(x] pour toutes les valeurs de x entre x\ et x^.
Selon (2), f(x) obeit a la condition
ce qui signifie que la probabilite de trouver une valeur de x quelconque est egale a 1.
Par commodite mathematique, nous avons pris ici des limites infmies pour 1'integrale.
Mais une grandeur physique, par exemple la longueur, peut ne pas varier dans ces
limites (elle ne peut pas etre negative). Cela signifie que la fonction /(a?) utilisee
pour decrire cette grandeur doit devenir tres petite en dehors des limites que nous
choisissons effectivement.
Pour une grandeur discrete qui prend les valeurs numeriques X{ = {x\, x % , . . . } nous
I — RAPPELS SUE LA THEORIE DBS PROBABILITES 17
Chaque valeur possible de x est multipliee par la probabilite de son apparition f(x)dx
et la somme (1'integrale) est effectuee sur toutes les valeurs possibles.
Pour une variable discrete
et sa variance :
I - RAPPELS SUR LA THEORIE DBS PROBABILITIES 19
Les deux seules caracteristiques, peuvent ne pas etre suffisantes pour decrire
la fonction f(x). On peut alors defmir les valeurs moyennes du cube, de la quatrieme
puissance de I'ecart etc. De cette facon, on obtient un moment central d'ordre n :
Le mot "central" souligne le fait que le moment est calcule par rapport a la valeur moyenne
~x. Notons que, par definition,
Parfois, il est utile d'introduire des moments sans rapport avec la valeur moyenne
Les moments (ou les moments centraux), ainsi defmis, determinent la distribution f(x)
d'une facon unique. On demontre facilement que si deux densites de probabilites fi(x) et
/2(x) ont les memes moments, elles sont identiques Laissons au lecteur
interesse le soin d'effectuer cette demonstration.
La connaissance de tous les moments {fi'n} (ou {pn}} donne une information complete
sur la fonction de distribution de probabilite f(x). Cependant, il est plus rationnel de
travailler avec une seule fonction contenant tous les moments dans son expression. Cette
fonction s'appelle la fonction generatrice des moments defmie par :
On voit que [i'n est le coefficient peut egalement etre determinee a partir
des derivees de la fonction M'x(t} :
20 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Conformement au theoreme que Ton vient d'enoncer, on peut affirmer que I'egalite des
deux fonctions g e n e r a t r i c e s , i m p l i q u e I'egalite des deux fonctions de
distribution de probabilite :
Pour un lecteur interesse par les aspects mathematiques du probleme, notons que cette
definition de la fonction generatrice n'est pas la seule utilisee dans la litterature. On peut
remplacer la fonction exponentielle d'un argument reel e^par la fonction d'un argument
purement complexe etxt. Dans le premier cas, la definition est etroitement liee a la
transformation de Laplace, alors que dans le deuxieme elle est liee a la transformation
de Fourier. Les deux transformations integrates sont tres proches I'une de I'autre : une
rotation de 7T/2 dans le plan complexe de t permet de passer d'une transformation a
I'autre.
L'introduction de la fonction generatrice peut etre consideree comme une astuce permet-
tant de faciliter les diverses demonstrations (ce que nous verrons plus tard). Mais on peut
lui donner une interpretation physique plus profonde qui sort du cadre de ce livre.
qui montre que la variance de la somme de deux grandeurs independantes est egale a
la somme de leur variance. Cette formule est la base du traitement des incertitudes
et elle est utilisee continuellement en physique.
On voit d'ailleurs 1'avantage d'une telle definition de la variance. Nous avons dit
qu'il etait "a priori" possible de caracteriser 1'etalement d'une distribution f(x) par
par exemple. Mais, avec cette definition, on ne peut obtenir une relation
aussi simple que celle donnee par la formule (17).
On introduit la somme
Cela signifie que la fonction generatrice des moments d'une somme de grandeurs indepen-
dantes est egale au produit des fonctions generatrices individuelles.
De plus, si toutes les grandeurs dans cette somme ont la meme fonction de distribution
1.1.5 CORRELATIONS
Jusqu'a present, nous n'avons considere que des exemples de grandeurs physiques (varia-
bles aleatoires) independantes. Mais on rencontre aussi des variables correlees (c'est-a-dire
non independantes). A la fin du paragraphe 1.1.1 (voir (4)), nous avons vu un tel exemple
avec une carte ajoutee a un jeu normal de 52 cartes, ce qui entrafne que la probabilite de
deux evenements A et B simultanes P(AB) n'est pas egale au produit des probabilites
Neanmoins, en statistique, il existe "un mecanisme" tout a fait nature! et frequent d'appa-
rition des correlations. Meme si les variables {a??-} sont independantes, leurs fonctions
peuvent etre correlees.
Les ecarts quadratiques moyens crz et <TJ sont introduits dans la definition par commodite.
Nous utiliserons aussi la covariance de deux variables :
En particulier, pour i = j
Prenons un exemple, presque trivial, qui donne une illustration de ce mecanisme d'appa-
rition des correlations. Soient x\ et x^ deux grandeurs physiques independantes avec la
meme moyenne /j, et la meme variance a2. Introduisons deux grandeurs y{ et y^ qui leur
sont liees par une relation lineaire :
On a alors :
Neanmoins, la notion d'independance de deux variables n'est pas toujours evidente. Con-
siderons I'exemple simple de la correlation des deux variables x et y = x2. A priori, nous
pouvons penser qu'elles sont correlees.
Dans le cas general, cette expression est differente de zero, c'est-a-dire que x et x2 sont
effectivement correlees. Mais il suffit que Ton prenne le cas particulier d'une fonction de
distribution f(x) paire, par exemple la distribution de Gauss (voir paragraphe suivant)
avec fj, = 0, pour que et pour que la correlation disparaisse ! Get exemple
n'est pas tres exotique : dans le cas d'un gaz dont les vitesses des molecules obeissent a
la distribution de Maxwell (voir paragraphe 3.1.3), les composantes de la vitesse (vx, vy
et vz) et I'energie ne sont pas correlees. A posteriori, on peut
comprendre qualitativement ce resultat : la valeur de x est caracterisee par son module
et son signe tandis que x2 n'est caracterise que par le module de x. Les signes + et —
sont equiprobables en vertu de la symetrie de f(x), c'est pourquoi x et x2 se trouvent
decorrelees.
Figure 1.5 : Les distributions de Gauss pour plusieurs jeux de parametres /j, et <r
Supposons qu'une valeur physique varie d'une fagon continue dans un intervalle de
moins 1'infmi jusqu'a plus I'mfini 1 . La densite de probabilite f(x] de trouver la valeur
physique aleatoire x pour une distribution normale est donnee par
La distribution normale est caracterisee par deux parametres ^ et a. Leur sens est
clairement visible sur la figure 1.5 ou nous avons presente plusieurs distributions
correspondant a des /j. et a differents : ^ donne la position de la distribution, <r son
etalement.
Notons que le facteur devant la fonction exponentielle est choisi pour que la probabilite
totale soit normee :
Nous avons deja dit, au paragraphe precedent, que la plupart des valeurs physiques varient dans
des limites finies, mais, dans les situations experimentales concretes, les valeurs reelles ne sont
jamais proches des limites et ainsi 1'hypothese d'infinite de 1'intervalle de variation n'a aucune
consequence sur 1'applicabilite des resultats obtenus.
I — RAPPELS SUR LA THEORIE DBS PROBABILITIES 27
(La derniere integrale peut etre calculee, par integration par parties.) Nous voyons
pourquoi, des le debut, nous avons designe par a le deuxieme parametre de cette
distribution.
II est relativement facile de calculer des moments d'ordre plus eleve de la distribution de
Gauss. II faut introduire la fonction generatrice des moments centraux qui, par definition,
est egale a
28 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
On voit que tous les moments impairs sont nuls ce qui est evident en vertu
de la symetrie de la distribution normale par rapport a x = //. Les moments pairs sont
Pour voir I'utilite des fonctions generatrices, prenons un exemple qui interviendra au
paragraphe suivant. Considerons la distribution d'une grandeur physique y — ax + b qui
est une fonction lineaire d'une autre grandeur x distribute selon la loi normale avec une
moyenne /^ et une variance <r2.
La fonction generatrice des moments est egale a
done
Selon notre hypothese, la distribution de x est une distribution de Gauss (26). D'ou
Cette expression prouve que la grandeur y a aussi une distribution normale de valeur
moyenne a/j, + b et de variance a 2 <r 2 . Les deux resultats sont presque evidents : la trans-
lation change juste la valeur moyenne et le changement d'echelle multiplie la moyenne par
a et la variance par a 2 (le resultat etait previsible vu les dimensions de ces grandeurs).
Comme la distribution de Gauss est entierement determinee par les deux valeurs //, <r
et que la plupart des grandeurs physiques peuvent etre decrites par cette distribution,
les resultats experimentaux peuvent etre caracterises par deux valeurs seulement. Par
convention, on presente ces derniers sous la forme
dans 1'intervalle
dans 1'intervalle
une grandeur x plusieurs fois, environ un tiers des resultats se trouve en dehors de
jU ± <T et seulement deux tiers dans I'intervalle. De ce point de vue, il n'y a rien de
dramatique si le resultat sort de cet intervalle. Par centre, si le resultat se trouve
aussi en dehors de I'intervalle la situation devient beaucoup plus
preoccupante. La probabilite d'un tel evenement pour la distribution de Gauss est
seulement de 0,3 %, c'est-a-dire qu'elle est negligeable, vu le nombre d'experiences
realisees habituellement au laboratoire (de quelques unites jusqu'a quelques dizaines).
L'apparition du resultat en dehors de I'intervalle de 3er signifie, la plupart du temps,
qu'il existe une erreur soit dans le deroulement de 1'experience, soit dans les calculs
de // et de a.
Dans le paragraphe 3.1, nous reviendrons sur la definition de fi et de a a partir d'un
nombre limite de mesures ainsi que sur la precision d'une telle determination. Si 1'on
ne peut obtenir la valeur de a experimentale qu'a un facteur 2 pres, on ne doit pas
prendre a la lettre les valeurs des probabilites obtenues avec un a theorique.
Pour 1'instant, que retenir sur la distribution de Gauss (ou normale) ? D'abord, le fait
qu'une tres grande majorite de grandeurs physiques se decrit, au moins en premiere
approximation, par cette distribution. Cette circonstance explique son importance en
physique. Cette distribution est caracterisee par deux parametres : la valeur moyenne
H associee a la'Vraie" valeur de la grandeur physique et la largeur a associee a 1'erreur
experimentale. C'est la raison pour laquelle le resultat d'une experience s'ecrit sous
la forme /L* ± a ; 1'interpretation d'une telle ecriture est que la probabilite pour que la
valeur physique mesuree se trouve dans cet intervalle est egale a 2/3. Si le resultat
sort de I'intervalle fj, ± 3u, alors il est tres probable qu'une erreur se soit glissee dans
nos mesures ou dans les calculs de /J ou de a.
Cette densite de probabilite est celle de la distribution binomiale. Elle est caracterisee
par deux parametres N et p. Plusieurs exemples de cette distribution sont donnes
sur la figure 1.7.
Comme exemple physique simple, considerons N particules d'un gaz sans interaction
distributes uniformement dans un volume V. Chaque particule a une position alea-
toire dans ce volume et a une probabilite p = v/V de se manifester dans une partie v
du volume V. Dans ces conditions la probabilite P/v(n) de trouver n particules dans
v est donnee par (30).
II est facile de verifier que la densite de probabilite (30) est normee conformement a
1'equation (2) :
Determinons la moyenne du nombre n. Par definition (voir (6')), elle est egale a
32 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Figure 1.7 : La distribution binomiale pour trois valeurs du parametre p, N etant fixe : N = 10
Nous avons utilise le fait que le terme avec n — 0 est nul ; changeons la variable de
sommation en posant k = n — 1 :
Pour calculer la premiere somme, nous utilisons la meme astuce que pour le calcul de
n dans (32) :
Les resultats (32) et (33) peuvent paraitre triviaux mais ils sont fondamentaux pour
toute la statistique : la valeur moyenne n est proportionnelle au nombre de mesures
34 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Pour comprendre 1'importance de ces resultats, rappelons que la valeur moyenne est
associee a la valeur d'une grandeur physique xexp et 1'ecart-type a son incertitude (voir
la discussion suivant la formule (29)). Si Ton definit 1'erreur (1'incertitude) relative 6
comme le rapport
Cela signifie que, plus 1'on fait de mesures, plus la precision est grande : une conclusion
evidente, presque triviale. Ce qui est beaucoup moins evident, c'est la dependance
fonctionnelle de 8 avec N. La formule (35) montre que la precision relative decroit
seulement comme la racine de N. Pour augmenter la precision par un facteur de 10,
il faut multiplier le nombre d'experiences, et ainsi le cout, par 100 ! Une experience
precise peut couter tres cher et, ici, on en comprend la raison. Vu qu'une bonne
precision est chere, il faut savoir de quelle precision on a vraiment besoin. C'est une
question non triviale et nous y reviendrons a la fin du livre.
Nous avons obtenu la formule (35) a partir de la distribution binomiale mais elle
restera valable quelle que soit la situation experimental. Nous reviendrons sur cette
question au paragraphe 2.1.
et du fait que
I - RAPPELS SUR LA THEORIE DBS PROBABILITIES 35
Rappelons que n restant fini, il est toujours petit par rapport a N. Done,
L'expression dans le denominateur tend vers 1 quand N —> oo, par centre
.,1
C'est la distribution de Poisson.
On peut verifier aisement qu'elle est normee :
Nous aurions pu prevoir ces resultats a partir des expressions relatives a la distribu-
tion binomiale (32—33).
Notons que la distribution de Poisson ne depend que d'un seul parametre // = Np. La
forme de cette distribution pour plusieurs valeurs de p est presentee sur la figure 1.8.
(figure 1.8). n est le nombre de particules detectees pendant 1 seconde. Get exemple
montre un "passage" entre differentes distributions. On a remplace une distribution
a deux parametres (binomiale) par une autre beaucoup plus simple (de Poisson) qui
ne contient qu'un seul parametre.
diverge. Cela signifie que Pecart-type, qui etait pour nous la caracteristique de la
largeur d'une distribution, n'existe pas au sens de la definition (7). Neanmoins,
1'etalement de la fonction de Lorentz peut etre decrit par le parametre a.
I - RAPPELS SUR LA THEORIE DES PROBABILITIES 39
La fonction generatrice (14) ou (15) de la distribution de Lorentz n'existe pas non plus
a cause de la divergence de I'integrale correspondante. Cependant, il est possible de
remedier a ce probleme. Au lieu de la definition issue de la transformation de Laplace, on
peut choisir pour fonction generatrice une definition issue de la transformation de Fourier
(voir la discussion a la fin du paragraphe 1.1.3) :
ou la fonction exponentielle d'un argument reel a ete remplacee par la fonction ex-
ponentielle d'un argument purement complexe (pour simplifier la discussion, on prend
alors
on obtient
ou nous avons utilise le fait que a > 0. Ainsi ('expression de la transformation de Fourier
directe (40) nous donne la formule (39).
Nous sommes en presence d'une distribution pour laquelle les definitions generates
des valeurs moyennes ne sont pas valables. Cette particularity de la distribution de
Lorentz a des consequences tres importantes. Nous verrons au paragraphe suivant
que c'est la seule distribution qui ne se transforme pas en une distribution de Gauss
lorsque le nombre de mesures devient grand.
40 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
En principe, x dans cette expression peut etre complexe. Nous n'etudierons pas toutes
les proprietes de cette fonction, mais nous nous bornerons a la plus interessante :
qui se demontre tres simplement : il suffit d'integrer (41) une fois par parties.
Pour x entier, x = n, nous obtenons
car
car I'integrale
pour x > 0. Cette fonction contient deux parametres 3 . Notons que (3 est simplement un
parametre d'echelle. Le choix de la constante devant la fonction de x est dicte, comme
d'habitude, par la normalisation de la probabilite totale, ce qui se verifie facilement a I'aide
I — RAPPELS SUR LA THEORIE DES PROBABILITES 41
Figure 1.10 : La distribution gamma pour plusieurs valeurs du parametre a, /3 etant fixe
3 Notons la ressemblance formelle entre la distribution gamma et celle de Poisson : si Ton remplace
n par a et jj, par x/j3. Cependant, il ne faut pas oublier que les roles des variables et des
parametres sont inverses dans ces distributions.
42 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
L'integrale dans cette expression est egale a F(a + l)pa+l et fmalement M'(t] s'ecrit
Soit x une grandeur physique aleatoire avec une moyenne ^ et une variance <r 2 .
Si <72 est fini, alors la distribution de la valeur moyenne sur un grand nombre
n de mesures
tend vers une distribution de Gauss avec une moyenne // et une variance
distribution ne tend pas vers une distribution normale, Neanmoins, cette situation
reste rare et quand les conditions du theoreme sont remplies, celui-ci nous garantit
que, pour obtenir un resultat precis et fiable, il faut mesurer plusieurs fois la valeur
de x et calculer sa moyenne.
Vu 1'importance du theoreme central limite, nous donnons ici sa demonstration qui
peut, cependant, etre oubliee lors d'une premiere lecture.
Ici, nous avons fait le developpement limite de la fonction exponentielle et nous avons
utilise le fait que la valeur moyenne de x est egale a ^ et que le carre de I'ecart-type est
fmi et egal a a2 (13). Introduisons d'abord une valeur auxiliaire
Pour t fixe, tend vers 0 lorsque n tend vers I'infmi. Nous pouvons ainsi utiliser le
developpement (47) par rapport au parametre t/^/n :
Introduisons maintenant une nouvelle variable z liee a la valeur moyenne introduite dans
I'enonce du theoreme
Toute les valeurs Wi apparaissant dans la derniere expression ont la meme distribution car
les differents x^ ont des distributions equivalentes. Nous pouvons alors utiliser la propriete
(21) de la fonction generatrice des moments, selon laquelle la fonction generatrice des
moments d'une somme de n grandeurs aleatoires ayant la meme distribution est egale a
la n-ieme puissance de leur fonction generatrice :
44 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
On reconnaft ici la fonction generatrice (26) des moments d'une distribution de Gauss
avec une moyenne nulle et une variance a2 = 1. Autrement dit, dans la limite ou n est
grand, la grandeur z a une distribution normale avec une moyenne nulle et une variance
unite. La valeur moyenne X est liee a z par
Nous avons deja demontre qu'une fonction lineaire (ici X) d'une grandeur aleatoire z
avec une distribution normale a aussi une distribution normale (voir (28)). Ainsi la valeur
X, dans la limite ou n est grand, a une distribution de Gauss avec une moyenne p et une
variance a2/n.
Nous pouvons encore remarquer que I'erreur relative Sx sur la valeur moyenne X, intro-
duite dans la formule (34), est inversement proportionnelle a la racine carree de n.
Soulignons que, dans la demonstration, aucune hypothese n'a ete faite sur la forme de la
fonction de distribution de x et qu'ainsi ce resultat est tres general.
Le theoreme que nous venons de demontrer est particulierement important pour les
experiences physiques car il nous donne la garantie que, si le nombre de mesures
est suffisant, nous obtiendrons tot ou tard une valeur physique ayant une distribution
bien connue. Cependant, il s'agit d'un theoreme limite, c'est-a-dire que le passage vers
une distribution de Gauss ne se realise que si n est suffisamment grand. Dans une
situation concrete, il faut savoir a quel point la distribution de la grandeur mesuree
est proche de la distribution de Gauss et quand le nombre de mesures est suffisant.
Pour 1'instant, la conclusion physique principale du theoreme central limite est que
toutes les grandeurs physiques, ou presque, ont une distribution de Gauss ; de plus
nous savons ce qu'il faut faire pour que la distribution devienne une distribution
normale. Pour eclaircir cet aspect du theoreme, donnons-en une autre formulation,
plus "physique", que 1'on peut aussi rencontrer dans les livres sous le nom du theoreme
central limite :
Si une grandeur physique subit Vinfiuence d'un nombre important de facteurs
independants et si Vinfiuence de chaque facteur pris separement est petite, alors
la distribution de cette grandeur est une distribution de Gauss.
Les points importants dans cette formulation du theoreme sont la presence d'un
grand nombre de facteurs exterieurs, leur independance et leur faible influence sur
la grandeur physique.
Les deux formulations du theoreme sont relativement proches I'une de I'autre. Dans la
deuxieme, n joue le role du nombre de facteurs independants ; art- peut etre consideree
comme la valeur de la grandeur x influencee par un seul facteur i. Ainsi on retrouve
presque la meme demonstration du theoreme. Pour n mesures independantes on peut
affirmer que les X{ ont la meme distribution et ainsi la meme valeur de <r2, mais pour n
facteurs independants, on ne peut plus dire qu'ils vont donner la meme distribution a Xi
I - RAPPELS SUR LA THEORIE DBS PROBABILITES 45
avec les memes valeurs de // et de cr2. Toutefois cela n'est pas un obstacle au theoreme.
Pour le demontrer, il faut remplacer une simple valeur moyenne arithmetique X par une
expression plus complexe. Le lecteur, amateur de rnathematiques, pourra mener lui-meme
cette etude.
II est facile de voir que, pour la distribution de Lorentz, le theoreme central limite ne
s'applique pas. Autrement dit, la condition d'existence d'un ecart-type fmi est essentielle
a ce theoreme et n'est pas simplement une condition pour faciliter la demonstration.
Si x est distribue selon une loi lorentzienne, la valeur moyenne
En physique, cette distribution est caracteristique de la forme d'une raie dans les
transitions electromagnetiques. Get exemple ne signifie pas, cependant, que toutes
les raies mesurees experimentalement ont une forme lorentzienne. Nous verrons plus
tard que 1'appareil avec lequel on efFectue les mesures modifie aussi la forme de la
distribution et que, pour une distribution de Lorentz initiale, on peut mesurer une
distribution de Gauss. Notre exemple de la distribution de Lorentz, bien qu'il soit
tres important en physique, reste neanmoins une exception.
II faut comparer ce resultat avec la distribution de Gauss representee par une ligne
discontinue :
avec les parametres p,S4 = 18 et aS4 w 5, 2. Les valeurs de ces parametres ont ete
calculees selon (19) et (20) en supposant que chaque chiffre dans un numero tele-
phonique est distribue selon une distribution discrete constante avec une moyenne
(9 + 0)/2 = 4, 5 et une variance (9 - 0) 2 /12 = 6, 75 (a comparer avec (10) et (11)).
La coincidence entre la courbe et 1'histogramme est impressionnante ! Notons que le
theoreme central limite suppose que les distributions de Xi doivent etre les memes et
independantes (ce qui semble etre credible dans notre experience). Alors la somme sn,
pour n termes dans la somme, aura une distribution proche de celle de Gauss lorsque
n —>• oo. Dans notre cas, n = 4, mais nous voyons que la distribution de Gauss est
deja une tres bonne approximation de la distribution de §4.
4 A cause de la ressemblance formelle entre les distributions gamma et de Poisson, on peut utiliser
exactement la meme approche pour demontrer que, dans la limite a —>• oo, la distribution gamma
donne une distribution de Gauss. Nous laissons cet exercice au lecteur.
I - RAPPELS SUR LA THEORIE DBS PROBABILITES 47
Pour simplifier cette expression dans la limite p,n » 1, utilisons une approche
assez connue dite "methode du col". Notre fonction P(j,(n) contient deux facteurs, le
premier, I/A/TI, qui varie lentement avec n et le deuxieme, e~^ n \ qui a une variation
tres rapide avec n du fait de la fonction exponentielle ; ici
On peut voir aisement que la fonction f^(n) possede un seul minimum pour n — p, et
qu'elle peut etre developpee en serie de Taylor au voisinage de ce point :
Nous avons utilise ici le fait que / M (//) = 0 et f'n(^) = 0, car n — p, est un minimum
de la fonction, et nous n'avons garde que le premier terme non nul. Comme nous
1'avons deja remarque, la probabilite P^(n] ne sera sensiblement differente de zero
qu'au voisinage de n — /j,. Au-dela de cette region, elle est tres petite a cause de la
fonction exponentielle decroissante. Au voisinage de ce point, on peut ecrire que
Dans cette expression, nous avons remplace la fonction qui varie lentement avec n par
sa valeur au point n = p. La distribution ainsi obtenue est une distribution de Gauss
avec une moyenne p, et un ecart-type ^/Ji. D'ailleurs, il est tout a fait normal que la
moyenne et la variance restent les memes que pour la distribution de Poisson. Sur
la figure 1.8, nous avons donne quelques exemples de la distribution de Poisson avec
plusieurs valeurs de /j,. Plus la valeur de p est grande, plus la distribution devient
symetrique par rapport au maximum qui est aussi la valeur moyenne.
Nous avons deja vu au paragraphe 1.3.2 que la distribution de Poisson peut etre
obtenue a partir de la distribution binomiale lorsque le nombre de mesures N est
grand et que p est petit, le produit p = Np restant constant. Cela signifie egalement
que, dans le cas d'un grand nombre de mesures, la distribution binomiale tend vers
48 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Soulignons les conclusions a retenir. D'abord, pour la plupart des experiences phy-
siques faites au laboratoire, 1'hypothese selon laquelle la distribution d'une grandeur
physique est une distribution de Gauss constitue une tres bonne hypothese de depart.
C'est le theoreme central limite qui nous le garantit. De plus, si jamais on a le moindre
doute sur la forme de la distribution, ce meme theoreme nous indique comment on
peut contourner le probleme : il faut faire plusieurs mesures et travailler sur la valeur
moyenne qui est forcement decrite par la distribution normale.
I - RAPPELS SUR LA THEORIE DBS PROBABILITES 49
Figure 1.12 : Les relations entre les distributions binomiale, de Poisson et de Gauss
Neanmoins, il ne faut pas oublier "le point faible" de ce theoreme : comme c'est un
theoreme limite, le nombre de mesures doit etre grand, et done 1'experience peut
devenir chere. Pour controler la deviation a la loi gaussienne et savoir combien de
mesures sont necessaires, une analyse plus approfondie est indispensable : elle est
1'objet des paragraphes suivants.
Cette page est laissée intentionnellement en blanc.
CHAPITRE 2
FONCTIONS D'UNE VARIABLE ALEATOIRE
On peut formuler un probleme assez general et tres important pour les applications
physiques. Supposons que soit connue la fonction de distribution de probability f(x)
d'une variable aleatoire x (en particulier, la moyenne de cette distribution
sa variance Quelle est alors la fonction de distribution de probabilite
g(y) d'une variable aleatoire y (en particulier, p,y et <jy) lorsque la relation entre y et
x est donnee par une fonction connue y = y(x) ? C'est, en statistique, le phenomene
de la propagation des erreurs.
L'approximation standard consiste a negliger dans cette expression tons les termes
sauf le premier :
C'est un resultat qui pourrait sembler evident mais cette expression est approximative.
Elle n'est exacte que si la fonction y(x] est lineaire.
D'une fagon tout a fait analogue, nous pouvons calculer la variance de y :
soit
II s'agit encore d'une expression approchee qui ne prend une valeur exacte que si la
fonction est lineaire. Nous reviendrons sur la precision de cette approximation a la
fin du chapitre.
Nous pouvons generaliser les resultats (49) et (50) au cas de plusieurs variables. Soit
une fonction de n variables. Pour abreger, utilisons des nota-
tions "vectorielles" :
et pour la variance :
Supposons que les variables xi soient independantes (nous verrons dans ce chapitre le
cas plus general sans cette hypothese supplementaire). Alors
Nous avons ainsi resolu le probleme pose au debut du paragraphe. L'expression (54)
permet de calculer 1'ecart-type ay de y si les ecarts <7Z- de Xi sont connus.
Reecrivons cette derniere formule en remplagant 1 ax et ay par Aa? et Ay :
Ici, toutes les derivees sont calculees pour x\ — Hi, x-2 = jJ>2, • • • , xn — Hn, c'est-a-dire
que tous les x^ doivent etre remplaces par leurs valeurs moyennes fa.
Soulignons encore une fois que pour obtenir cette expression nous avons utilise deux
hypotheses importantes : la premiere est 1'independance des grandeurs a?,-, la deuxieme
est que, dans le developpement en serie de Taylor de y, nous nous limitons seulement
aux deux premiers termes.
Les exemples les plus simples et les plus frequents concernent la somme et le produit
(ou le rapport) de deux valeurs physiques. Pour la somme de deux valeurs x\ et x-i
1 Rappelons que, dans ce livre, nous conservons les "anciennes" notations A:r au lieu de ux.
54 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Dans cette expression ainsi que dans les expressions suivantes nous ecrivons x\ et x%
a la place de /^i et ^. Ce choix est volontaire car experimentalement il est possible
de determiner mXl et mX2 et non //i et ^2- Pour ne pas introduire chaque fois de
nouvelles notations, gardens partout x\ et x-± qui ne representent pas des fonctions
mais des valeurs experimentales.
D'une fagon analogue, pour le rapport
nous obtenons
Les deux dernieres expressions de Ay peuvent etre reunies sous une forme plus com-
mode si Ton passe a 1'incertitude relative Ay/y :
Les formulas (56) et (58) ont une structure similaire : la racine carree d'une somme
de carres. Pour des estimations rapides et simplifiees, on applique les majorations
suivantes :
et
II — FONCTIONS D'UNE VARIABLE ALEATOIRE 55
(on "deduit" parfois cette formule en calculant la derivee de log y). Cependant 1'utilisa-
tion de ces majorations n'est justifiee que si Ton veut une evaluation grossiere de
Pincertitude. La difference entre la vraie valeur de 1'incertitude (58) et sa majoration
(60) peut etre importante. Par exemple, si 1'on suppose des incertitudes relatives sur
Xi de 5%, la formule exacte donne une incertitude Ay/y = 7%, tandis que sa majora-
tion conduit a une valeur beaucoup plus grande : 10% ! Plus les variables sont nom-
breuses, plus la difference est grande. Ceci s'explique simplement car 1'augmentation
de 1'incertitude en fonction du nombre n des variables est en ^Jn dans 1'expression
(58') et en n dans la majoration du type (60).
L'expression (55) ou les cas particuliers (56) et (58) donnent une idee sur la fac,on de
diminuer 1'incertitude : il faut toujours se battre contre la plus grande incertitude.
Si une des incertitudes est seulement trois fois plus petite que les autres, on peut
pratiquement la negliger. Cette approximation donne une erreur supplementaire de
10% dans les calculs d'incertitude (c'est une erreur de deuxieme ordre).
Le meilleur choix des conditions experimentales (des appareils et des methodes de
mesure) consiste a avoir si possible les memes contributions de toutes les variables
differentes dans 1'expression (55), ce qui minimise cette incertitude.
Nous pouvons appliquer la formule (55) directement. Pour le faire nous calculons les
derivees :
Le probleme est que, pour des fonctions compliquees, nous obtenons toujours un
resultat "complique" et qu'ainsi la probabilite d'avoir une erreur arithmetique lors de
la derivation ou lors des applications numeriques est tres grande.
II est preferable de proceder autrement : on decompose la fonction initiale en fonctions
elementaires et on fait les operations successivement. Dans 1'exemple precedent :
Nous voulons calculer 1'incertitude de y a 10% pres. Nous voyons que Ax2/x% est
beaucoup plus grande que A£3/£3. Ainsi, 1'expression de Az2 peut etre simplifiee
par
Nous notons aussi que Az% ~ 1 est beaucoup plus grande que Axi = 0,1 et ainsi,
pour Azi, nous obtenons 1'expression
Notons une fois de plus que notre expression (55) n'est pas une formule exacte. Dans
sa demonstration, nous avons suppose que le developpement en serie de Taylor peut
etre limite a la derivee premiere. Autrement dit, nous remplagons lafonction y = y(x)
par la fonction lineaire :
Cherchons a generaliser la formule de propagation des erreurs (54) au cas de plus de deux
variables correlees. Nous considerons le passage de n variables {xj} a n variables {yi}
liees entre elles par des relations generates :
De meme, D(y) = cov(y, y). Nous utilisons la lettre D pour cette matrice dans le but de
souligner sa relation avec la variance (24).
Conformement au (51), nous avons :
lei, pour les valeurs moyennes apparaissant dans (63), nous avons des expressions plus
compliquees que (53) :
L'expression (assez volumineuse) de la matrice de covariance D(y] peut etre ecrite sous
une forme beaucoup plus compacte si Ton introduit la matrice du Jacobien de la trans-
formation (62) :
Toutes les derivees sont calculees au point x = jl. A I'aide de cette matrice ('expression
(63) s'ecrit :
Comme illustration de la formule de propagation des erreurs dans le cas des variables
correllees, considerons un exemple dans lequel nous voulons determiner la valeur d'une
resistance R ainsi que la puissance P degagee par cette resistance. Si nous connaissons le
courant / qui traverse la resistance et la tension U aux bornes de celle-ci, nous trouvons
immediatement
et
Nous aurions pu choisir une autre approche. En ayant calcule la valeur de la resistance
R — U/1, nous pouvons determiner P a partir de la formule
P = RI2.
Comme il se doit nous retrouvons sur la diagonale les expressions des incertitudes
qui peuvent etre reecrites sous les formes (67) et (66) respectivement, alors que les
elements non diagonaux nous donnent la covariance de R et P
II est interessant de remarquer que la correlation entre P et R est nulle lorsque les
contributions a I'incertitude AP et A/?, de la tension et du courant sont identiques
II s'agit d'un argument supplementaire pour effectuer les mesures en faisant en sorte que
toutes les contributions des differentes sources d'incertitude soient a peu pres les memes.
Pour retrouver I'expression correcte de AP, a partir de P = R,P, compte tenu de la
correlation entre R et /, calculons d'abord cov(Pt, /). D'apres (63), nous avons :
Done,
Nous savons que la probabilite de trouver la valeur de x dans I'intervalle compris entre x
et x + dx est egale a :
62 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Nous cherchons la fonction g(y) qui nous donne la meme probabilite de trouver la valeur
de y dans I'intervalle compels entre y et y + dy :
II suffit de reecrire (70) en remplacant x par y. Pour cela nous devons, d'abord, introduire
la fonction inverse :
Ceci est possible car notre fonction y(x) est biunivoque. On a alors
II nous reste a remplacer dx par dy comme nous le faisons dans les changements de
variables d'integration. La seule difference reside dans le fait que la densite de probabilite
ne peut jamais etre negative. C'est pourquoi nous defmissons
si la derivee dx(y]/dy est negative. Les deux dernieres expressions peuvent etre reunies
sous une forme compacte :
Si la fonction y = y(x] n'est pas biunivoque (figure 2.2), la tache devient un peu plus
compliquee. II faut d'abord introduire toutes les branches univoques pour la fonction
inverse : x\ — x\(y\x-2 — x^y],... ,Xk = Xk(y), puis faire la somme sur toutes ces
branches (la probabilite de trouver y dans I'intervalle entre y et y + dy est egale a la
somme de toutes les probabilites d'apparition de x entre Xi et Xi -f dxi].
II — FONCTIONS D'UNE VARIABLE ALEATOIRE 63
Prenons I'exemple y(x) = x2, avec une fonction de distribution de probabilite de x egale
a f(x). La fonction y(x) = x2 n'est pas biunivoque car pour deux valeurs de x differentes
on peut avoir la meme valeur de y : y(x) — x2 — ( — x } 2 . II existe done deux branches de
la fonction inverse :
soit
64 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Les formules obtenues sont valables dans le cas d'une fonction d'une variable y = y(x).
On peut les facilement generaliser au cas ou nous voulons passer de n variables inde-
pendantes x\, x^, .. • , xn = x a n variables independantes j/i, y 2 , • • • > 2/n = y a I'aide
d'une transformation y,- = y«(a?i, £2, • • • 5 #n) = yi(x). Alors la densite de probabi-
lite /(xi, # 2 , . . - , xn) = f(x) (voir (18)) se transforme en une densite de probabi-
lite </(yi, 7/2, • • • ,yn) = d(y) a I'aide d'une relation qui est la generalisation de (74)
etablie dans le cas d'une seule variable. II faut introduire la transformation inverse
Xi = Xi(yi,y2j ... ,yn) = X i ( y ) . La densite de probabilite g(y) est
ou |5(a?i, x < 2 , . . . , xn)/d(yi, y % , . . . , yn}\ est la valeur absolue du Jacobien de cette trans-
formation. Cette formule est analogue a celle utilisee pour un changement de variables
d'integration. La seule difference est la presence du module deja discutee prcedemment.
Pour les fonctions qui ne sont pas biunivoques, il faudra faire la somme sur tous les
branches comme on I'a fait pour une fonction y — y(x).
Figure 2.3 : Les vitesses et les angles dans le systeme du laboratoire (a)
et dans le systeme du centre de masse (b)
Dans le systeme du centre de masse (figure 2.3 b), les particules ont les vitesses v{ et
V2 de modules egaux mais de directions opposees :
Apres la collision, les modules des vitesses restent inchanges en vertu de 1'elasticite
de la collision :
et la collision donne lieu "simplement" a une rotation d'un angle x Qui egt 1'angle de
diffusion dans le systeme du centre de masse. Dans le systeme du laboratoire apres
la collision, les vitesses sont egales a :
Deux relations lient les angles polaires de diffusion dans les deux systemes. L'angle
azimutal, bien evidemment, reste invariant et nous le designerons par <p.
Par ailleurs, I'angle solide dans le systeme du centre de masse d$lcm = siuxdxdtp e§t
lie a Tangle solide dans le systeme de laboratoire d£liab = sinOidOidp par la relation
Comme nous 1'avons dit, dans le systeme du centre de masse la distribution angulaire
est isotrope. Cela signifie que la probabilite dP que la particule 1 parte dans un angle
solide dQcm divisee par d£lcm ne depend pas de Tangle :
La valeur de cette constante est egale a 1/47T car la probabilite est normee a 1. Vu la
relation entre les angles solides (79), nous pouvons reecrire / C m(X; V7) s°us la forme
Ainsi nous avons la distribution angulaire dans le systeme du laboratoire qui d'apres
(78) s'ecrit :
Figure 2.5: Les distributions angulaires dans le systeme du cnetre de masse (s)
et dans le systeme du laboratorie(b)
est obtenue en negligeant le dernier terme dans le developpement (80). Ainsi cette
formule conduit a une erreur supplemental dans le calcul de (Ay) 2 = a^ egale a
2 9
«•
On pourrait penser qu'il est facile d'ameliorer la formule de propadgation des erreurs
en poussant plus loin le developpement de la fonction en serie de Taylor. Cette
proposition apparait dans certains livres sur 1'analyse des donnees. Techniquement,
c'est un exercice simple, bien qu'il soit assez penible (il faut faire tres attention et
garder correctement tous les termes de meme ordre dans le developpement et dans
les calculs intermediares). Cependent des problemes majeurs apparaissent dans cette
voie.
Considerons 1'exemple simple d'une fonction d'une seule variable y — y(x). Comme
pour la formule de propagation des erreurs, developpons cette fonction en serie de
Taylor au voisinage de x — px = ~x :
Nous conservons volontairement le terme du troisieme ordre car il donnera en fait une
contribution a la variance du meme ordre que le terme du seconde ordre. La valeur
moyenne de y prend alors la forme
est Pinteressant d'obtenir une expression plus precise de 1'incertitude d'une grandeur
physique si Ton ne peut plus 1'interpreter avec precision.
Pour mieux comprendre, etudions sur un exemple le "passage" d'une distribution
gaussienne a une distribution plus complexe. Soient x± et X2 deux variables gaus-
siennes. Quelle est la distribution de leur rapport
Appliquons 1'approche generale presentee dans le paragraphe 2.2.2. II faut passer des
variables x\ et x^ aux variables y et z = #2 (cette derniere joue le role d'une variable
auxiliaire) et integrer sur z.
Pour simplifier les relations, supposons que les valeurs moyennes //,• sont positives et que
les incertitudes sont faibles par rapport aux valeurs moyennes (<rz- <C fJ-i)- Cela signifie
que la distribution cherchee reste proche d'une distribution gaussienne. Si /(#i) et /(x^)
sont les fonctions de distribution des variables x\ et x-z
Cette derniere integrale peut etre calculee si Ton utilise la valeur de I'integrale auxiliaire2
2 L'astuce pour calculer J(A, B) est classique : il faut utiliser la methode de derivation par rapport
au parametre B :
La derniere integrale se remene a I'integrale connue (25) par le changement lineaire de variable
y = VAz - B/2VA.
70 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
La fonction (81) s'ecrit sous une forme qui ressemble beaucoup (surtout si Ton fait
1'approximation supplementaire AQ(y)/A 2 (y) w 1) a la distribution de Gauss, mais
sa largeur depend de y.
Un exemple d'une telle distribution est trace sur la figure 2.6 (pour /^i///2 — 1,
On constate que, lorsque les incertitudes relatives sont faibles (<TJ <C Hi), la fonction
de distribution g(y) est tres proche d'une gaussienne : c'est une fonction qui est tres
piquee au voisinage de y = yo = pi/Hz (on peut done garder la dependance rapide de
y dans la fonction exponentielle, mais remplacer partout ailleurs y par yo) avec une
largeur ay dont le carre est egal a
II - FONCTIONS D'UNE VARIABLE ALEATOIRE 71
Notons que ces valeurs sont tres proches de la moyenne /jy et de la variance cr^ calculees
avec la fonction de distribution (81) :
Nous avons deja etudie des distributions tres differentes : symetriques et asymetriques ;
definies sur un intervalle fini, demi-infini et infini ; determinees par un ou plusieurs
parametres. Si nous conservons la meme approche, la description des donnees experi-
mentales devient assez lourde (pour chaque grandeur physique on est oblige d'indiquer
la loi de probabilite et ses parametres). Sans doute, une telle approche est indispen-
sable pour rester precis dans la description des donnees (sans approximer les distri-
butions de toutes les grandeurs par une loi gaussienne). Cependant, il est possible de
3 Nous laissons au lecteur le soin de retrouver ces expressions.
72 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
proposer une autre forme de description des donnees experimentales qui permet, au
moins en premiere approximation, d'unifier les resultats de distributions differentes.
La notion unificatrice sera, bien evidemment, celle de probability.
On pent commencer par le cas le plus simple, celui d'une distribution de Gauss. Dans
le paragraphe 1.2, nous avons vu qu'une grandeur decrite par cette loi de probability
est entierement definie par deux valeurs [i et a et que le resultat, ecrit sous la forme
// ± cr, a une interpretation rigoureuse en termes de probabilites. Autrement dit, si
1'on connait // et a on peut donner la probabilite Pr pour que x prenne une valeur
dans 1'intervalle de x\ = n — r<r a #2 — H + rcr (quelle que soit la valeur de r] :
Au lieu de caracteriser la variable x par \i, et cr, on peut la decrire par 1'intervalle
[#1,2:2] et par la probabilite Pr de trouver x dans cet intervalle. Cette probabilite
s'appelle le niveau de confiance et 1'intervalle correspondant rintervalle de confiance.
Plus la probabilite est elevee, plus grand est 1'intervalle correspondant (pour que 1'on
soit certain de trouver x dans cet intervalle). Bien sur, pour presenter un resultat, on
peut choisir une valeur quelconque de r (et la valeur de Pr correspondante), mais les
intervalles les plus frequemment utilises sont ceux qui correspondent a un (r = 1) ou
deux (r = 2) ecart-types. Autrement dit, on choisit les niveaux de confiance de 68 %
ou 95 %.
Pour une distribution de Gauss, les relations entre les niveaux de confiance et les
intervalles de confiance correspondants d'une part, et les valeurs de fj, et cr d'autre
part, sont simples. Pour fj, et a donnes et Pr choisie, on calcule facilement 1'intervalle
[a?i, #2] (voir paragraphe 2.1). Et inversement, si 1'on connait [#i, x?] et la probabilite
Pr, on peut retrouver // et a. Si, par exemple, Pr = 95 %, alors r = 2 et on peut
calculer // = \(x\ + #2) et <r = \(x-2 — x\).
Dans le Tableau 2.1 la probabilite Pr pour que x soit incluse dans 1'intervalle symetrique
[ # i = / / — rcr, X? = n + ra] est donnee pour 7 valeurs de r.
Tableau 2.1 : Probabilite Pr (en %) pour que la valeur d'une variable gaussienne x soit dans
1'intervalle [p, — ra, p, + ra\ pour diverses valeurs de r
Les avantages d'une telle presentation sont, d'une part, qu'elle est suffisamment infor-
mative (elle nous donne le domaine de variation de la valeur de x et la probabilite de 1'y
trouver) et, d'autre part, qu'elle est aisement generalisable aux autres distributions.
Quelle que soit la distribution /(a?), on peut decrire le resultat observe par le niveau
de confiance Pr et 1'intervalle de confiance [xi, xz]
II est vrai que pour une distribution non gaussienne, la determination de la moyenne
et de la variance a partir de Pr et [xi,X2] peut etre plus complexe que pour une
distribution gaussienne ; mais si Ton dispose d'une information exhaustive (forme de
la distribution et autres parametres necessaires comme, par exemple, le nombre de
mesures effectuees) ce probleme peut etre resolu.
Des exemples d'utilisation des niveaux et des intervalles de confiance seront presentes
lors de la discussion d'utilisation de la distribution de Student (pour un nombre limite
de mesures) ou encore de la distribution %2 (pour 1'ajustement des parametres).
Notons qu'un tel language permet de presenter d'une fagon tres informative un autre
type de resultats experimentaux : les resultats negatifs, c'est-a-dire le fait qu'un
phenomene attendu n'est pas observe. Toute la physique des particules en est une
bonne illustration : pendant tres longtemps on cherche une particule, on ne la trouve
pas, mais on continue jusqu'au jour ou 1'on obtient un resultat positif. On a cherche
ainsi la particule vehiculant 1'interaction forte, proposee par Yukawa, ou du positon
(antiparticule de 1'electron) dont 1'existence avait etc predite par Dirac. Aujourd'hui
recherche le boson de Higgs (selon les modeles actuels, c'est une particule qui serait
responsable de 1'existence de la masse de toutes les autres particules) : les recherches
de cette particule out debute il y a plus de quarante ans mais n'ont toujours pas
abouti.
Quand un resultat negatif est obtenu, on peut quantifier cet echec : on peut dire,
par exemple, que, dans le domaine de variation des parametres ou la recherche a ete
menee, la probabilite de trouver une particule est inferieure a une certaine valeur.
D'habitude, une particule se manifeste par un signal x dans un detecteur. Quand
aucun signal n'est enregistre, on peut considerer que ce signal est inferieur a une
certaine valeur xi, et ce, avec une certaine probabilitee Pr(x < xi).
C'est pour ce type de resultats qu'il est utile d'introduire des niveaux de confiance
dont 1'intervalle est limite d'un seul cote. On a alors affaire a un intervalle unilateral
(contrairement a un intervalle bilateral introduit au depart). La probabilite que x
soit plus petit que x\ est alors egale a
Evideminent, pour une meme probabilite Pr, les intervalles unilateraux et bilateraux
ne sont pas les memes. Par contre, si Ton salt calculer les intervalles unilateraux, par
soustraction, on obtient facilement les intervalles bilateraux, et vice versa.
Quelques exemples numeriques sont donnes dans le Tableau 2.2.
Tableau 2.2 : Probabilites Pr (en %) pour que la valeur d'une variable gaussienne x soit
inferieure a /j, + rcr
Nous aurons done besoin de distributions plus compliquees que celles de Gauss et
nous les presentons dans ce chapitre.
Nous appellerons cette valeur la moyenne estimee a partir d'un echantillon ou plus
simplement la moyenne experimental pour la distinguer de la vraie moyenne // que
nous appellerons aussi la moyenne theorique.
Cette moyenne experimentale peut etre consideree comme une grandeur physique.
Elle est la somme de n grandeurs independantes car nous supposons que les mesures
{%i} sont independantes. Pour n grandeurs independantes, la fonction de distribution
se factorise en un produit de fonctions de distribution (voir (18)). (Arm d'alleger les
demonstrations nous n'ecrivons pas les integrates multiples pour exprimer les valeurs
moyennes qui sont symbolisees par une barre). Ainsi, la valeur moyenne de m est
egale a
Ecrivons le terme sous la somme en utilisant le fait que les valeurs moyennes de Xi et
de ra sont identiques et egales a p :
Le premier terme dans cette expression donne, par definition, cr 2 , le troisieme cr 2 /n,
en vertu de (84). Pour calculer le deuxieme terme explicitons la difference
Alors,
car dans cette somme il n'existe qu'une seule contribution differente de zero pour
k = i. Finalement, nous obtenons la valeur moyenne de la variance :
Ainsi nous avons construit une grandeur s2 qui, dans la limite d'un grand nombre de
mesures, nous donne la vraie variance <r2 de la grandeur physique x. Mais nous avons
deja decide de travailler avec la moyenne m. Nous avons done a definir la variance s^
de cette grandeur (ou Fecart quadratique moyen] a partir des resultats experimentaux
{xi}. Cette definition est evidente :
Lorsque n tend vers 1'infini, cette valeur tend vers zero comme <r2 /n conformement
a (84).
quadratique moyen s^ (88). Soulignons que cet ecart est une caracteristique de m
et represente ainsi 1'incertitude sur cette derniere valeur et non pas sur x. Si Ton
veut determiner la variance de x il faut utiliser la definition (86). Bien evidemment,
les deux valeurs m et sm ne sont plus suffisantes pour presenter toute 1'information
experimentale (les deux definitions contiennent explicitement un troisieme parametre,
le nombre de mesures n). Plus tard nous completerons cette description et nous en
donnerons une interpretation exacte a 1'aide des probabilites, comme cela a deja ete
fait pour la distribution de Gauss.
Par analogic avec les formules (86) et (83), on peut defmir la covariance, le coefficient
de correlation et les moments d'ordre superieur pour un echantillon. Ainsi, par exemple,
la covariance de deux variables x et y est donnee par
Nous aurons egalement besoin des moments centraux m^ pour k > 3, qui peuvent etre
defmis par
pour k = 2 et k — 4.
Le deuxieme terme est nul :
du fait que les puissances impaires de (a?,- — /u) donnent zero ; ainsi, dans ce produit, les
termes non nuls correspondent ai = k,j = louj = k, i = 1. Le resultat final pour s^
est :
Dans cette expression, on peut utiliser le fait que, pour une distribution normale, //2 = v"2
et /i4 = 3cr4 (voir (27)) :
Une fois de plus nous retrouvons une dependance de la forme \j\fn ; autrement dit.
il est assez difficile d'avoir une tres bonne precision sur les incertitudes dans une
experience : on a besoin de plusieurs dizaines de mesures pour s'approcher de la
precision de 1'ordre de 10%. Nous reviendrons sur la formule (93) dans un paragraphe
special consacre a la precision des incertitudes.
La precision d'une experience Aa? est determinee a partir des donnees experimentales
et possede aussi sa propre incertitude. Sa connaissance est tres importante dans
1'analyse des resultats car elle est liee directement a leurs interpretations en termes
de probabilites. Une erreur d'un facteur 2 dans Ax peut modifier completement les
conclusions.
Dans certaines situations, on peut connaitre de maniere assez exacte la precision sur
1'incertitude Aa?. S'il s'agit d'une incertitude purement statistique nous avons montre
que 1'incertitude relative sur la variance experimentale est d'apres (93)
Ill - EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 81
Soulignons que cette fonction decroit tres lentement avec le nombre de mesures n. Sa
courbe est presentee sur la figure 3.1. Pour 5 — 6 mesures, 6&x est a peu pres egale a
1/3 et il faut effectuer une cinquantaine de mesures pour avoir une incertitude relative
de 1'ordre de 10%.
Figure 3.1 : L'erreur relative sur 1'incertitude S^^ en fonction du nombre de mesures n
3.1.3 DISTRIBUTION x2
Pour etidier les caracteristiques de la variance experimentale (85), trouvons lafonction
de distribution d'une variable aleatoire y liee aux variables aleatoires a?i, # 2 , . . . ,xn
par la fonction
Supposons que les variables xi, x % , . . . ,xn sont distributes selon une loi normale, avec
une moyenne nulle et une variance unite. Pour une seule variable y(x) — x2 le resultat
general a deja ete exprime par (76). Pour la distribution de Gauss cette formule s'ecrit
comrne
Autrement dit, g(y] represente une distribution gamma avec a — —1/2, /? = 2 et a une
fonction generatrice
Pour la somme des n variables independantes (95) nous pouvons utiliser la propriete (21)
et ecrire la fonction generatrice de Xn '•
et sa variance
Dans la limite d'un grand nombre de mesures n —> oo, la distribution x 2 tend, comme
il se doit, vers celle de Gauss. Nous ne demontrons pas ici ce resultat. Notons
simplement que le changement formel de variable y/2 —>• /j et n/2 — I —)• n nous
donne la densite de probabilite pour la distribution de Poisson (36) qui tend vers la
distribution de Gauss lorsque n —>• oo.
Notons que la ressemblance formelle entre ces deux distributions, deja mentionee lors
de la discussion de la distribution gamma, conduit a des relations utiles. Par exemple,
les intervalles de confiance (voir paragraphe 2.3) pour la distribution de Poisson et
pour la distribution x2 sont lies entre eux :
Nous sommes passes d'une distribution a n variables a une nouvelle distribution d'une
seule variable. Une question assez naturelle peut etre posee : oil et quand les autres
variables ont-elles disparu ? Pour mieux voir et comprendre la technique de ce "tour
de passe-passe", prenons un exemple bien connu de la physique statistique : un gaz
de particules sans interaction qui se trouve a 1'equilibre thermodynamique a la tem-
perature T. Chaque composante Vi (i — x, y, z] de la vitesse des particules du gaz a
une distribution maxwellienne :
Nous ne sommes interesses que par 1'energie des particules et ainsi les directions de
la vitesse n'ont aucune importance. Nous pouvons ecrire 1'element de volume dans
1'espace de vitesses dvxdvydvz sous la forme v dvdQv, ou v est le module de la vitesse
et d£lv 1'angle solide dans cet espace. Calculons 1'integrate sur £lv, c'est-a-dire la
somme sur toutes les directions possibles. Apres une telle sommation, dvxdvydvz se
transforme en 47rv2dv. Le dernier pas concerne le passage de la vitesse a 1'energie :
v = ^/2E/m et dv = dE/VZmE.
On en deduit la distribution de probabilite en energie. La probabilite de trouver la
particule avec une energie dans 1'intervalle compris entre E et E + dE est egale a :
Nous verrons que cette grandeur est egalement distribute selon %2 mais avec n — 1
degres de liberte ! II est possible de prevoir ce resultat et meme de le comprendre qual-
itativement. Certains arguments qualitatifs ont ete developpes au paragraphe 2.1.1,
lors de la discussion du facteur n — I dans la definition de la variance experimentale.
II faut aussi noter que les n grandeurs z; = Xi — m sont liees par la relation
et qu'ainsi dans la formule (100) nous avons n —1 et non pas n variables independantes.
Le principe d'une demonstration plus rigoureuse est le suivant. Nous voulons passer de
n variables independantes x±, x?,. . . , xn = x a n variables independantes yi, y^,. . . ,yn
= y a I'aide d'une transformation yi = y z '(^i, x-2, • • • , xn) = Hi(%}- Pour cela, on utilisera
la formule (77) introduite a la fin du paragraphe 2.2.2.
Effectuons une transformation lineaire orthogonale
avec
Une rotation dans I'espace euclidien a n dimensions est un exemple d'une telle transfor-
mation. Le Jacobien est alors egal a 1 et, en vertu de (77), la fonction de distribution est
inchangee. La formule (101) nous garantit que la forme de la distribution reste gaussi-
enne :
La condition (101) peut encore s'exprimer a I'aide des coefficients c ? j sous la forme
86 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
et les autres yi avec i > 2 de facon arbitraire. IMeanmoins, les fonctions yi possedent les
proprietes suivantes (rappelons que tous les Xj ont les memes // et cr) :
et
qui ont ete etablies en utilisant I'independance des Xi et la relation (102). Ainsi les
variables t/» sont distributes selon une loi gaussienne avec une moyenne nulle et une
variance a2.
Autrement dit, la grandeur w est distribute selon la loi %2 avec n — l degres de liberte.
Ainsi nous pouvons utiliser les resultats etablis sur la distribution x2 (98—99) et en
deduire immediatement que
resultats que nous avons deja obtenus difTeremment (voir (87) et (93)).
Notons sans demonstration que, dans un cas general, le nombre de degres de liberte
v d'une distribution xl pour la somme de carres du type (104) est egale a
La solution du probleme est relativement simple si nous exprimons cette fonction sous la
forme
La variable y\ a une distribution normale (car tous les x± ont la meme distribution normale)
avec la moyenne nulle (83) et la variance unite (84). La variable y^ est distribute selon
Xn-i comme nous venons de le demontrer (104). Ainsi nous connaissons les distributions
de yi et de y? et nous voulons trouver la distribution du rapport t — yi/^/y^ en utilisant
les regies connues de transformation des distributions.
La densite de probabilite de y\ et y? est egale a :
avec 7/1 qui varie de —oo jusqu'a +00 et y% qui varie de 0 jusqu'a +00. Transformons
d'abord cette densite en faisant le changement de variables
Le module du Jacobien de cette transformation est egal a ^fz^ et, conformement a (77),
la nouvelle densite de probabilite h(z\}zi) est
88 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Pour obtenir la densite de probabilite f(t] nous integrons h(zi,Z2) par rapport a z-2 et
utilisons la relation f(i) — f(zi}\dz\/dt\ :
Le changement de variable
Pour n donne, les fonctions F dans la formule ci-dessus peuvent etre explicitees a
1'aidede (43) et (44).
Cette fonction (107) est relativement simple. Pour n = 2, on retrouve la distribution
de Lorentz. Pour n > 2, la distribution t de Student represente, grosso modo, une
certaine puissance de cette distribution. Vu la discussion du paragraphe 1.3.3, nous
pouvons tout de suite dire que, pour n donne, seuls les moments p^ avec k < n — 1
peuvent etre definis.
On peut aussi calculer facilement la valeur moyenne et la variance de cette distribution
lorsque cette derniere existe :
Le resultat est simple et rapide. Peut-on lui donner credit ? Pourquoi pas ? Quels
sont les justificatifs mathematiques d'un tel resultat ? Nous ne les avons pas. Nous
avons obtenu une idee de la valeur mesuree et 1'interpretation de la derniere formule
ne peut aller au-dela de ce que nous avons fait : la valeur cherchee est la moyenne
entre les valeurs maximale et minimale mesurees et 1'incertitude est la moitie de 1'ecart
correspondant. II est difficile d'interpreter cette analyse en termes de probabilites.
IP niveau d'analyse
Son but est d'obtenir la valeur de la longueur et de 1'incertitude sur cette valeur et,
en outre, de pouvoir les interpreter en termes de probabilites comme nous 1'avons fait
au debut de ce livre (voir le paragraphe 1.2).
Supposons de plus que la distribution de la longueur / est celle de Gauss. Avec cette
hypothese supplementaire, nous pouvons utiliser la distribution de Student etudiee au
debut du paragraphe 3.2. Nous avons vu que si une grandeur physique est distribute
selon une loi normale, alors la valeur
est decrite par la distribution de Student / n _i(t) (107). Dans cette expression, // est
la vraie valeur de la grandeur mesuree (dans notre cas, la longueur /), m la moyenne
estimee a partir des resultats experimentaux (82)
Soulignons une fois de plus que m et sm sont entierement definis par les resultats
experimentaux. La forme de la distribution de Student est relativement proche de celle
de Gauss (elle est la meme dans la limite n —>• oo) et ainsi nous aliens vite comprendre
par analogic avec la distribution de Gauss comment nous pouvons 1'utiliser.
En termes de probabilites, la phrase "t a la distribution de Student" signifie que la
probabilite de trouver la vraie valeur /j de / dans 1'intervalle compris entre m — smt^p
et m + smivp est egale a :
Tableau 3.1 : Les coefficients de Student tv-p correspondant a un nombre v de degres de liberte
et a une probabilite T
Dans les conditions limites d'un grand nombre de mesures, les coefficients de Student
tv-p coincident avec les valeurs donnees par la distribution de Gauss (voir la derniere
ligne du tableau 3.1). Par exemple, pour une probabilite (un niveau de confiance) de
95%, le coefficient ti/ =0 o;7>=o,95 = 1, 96. Quand le nombre de mesures n'est pas eleve,
par exemple n — 3, pour la meme probabilite il faut prendre Al beaucoup plus grand
£t/=2;7>=0,95 = 4, 3.
Desormais, pour un nombre fini n de mesures, notre resultat s'exprimera sous la forme
dont 1'interpretation est un peu plus compliquee que dans le cas de la distribution
de Gauss : nous sommes obliges de donner le nombre de mesures effectuees et la
probabilite choisie pour pouvoir utiliser un coefficient de Student.
Ill - EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 93
et
Pour presenter le resultat final (111), choisissons, par exemple, ime probability de
95%, alors le coefficient de Student ^_ 5 .-p =095 = 2,57 et A/ = 17 mm. Ainsi la
valeur moyenne de la longueur est :
Dans notre exemple, s — A/6 - 6 , 6 mm — 16 mm. C'est la raison pour laquelle nous
avons ecrit "la valeur moyenne de la longueur" et non pas "la longueur" tout court.
Nous voyons que le deuxieme niveau d'analyse est plus rigoureux et plus riche d'infor-
mation que le premier, mais il est aussi notablement plus lourd dans son traitement
et surtout dans son interpretation.
Dans le resultat final, nous avons garde deux chiffres significatifs mais on aurait pu
n'en garder qu'un seul. Montrons comment evaluer 1'incertitude de 1'incertitude.
L 'estimation "theorique" obtenue dans (94) ne depend que du nombre de mesures n,
et conduit pour 1'incertitude relative a
Rappelons que pour obtenir cette estimation, chaque mesure Xi est supposee avoir
une distribution de Gauss.
II est possible d'obtenir une estimation experimental e de cette valeur a partir des
donnees obtenues. Pour cela, on utilise les formules (94) et (93)
94 ANALYSE STATISTIQUE DES DONNEES EXPERIMENTALES
et les valeurs experiment ales de 0(8^) et s^. Pour D(s^), on utilise la formule
generale (92) dans laquelle les moments "theoriques" ^ et ^4 sont remplaces par
leurs valeurs experimentales m^ et 7714 introduites dans (91).
Dans notre exemple,
Cette difference peut servir d'indication sur 1'existence d'un probleme dans les don-
nees. Compte tenu de fait que pour obtenir 1'estimation "theorique" nous n'avons
utilise que 1'hypothese de normalite de la distribution, c'est cette hypothese qui doit
etre verifiee en premier lieu.
En fait, il existe une procedure relativement simple (criteres de Pearson) qui permet de
voir si la distribution a laquelle on a affaire est une gaussienne. Cette procedure est
basee sur la verification des relations precises qui existent entre les moments centraux
differents d'une distribution gaussienne (voir (27)). Dans ce livre, nous ne presentons pas
ces criteres car, dans les experiences simples, ils ne sont pas souvent utilises.
Nous avons compris que la methode d'analyse des donnees experimentales depend
de la rigueur et de la precision du resultat que nous voulons obtenir. Notons que
le premier niveau, bien qu'il ne possede pas de bases mathematiques profondes et
qu'il ne soit fonde que sur notre "bon sens", donne presque toujours des resultats
acceptables. La plupart du temps, il donne tout a fait correctement la valeur de la
grandeur physique (a a pres).
Par centre, 1'incertitude estimee dans cette methode peut etre assez differente de
1'incertitude exacte par un facteur deux-trois ou meme plus (dans notre exemple,
nous avons obtenu une estimation de 21 mm au lieu de s = 16 mm ; nous verrons
d'autres exemples ou cette difference est encore plus grande). Le premier niveau
d'analyse des donnees est utile, surtout si Ton tient compte de la facilite avec laquelle
les resultats sont obtenus.
On peut dire que le deuxieme niveau est un niveau fondamental. II donne les resultats
avec une interpretation precise, y compris pour 1'analyse posterieure plus sophistiquee.
Cette etape est indispensable lors d'une experience effectuee en travaux pratiques.
Le troisieme niveau est presque obligatoire si nous effectuons une veritable experience
de physique en laboratoire. II touche des aspects un peu differents de la statistique :
il essaie d'analyser la validite des hypotheses qui forment notre theorie. Dans notre
exemple, nous avons tente de verifier 1'hypothese sur la forme de la distribution pour
la longueur. Jusqu'ici nous n'avons pas considere ce type de problemes en statistique.
Ces problemes sont importants surtout pour une experience reelle de physique, mais
ils necessitent des resultats statistiques beaucoup plus fournis que ceux que nous
pouvons obtenir lors de travaux pratiques classiques.
96 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Un autre probleme apparait lorsque Ton veut comparer des resultats experimentaux.
Avant de discuter le cas de deux grandeurs decrites par la distribution de Student,
commenc.ons par celui de deux grandeurs decrites par une distribution gaussienne.
A partir de deux resultats, x\ ± A#i et £2 i A#2, il faut introduire leur difference
X = x\ — xi qui a egalement une distribution gaussienne avec une moyenne nulle et
une variance AX2 = Ax± + Ax%. Si la valeur de X est compatible avec 0, compte
tenu de son incertitude, alors les deux resultats sont compatibles.
Par exemple, on veut savoir si la temperature dans une piece varie dans le temps.
On a effectue deux mesures a une heure d'intervalle et on a obtenu deux valeurs
TI = 25, 2 ± 0, 2 °C et T2 = 24, 5 ± 0, 2 °C. La difference T = TI - T2 = 0, 7 °C doit
etre comparee avec 0. On voit que cette valeur depasse la? (avec UT = 0, 3 °C) et
1'on peut raisonnablement conclure que la temperature a effectivement varie.
Etudions maintenant un exemple de deux grandeurs decrites par la distribution de
Student.
Supposons qu'un collegue ait mesure la longueur de la meme plaque metallique et
qu'il ait obtenu la valeur
avec la meme probabilite P = 95% mais pour n = 10 mesures. Rappelons que notre
resultat, pour n = 6 mesures, est
Ces deux valeurs sont legerement differentes et nous voulons savoir si elles sont com-
patibles. Si oui, pouvons-nous les regrouper d'une certaine fagon pour augmenter la
statistique et ainsi ameliorer la precision ?
Nous desirons savoir quelle est la probabilite pour que la valeur absolue de la difference
\mx — my | soit superieure ou inferieure a une valeur donnee. Le probleme est a nouveau
1'absence d'information sur les veritables valeurs de fi et de <r 2 . II peut etre contourne
en utilisant le fait que la variable
ou
et
qui ont les distributions Xnx-i avec nx — 1 degres de liberte et %2 _1 avec ny — I degres
de liberte respectivement (voir (104)). Leurs fonctions generatrices des moments sont
98 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
est egale a
ou nous avons utilise la propriete (21). Autrement dit, cette somme a la distribution
Xnx+n -2 avec v —nx +ny — 2 degres de liberte (nous avons nx + ny mesures avec deux
relations lineaires qui fixent mx et my ; voir la remarque (105)). Ensuite nous retrouvons
la demonstration du paragraphe 3.2.
Nous sommes maintenant en mesure de repondre a notre question puisque nous avons
etabli une relation univoque (109) entre la valeur de t et la probability T.
Dans notre exemple, mx = 4355 mm, my = 4350 mm, nx = 10, ny = 6. Pour
connaitre s2 nous devons calculer les sommes (112). Dans notre experience
nous avons
Done,
Dans le tableau 3.1, nous voyons que la probabilite qui correspond au coefficient de
Student t c± 0, 55 pour v = 14 degres de liberte est P ~ 0, 4.
Ill - EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 99
Nous avons montre comment il est possible de comparer les moyennes de deux experiences.
II existe une methode analogue pour comparer les variances experimentales, designee par
le critere J7 de Fisher, qui donne la probabilite pour que le rapport s^/s y soit different
de 1. Pour cela, il faut introduire une distribution speciale de ce rapport que Ton peut
obtenir a partir des distributions connues de s^ et Sy et en utilisant des regies generales
formulees au paragraphic 2.2.2. Dans ce livre, nous ne presentons pas ce critere car
cette distribution est relativement complexe et son utilite pratique bien moindre que la
distribution de Student : si deux echantillons sont vraiment incompatibles, cela apparaft
surtout sur les moyennes et dans une moindre mesure sur les variances.
Nous obtenons assez facilement la formula exprimant la moyenne pour les deux series
de mesures
II est utile de reecrire cette formule autrement. Rappelons les relations entre les
variances experimentales s2 de la grandeur et celles de ses valeurs moyennes slm
(voir eqs. (88) et (110))
et obtenir 1'expression
II est logique, compte tenu du fait que les mesures du collegue etaient plus precises,
que mx+y soit plus proche de sa valeur mx.
Les formules (115) et (116) peuvent etre generalisees facilement pour un nombre
arbitraire n d'experiences :
II est vrai que cette fagon de calculer la moyenne sur plusieurs experiences n'est pas
toujours mathematiquement irreprochable mais elle donne la possibilite d'avancer et
de reunir les connaissances obtenues dans des experiences parfois tres differentes.
S'il a ete possible de verifier auparavant que ces series de mesures sont compatibles
(compatibility des moyennes et des variances), 1'erreur introduite par cette procedure
est tres faible. Meme 1'hypothese d'egalite des coefficients de Student pour un grand
nombre de mesures n'est pas mauvaise. Dans le tableau 3.1, on voit que le coefficient
de Student varie peu avec v. Par exemple pour "P = 0,95, t change seulement de
10% quand v passe de 10 a 30. De plus, cette variation est une correction dans
1'incertitude, autrement dit, c'est une correction de deuxieme ordre.
C'est la raison pour laquelle cette approche est tres utilisee en physique quand on veut
profiter de resultats d'experiences differentes (parfois assez couteuses) pour obtenir la
valeur "universelle" de telle ou telle constante physique fondamentale.
L'incertitude naturelle d'une grandeur physique n'est pas la seule possible. Une autre
source importante d'incertitude est 1'appareil de mesure. Par 1'appareil, nous sous-
entendons non seulement 1'appareillage utilise pour faire une experience mais, plus
generalement, la methode de mesure choisie.
Nous voulons savoir quelle est Pinfluence de 1'appareil sur la valeur physique ou, en
d'autres termes, comment il modifie la fonction de distribution initiale. Nous verrons
qu'il y a d'abord une modification "triviale" de cette distribution : celle-ci s'elargit, ce
qui signifie que les erreurs d'appareil s'ajoutent aux erreurs naturelles de la grandeur
physique.
Cependant, une autre modification de la fonction de distribution est aussi possible.
L'appareil peut decaler la valeur moyenne, done 1'appareil mesure une valeur systema-
tiquement plus grande (ou plus petite) que la valeur "reelle". Ces erreurs s'appellent les
erreurs systematiques. Elles ne sont pas forcement de nature aleatoire et ne pourront
pas etre traitees directement a 1'aide des techniques qui ont ete presentees jusqu'ici.
L'analyse de ce type d'erreurs, qui est plus complexe, fait Pobjet de ce paragraphe.
102 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
/Ax\2_/Am\2 (Ak\2
(—) - (-^-J + (-T) •
La particularity de cette formule vient du fait que 1'incertitude de mesure com-
prend deux contributions, 1'une issue de 1'incertitude naturelle Am et 1'autre issue
de 1'appareil de mesure Ak.
Une expression analogue peut etre obtenue dans un cas plus general. La probabilite
de trouver une valeur physique x, caracterisee par sa fonction de distribution f ( x ) ,
dans 1'intervalle [ x , x + dx] est egale a f ( x ) d x . Cependant, la probabilite pour que
1'appareil donne cette valeur dans un autre intervalle [x',x' + dx'} n'est pas nulle.
Designons cette probabilite par S(x, x'}dx'.
Pour determiner la probabilite (F(x')dx'] de detection par 1'appareil de la valeur
physique dans 1'intervalle [x', x' + dx'], on doit multiplier la probabilite (f(x}dx] pour
que cette valeur se trouve dans [x, x + dx], par la probabilite (S(x, x')dx') pour que
1'appareil donne la valeur dans [x', x' + dx'] et calculer la somme (ou 1'integrate) pour
toutes les valeurs x possibles :
soit
On peut dire qu'au lieu de la vraie fonction de distribution f ( x ) , 1'appareil nous donne
une fonction de distribution modifiee F ( x ) .
La fonction S ( x , x ' ) s'appelle la fonction de resolution (la terminologie vient de
1'optique). Quelle est la forme de cette fonction ? La reponse a cette question est
difficile. La plupart du temps, la fonction de resolution S(x,x') ne depend que du
module de la difference x — x' :
Ill - EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 103
Cette propriete signifie que 1'appareil n'introduit pas d'erreur systematique, c'est-a-
dire qu'il ne modifie pas la valeur moyenne de la distribution.
et du fait que S(\t\) est une fonction paire. II n'y a pas d'erreur systematique :
Dans les memes conditions, nous pouvons montrer facilement que I'appareil ne peut
qu'elargir la distribution initiale. La variance de la distribution F(x] est
D'ou
Comme pour les fonctions de distribution, on peut affirmer que si les conditions du
theoreme central limite sont satisfaites (c'est-a-dire s'il y a plusieurs facteurs inde-
pendants qui agissent sur la fonction de resolution et si 1'influence de chacun de ces
facteurs est petite), cette fonction a la forme de Gauss :
104 ANALYSE STATISTIQUE DES DONNEES EXPERIMENTALES
avec une variance <r|. Cette fonction ne depend que de \x — x'\ et la moyenne de
F(x) coincide avec la moyenne de f ( x ) . En resume, dans les conditions du theoreme
central limite, il n'y a pas d'erreur systematique et 1'appareil ne change pas la valeur
moyenne.
Nous ne considererons que le cas ou la fonction de resolution S(x — x'} et la fonction
de distribution f(x) sont decrites par des fonctions de Gauss. Soient <r| la variance de
S(x-x'), n et d1, la moyenne et la variance de f ( x ) . On peut alors calculer I'integrale
(119) et obtenir la fonction de distribution F ( x ) , donnee par 1'appareil, qui a aussi
une forme gaussienne :
Ce calcul permet de verifier que la variance ffp de la fonction F(x) est egale a la
somme des variances 0-| et crj :
Dans une experience reelle deux situations extremes peuvent etre rencontrees. Celle
ou la variance de 1'appareil est negligeable devant la largeur naturelle (<j| <C <r?) et
1'appareil ne change rien ; celle ou la variance d'appareil est plus importante que la
variance initiale (<r| ^> <r?) et on peut alors prendre 1'incertitude de 1'appareil comme
1'incertitude de 1'experience.
En general, la determination de la fonction de resolution n'est pas aisee. Pour les
appareils simples utilises en travaux pratiques, la connaissance precise de la fonction
S(x, x') n'est pas indispensable. On peut se limiter a la calibration de 1'appareil avec
une fonction f(x] bien defrnie. Dans 1'exemple d'un pese-personne, on doit peser des
poids connus (les etalons) et reperer les indications correspondantes. Ainsi on obtient
Ill — EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 105
une echelle de 1'appareil utilisable pour la mesure de poids inconnus. Les fonctions
obtenues de cette maniere se presentent souvent sous la forme d'une courbe ou d'une
table d'etalonnage.
Pour un appareil digital, 1'incertitude de mesure est indiquee dans la description.
Pour un appareil a aiguille, la precision est caracterisee par la classe de 1'appareil qui
est toujours marquee sur son cadran au-dessus du symbole de position de 1'appareil.
L'incertitude de 1'appareil est egale au produit de sa classe par la pleine echelle utilisee
pour la mesure, divise par 100 :
classe • pleine echelle
incertitude — .
100
Pour diminuer 1'incertitude de mesure, il faut done toujours travailler avec les echelles
les plus sensibles possibles (les echelles qui donnent la deviation maximale acceptable).
Dans la plupart des cas, on travaille avec des appareils de classe 0,5 ; 1,0 ; 1,5 ou 2,5.
Pour les experiences plus sophistiquees, cette procedure simple n'est plus suffisante.
L'experimentateur doit faire une etude approfondie du nouvel appareil pour avoir le
maximum d'informations sur la fonction de resolution S ( x ' , x ) : verifier si elle ne
depend que de \x — x' ou, sinon, etablir la forme de cette fonction, etc.
Si les appareils choisis sont de bonne qualite, pour un assez grand domaine de valeurs
de la resistance Rx, telles que Ry ^> Rx ^ RA, on a Rexp — Rexp — RX- Neanmoins,
106 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
Figure 3.6 : Premier schema possible pour mesurer la valeur d'une resistance
la premiere methode donne toujours des valeurs systematiquement plus petites que la
vraie valeur de Rx, tandis que la deuxieme donne des valeurs systematiquement plus
grandes. Dans les deux cas, on a une erreur systematique plus ou moins importante
en fonction des relations entre Ry, RA e^ RX •
(II)
Figure 3.7 : Deuxieme schema possible pour mesurer la valeur d'une resistance
On peut done dire que la premiere methode est preferable pour mesurer des petites
resistances tandis que la deuxieme est plus adaptee aux grandes resistances. Cepen-
dant les deux methodes donnent une erreur systematique qu'on ne peut eliminer qu'en
connaissant les valeurs de Ry et RA-
Proposons une troisieme fagon de mesurer la resistance. Pour cela, nous avons besoin
d'une resistance variable dont nous pouvons etablir la valeur Rv, de deux resistances
identiques R et d'un appareil de mesure (d'un amperemetre ou d'un voltmetre, au
choix). Le schema de branchement est presente sur la figure 3.8.
Si Rx est egale a Rv, alors le courant Ia qui passe par 1'amperemetre (ou le voltmetre)
est nul. On peut le voir a partir de 1'expression de Ia :
Figure 3.8 : Troisieme schema possible pour mesurer la valeur d'une resistance
L'expression (121) peut etre obtenue de la facon suivante. Nous introduisons les courants
Iv, 1%, h, 1-2 (figure 3.8) et ecrivons le systeme de 5 equations
Erreurs d'experimentateur
Finalement les erreurs de 1'experimentateur constituent le troisieme type d'erreurs
systematiques. Par exemple certaines personnes evitent tel ou tel chiffre lors des
estimations de fractions de divisions d'echelle d'un appareil. Ou encore, quand on
modifie les parametres d'une experience, le systeme a besoin d'un certain temps pour
se mettre en equilibre et les indications des appareils peuvent etre instables pendant
quelques secondes. II ne faut pas se precipiter pour faire les mesures. Lors des mesures
d'un intervalle de temps, une erreur systematique peut etre introduite par le fait que
des personnes differentes ont des vitesses de reaction differentes.
Ill - EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 109
Une erreur presque inevitable intervient lors de la lecture des indications des appareils
a aiguille : il existe toujours une certaine distance entre 1'aiguille et 1'echelle et le
resultat lu depend de 1'angle de vision. De plus, si 1'aiguille se trouve entre deux
divisions d'echelle, il y aura une erreur liee au choix de la valeur retenue.
Toutes ces erreurs sont presque inevitables. II faut savoir les estimer en sachant bien
que ces estimations sont personnelles, subjectives, de la responsabilite de 1'experimen-
tateur.
Symetrie apparente
resistance inconnue Rx dans lequel nous utilisons deux resistances supposees iden-
tiques R. II faut s'en assurer experimentalement en permutant ces resistances lorsque
le courant qui passe par 1'amperemetre est nul. Si, avec les resistances interchangees,
le courant devient different du zero, il faut soit remplacer les resistances soit aug-
menter 1'incertitude de mesure. En travaux pratiques, on utilise frequemment des
appareils polyvalents qui peuvent mesurer le courant, la tension ou meme la resis-
tance. Si 1'on utilise deux appareils de ce type dans la meme experience, on peut les
interchanger et verifier la stabilite du resultat.
Quand on mesure la difference de deux temperatures avec deux thermometres dif-
ferents il faut aussi les interchanger. Si le resultat n'est pas le meme on doit prendre la
demi-somme des deux mesures comme valeur experimentale. Si 1'un des thermometres
(ou les deux) est affecte par une erreur systematique, cette procedure permettra de
s'en affranchir.
Experience preliminaire
Une experience scientifique est toujours precedee d'une manipulation preliminaire.
Son but est multiple. L'experimentateur "apprend" la manipulation, s'entrame a
effectuer les operations qui seront les plus frequentes, verifie le fonctionnement des
divers elements. Dans cette manipulation, on essaie d'obtenir une idee sur 1'intervalle
des valeurs de chaque grandeur physique ainsi que sur leurs incertitudes. Cette mani-
pulation preliminaire permet de determiner la strategic future pour toute 1'experience.
Meme en travaux pratiques il faut essayer d'effectuer une experience preliminaire, bien
que le temps soit tres limite. II faut, au moins, prendre connaissance de 1'appareillage
et surtout de ses composantes qui n'ont pas ete etudiees auparavant. Si, pendant
1'experience, il faut changer d'echelle et si on ne sait pas effectuer cette operation, on
risque non seulement de perdre du temps mais aussi de perdre une partie des donnees.
nous pouvons prendre un pas plus petit, 1 A. Dans notre systeme, il n'y a pas de
dependance rapide en fonction du parametre et il vaut mieux choisir des points de
mesures distribues de maniere uniforme sur tout intervalle de variation du courant.
Cependant, il ne faut pas perdre de temps en fixant les valeurs de / exactement a
1 A ou 2 A. Si nous mesurons la puissance pour I — 1, 95 A au lieu de / = 2, 00 A,
la precision sur les parametres sera la meme. Pour accelerer la manipulation nous
pouvons faire les mesures en augment ant progressivement le courant avec un pas de
2 A d e O a l O A . L'avantage est que notre systeme trouvera chaque fois son equilibre
assez rapidement. De plus, nous nous attendons a une dependance reguliere P(I) et
pouvons controler que la puissance varie lentement avec la variation du courant.
Le probleme concernant 1'ordre des mesures apparait quand il existe une source
d'erreurs systematiques (par exemple, si la temperature de la piece monte progressive-
ment pendant 1'experience, elle modifie le parametre PQ). Avec 1'ordre precedent nous
ne trouverons jamais cette source d'erreurs : la fonction P(I} sera toujours reguliere
et continue. Par centre, si nous choisissons un ordre different des mesures : / = 0,
10, 2, 8, 4, 6 A, les points experimentaux "oscilleront" autour d'une courbe continue
et ces oscillations seront plus grandes que les incertitudes des mesures. Un simple
changement de 1'ordre des mesures peut nous aider a detecter une erreur systema-
tique.
G'est a Texperimentateur de decider quel est 1'aspect de la manipulation le plus im-
portant : la rapidite et la simplicite des mesures ou la securite.
Si nous etudions une grandeur dont la dependance en fonction d'une variable est assez
rapide comme, par exemple, la recherche de la frequence propre d'un circuit RLC par
une mesure de la tension en fonction de la frequence, la logique doit etre differente.
La tension aux bornes de la resistance peut etre approchee par la formule
inutile. Autrement dit, nous selectionnons les resultats. Cette procedure est parfaite-
ment correcte a condition que nos criteres de selection soient objectifs et justes. Si,
plus tard, nous decidons que nous nous sommes trompes dans le choix des criteres,
nous devons avoir la possibilite de revoir Fensemble des mesures initiales. La seule
solution a ce probleme est de conserver tous les resultats des mesures.
Par exemple, nous mesurons des differences de temperatures a 1'aide des deux ther-
mometres. Nous devons enregistrer les indications de deux appareils et ensuite calculer
la difference. Si 1'un des appareils fonctionne mal et donne, de temps en temps, une
valeur fausse nous pourrons trouver plus facilement cette erreur si nous avons deux
enregistrements separes. Nous verrons alors les fluctuations dans les indications de ce
thermometre. Si nous ne notons que la difference nous ne saurons jamais lequel des
deux thermometres fonctionne mal.
Ordinateur
L'ordinateur devient de plus en plus present en travaux pratiques. C'est tres bien car
il permet d'accelerer 1'acquisition des donnees d'une fagon spectaculaire. Cependant,
il faut comprendre que 1'ordinateur ne peut pas faire des miracles et la precision d'une
seule mesure faite avec 1'ordinateur n'augmente pas pour autant ! Quand Pecran de
1'ordinateur afflche huit chiffres significatifs, nous devons savoir qu'en realite le nombre
de chiffres significatifs reste le meme que si nous avions fait la mesure nous-memes.
Simplement, 1'appareil qui sert d'interface entre Pappareil de mesure (un voltmetre,
un thermometre, etc.) et 1'ordinateur ne sait pas arrondir correctement le resultat.
Le nombre de chiffres am dies est defini par le nombre de digits d'ordinateur et non
par la veritable precision de 1'experience. Ce phenomene pose un vrai probleme :
1'acquisition automatique des donnees rend difficile la determination de 1'incertitude
de mesure car 1'appareil de mesure est souvent inaccessible. La solution consiste a
repeter 1'experience ou une partie de celle-ci. Nous obtiendrons des resultats differents
et determinerons ainsi 1'incertitude en utilisant 1'approche decrite dans ce livre.
Schemas et tableaux
Les schemas et les tableaux sont des formes tres pratiques pour limiter Pecriture et
eviter ainsi les erreurs inutiles. II ne faut pas que le schema d'une experience soit
trop detaille et qu'il soit proche d'une photographic. II doit contenir le minimum
necessaire d'informations en expliquant Pidee de Pexperience, en donnant une des-
cription de Pappareillage et les notations utiles. On a parfois besoin d'un schema
complet dans lequel 1'echelle est soigneusement respectee. Mais dans la plupart des
situations, 1'echelle est consciemment modifiee. Par exemple, dans le schema presente
sur la figure 4.4, la vraie taille de la resistance inconnue Rx peut etre de quelques
millimetres tandis que la resistance variable Rv represente un appareil d'une dizaine
de centimetres. Dans cette experience, ces resistances jouent le meme role et le dessin
souligne leur "equivalence".
Tous les resultats des mesures doivent etre ecrits de preference, sous la forme d'un
tableau. II vaut mieux noter les valeurs de la meme grandeur physique dans une
colonne, car Poeil compare plus facilement deux chiffres ecrits Pun sous Pautre. La
premiere ligne de chaque colonne doit contenir le nom de la grandeur, son symbole
et ses unites. Si possible, il faut preparer les tableaux avant la manipulation. II
114 ANALYSE STATISTIQUE DES DONNEES EXPERIMENTALES
est toujours utile de reserver quelques colonnes supplementaires. Elles peuvent etre
necessaires pour noter immediatement les incertitudes sur les valeurs (surtout si elles
varient lors de 1'experience) ou, plus tard, les resultats obtenus lors du traitement des
donnees. Par exemple, si nous mesurons la resistance inconnue comme rapport de la
tension a ses bornes au courant qui la traverse, nous devons preparer six colonnes :
pour la tension et son incertitude, pour le courant et son incertitude et pour la re-
sistance et son incertitude. Si, de plus, les echelles de ces appareils ne sont pas des
multiples de 10, il vaut mieux preparer des colonnes supplementaires pour noter les
mesures brutes comme nous Tavons discute auparavant.
Calculs arithmetiques
Lors des calculs arithmetiques, il ne faut pas se precipiter sur la calculatrice. Prenons
un exemple. Nous determinons la valeur de la chaleur specifique C d'un liquide de
masse m contenu dans une boite. Pour cela, nous chauffons ce recipient a 1'aide d'une
petite resistance plongee dans le liquide. Le courant qui passe par la resistance est /, la
tension aux bornes de celle-ci [/, la duree du chauffage r. En premiere approximation,
si nous negligeons les pertes de chaleur (par la surface de la boite ou pour chauffer la
resistance elle-meme, etc.) la chaleur specifique est donnee par :
ou AT est la difference des temperatures apres et avant le chauffage. Soient les valeurs
experimentales : m = 17, 6 g, U = 10, 7 V, / = 42 mA, r = 23, 7 s, AT = 0, 36 K.
L'ordre de calculs doit etre le suivant. Dans 1'expression initiale
nous reecrivons toutes les valeurs dans le meme systeme d'unites (par exemple, SI) :
nous faisons les operations arithmetiques a 1'aide d'une calculatrice et nous transfor-
mons les unites :
ou nous avons separe les chiffres significatifs et les ordres de grandeur : si la valeur de
x • 10n est plus grande que 5 • 10n nous 1'ecrivons cornrne 0, x • 10n+1, sinon nous ne
changeons rien. L'avantage d'une telle representation est que nous voyons immedia-
tement 1'ordre de grandeur : 103. La valeur de la premiere fraction, dans la plupart
des situations, sera alors de 1'ordre de 1 (de 0,1 a 10).
Deuxiemement, dans le resultat intermediaire nous gardens, pour 1'instant, trois
chiffres significatifs 1,68, bien que les valeurs de AT et de / n'en contiennent que deux.
Nous le faisons volontairement pour eviter les erreurs supplementaires d'arrondi. Dans
le resultat final, apres avoir calcule 1'incertitude sur C, nous ne laisserons que le nom-
bre de chiffres significatifs correspondant a cette incertitude (peut etre un seul).
Troisiemement, dans la derniere expression, nous avons choisi les unites kJ/kg-K et
non pas J/kg-K, car nous connaissons la chaleur specifique de 1'eau 4,18 kJ/kg-K et
cette valeur nous est tres familiere. Meme si le liquide dans le recipient n'est pas de
1'eau, il faut toujours avoir les reperes physiques qui peuvent servir comme moyens
de controle de la validite de notre resultat.
ou Ax s tat est une erreur statistique et Axi et Aa?2 sont des erreurs systematiques
introduites par des raisons differentes. Formellement, ces erreurs n'obeissent pas aux
memes lois que les incertitudes statistiques. En particulier, la formule de propagation
des erreurs (55) ne peut pas etre appliquee aux erreurs systematiques. On peut le
voir dans un exemple tres simple. A 1'aide d'un voltmetre nous avons mesure deux
tensions V\ = 7, 5 V et V-2 = 6, 3 V. Les incertitudes statistiques sont respectivement
AVi = 0,4 V et AV? = 0, 3 V. II existe aussi une erreur dans la position du zero du
voltmetre que nous estimons a AVb = 0,1 V. Ainsi, nous pouvons ecrire
Les erreurs systematiques sur la position du zero s'ajoutent dans ce cas. En principe,
on peut utiliser la formule de propagation d'erreurs a condition d'introduire les cor-
relations entre les erreurs. Dans notre cas, le module du coefficient de correlation est
egal a 1. Nous conseillons au lecteur interesse d'obtenir la formule correspondante.
L'ecriture d'un resultat sous la forme (122) est la seule acceptable. Neanmoins, le
travail avec une telle expression devient complique. C'est pourquoi on introduit aussi
une incertitude totale de 1'experience qui reunit toutes les sources d'incertitudes :
Cette expression n'est pas mathematiquement irreprochable mais elle est tres pra-
tique, par exemple dans la comparaison rapide de deux resultats experimentaux.
Cette formule nous aide a comprendre, par exemple, quelle incertitude il faut choisir,
celle de 1'appareil ou celle de la lecture, quand nous effectuons des mesures avec les
appareils a aiguille. Supposons que notre appareil de mesure soit un amperemetre de la
classe 4 avec une pleine echelle de 5 A et que cette echelle possede 100 divisions. Ainsi
1'erreur d'appareil est egale a Aar app = 0, 2 A. Nous estimons que notre incertitude de
lecture est egale a la moitie de la division d'echelle : Aa?iect = 0, 025 A. L'incertitude
de mesure est alors
Ill - EXPERIENCES AVEC UN NOMBRE LIMITE DE MESURES 117
Ces deux examples ne sont pas ties realistes : ils servent surtout a illustrer la procedure
a appliquer pour estimer les incertitudes. En pratique, tous les appareils ont une
echelle telle que 1'incertitude de lecture soit compatible avec celle de 1'appareil :
Autrement dit, notre amperemetre devrait etre de la classe 1 ou 0,5. Dans ces con-
ditions, on peut dire que 1'incertitude de mesure est approximativement egale a la
division d'echelle. Cette estimation est utilisee quand on ne dispose pas d'information
sur la classe de 1'appareil. Par exemple, pour les appareils avec Paffichage numerique,
1'incertitude peut etre estimee grossierement a 1 dans le dernier digit (a condition,
bien evidemment, que les indications de 1'appareil aient ete stables tout le long de la
mesure).
Cette page est laissée intentionnellement en blanc.
CHAPITRE 4
AJUSTEMENT DES PARAMETRES
On rencontre des nombreuses situations dans lesquels on des parametres sont deter-
mines a partir des donnees experimentales. Par exemple, on a une fonction qui depend
d'un parametre et on veut trouver la valeur de ce dernier pour que cette fonction repro-
duit bien les donnees. Habituellement, on cherche la meilleure valeur du parametre,
son incertitude et une maniere d'evaluer la qualite de la description des donnees
par la fonction choisie. Cette procedure est appelee ajustement des parametres.
Avant d'evoquer des approches concretes d'ajustement, defmissons quelques propretes
generales des parametres deduits des donnees experimentale.
En principe, differentes expressions peuvent etre proposees pour definir la valeur d'un
parametre a partir des donnees experimentales. Par exemple, si Ton fait une serie de
TV mesures d'une grandeur1 X pour laquelle on obtient les resultats xi,x^, • • • ,XN,
on peut proposer comme valeur de X la moyenne de tous les resultats
Ici, on parle d'une grandeur X pour utiliser les exemples deja abordes dans ce livre, mais on
aurait pu egalement parler d'un parametre X.
120 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
dans laquelle les difFerents resultats sont ponderes par des poids inconnus pi. Choisis-
sons ces poids en imposant comme condition Pefficacite de 1'estimation. Autrement
dit, on cherche a ce que la variance de X soit minimale.
Avant de calculer la variance de X, on impose que X ait la meme moyenne fi que les
{*.'} :
Pour que &'x(piip2, • • -PN-i) soit minimale, il faut que les derivees partielles corres-
pondantes soient nulles :
IV — AJUSTEMENT DBS PARAMETRES 121
soit
Finalement, on trouve les poids pi qui sont inversement proportionnels aux variances
~2 .
On voit que ces caracteristiques (estimation biaisee, emcacite) sont tres importantes
pour pour optimiser le choix des parametres.
Nous allons exposer maintenant deux methodes les plus frequemment utilisees (la
methode des moindres carres et celle du maximum de vraisemblance) pour ajuster
des parametres.
122 ANALYSE STATISTIQUE DES DONNEES EXPERIMENTALES
Nous disposons de n mesures independantes {y^v} = yr P '^2 X p > • • • > ?/nXp d'une gran-
deur physique y pour n valeurs de son argument {%i} — xi,a?2, • • • ,xn. Supposons
que notre fonction y = y(x] depende aussi de k parametres {dj} — ai, 02 ; • • • , ak-
Cette formulation du probleme suppose que les valeurs y,- sont decrites par les variables
aleatoires tandis que les {#;} sont definis d'une fagon deterministe. En pratique, cette
hypothese signifie que les incertitudes Axt- sont negligeables. Ainsi les parametres {ctj}
sont egalement decrits par les variables aleatoires dont nous devons determiner non
seulement les valeurs moyennes mais aussi les variances.
ou les fonctions {fi(x)} sont connues. II peut s'agir de monomes comme fi(x] — xl,
dans ce cas nous cherchons les coefficients de developpement en serie de Taylor ou
de fonctions trigonometriques cosinus et sinus et obtenons un developpement en serie
de Fourier. Ainsi, malgre cette hypothese sur la linearite par rapport aux coefficients
{ctj}, notre probleme reste assez general et particulierement utile pour les applications
physiques.
Pour determiner k parametres, il faut que le nombre de points experimentaux n soit
egal ou superieur a k. Par exemple, pour une droite, nous avons besoin d'au moms
deux points pour definir la pente et la constante a 1'origine. Nous supposons done
que n > k.
Une approche assez generale pour choisir des parametres est donnee par la methode
des moindres carres. Dans cette methode on affirme que les meilleurs parametres {aj}
sont tels qu'ils minimisent la somme des carres :
C'est une sornme sur tous les points experimentaux i = 1, 2 , . . . , n qui reunit ainsi la
totalite de 1'information experimentale. Chaque terrne de la somme est le carre de
la difference entre la valeur mesuree y^xp et la valeur theorique y(a\, 0 2 , . . . , a^', Xi)
calculee pour cette valeur de Xi. Plus proches sont la theorie et 1'experience, plus petite
est la contribution de ce terme. Chaque terme est pondere par un poids conformement
a son erreur <T; (voir le paragraphe 3.2.2). Plus grande est <rz-, moins importante est
la contribution de ce point. De plus, nous supposons que nous connaissons les vraies
variances de chaque point af. En pratique, nous ne pouvons obtenir que les valeurs
experimentales (Ay 2 exp ) 2 .
Le critere utilise (le minimum de la somme des carres) n'est pas le seul critere possible.
Cependant, on peut demontrer un theoreme mathematique (dit de Gauss-Markov)
selon lequel les parametres determines par la methode des moindres carres sont les
plus precis : leur variance sera plus petite que les variances des coefficients obtenues
avec tous autres criteres. Cette affirmation reste vraie quelle que soit la forme de la
distribution de probabilite (autrement dit, il n'est pas necessaire de supposer que les
l^f XP } s°ient distributes selon la loi normale et le critere reste toujours valable). Mal-
gre 1'importance de ce theoreme, nous ne donnons pas ici sa demonstration. Le lecteur
interesse peut la retrouver dans les livres de mathematiques. Notons simplement que
1'idee de la demonstration est proche de celle que nous avons utilisee au debut de ce
chapitre pour retrouver la formule (118). II faut noter que la methode des moindres
carres est souvent utilisee dans des situations ou ses conditions de validite ne sont pas
vraiment remplies (ou si 1'on n'est pas sur qu'elles soient remplies). La raison pour
cela en est simple : on ne dispose pas d'autre methode presentant la meme simplicite
et la meme puissance.
Dans ce livre, nous nous sommes surtout interesses a la demarche et nous allons
montrer maintenant comment appliquer la methode pour obtenir les valeurs des
parametres et leurs incertitudes.
124 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
soit
Dans le cas general, II est plus facile de travailler avec une ecriture matricielle. Pour cela,
introduisons la matrice T de n lignes et de k colonnes :
Nous voulons trouver le vecteur A a partir du vecteur connu 3^ En multipliant (127) par
la matrice (^7T^7)~1, nous obtenons le resultat :
IV - AJUSTEMENT DBS PARAMETRES 125
Les vecteurs A et y sont lies par une transformation lineaire avec un Jacobien J, c'est
pourquoi nous pouvons utiliser la relation (65) pour les variances :
La matrice de covariance D(y] est diagonale car toutes les mesures y"p sont indepen-
dantes. De plus elle est egale a la matrice unitaire vu la normalisation du vecteur y :
Grace aux formules (128) et (130) nous avons trouve les valeurs des parametres {aj} et
leurs incertitudes. Bien que la matrice D(y] soit diagonale, la matrice D(A) ne Test pas
(les parametres {a,j} ne sont pas independants).
De meme
Si toutes les erreurs sont les memes, <TI = &i = . . . = an = a, nous retrouvons nos
formules pour la moyenne (82) et pour la variance (84) :
Fonction lineaire
et
La matrice inverse de (J-^ J-} qui est aussi la matrice de covariance (130) s'ecrit
ou
IV - AJUSTEMENT DBS PARAMETRES 127
Dans le cas general, I'element D(A)i2 est different de 0, ce qui signifie que les deux
parametres a\ et a-i sont correles :
Remarque tres importante. Supposons que toutes les valeurs {yzexp} soient dis-
tribuees selon une loi normale. Les conditions de minimisation (126) ou (128) fixent k
relations entre les {yzexp}. Ainsi, la somme Rmin ou nous avons remplace les {aj} par
leurs valeurs venant de la minimisation (128) a une distribution x2 avec (n — k) degres
de liberte, conformement a la formule (105). Pour les {yjxp} distributes selon une loi
normale, la notation standard de cette somme est x2 : Rmin = Xmin- Rappelons que
la valeur moyenne de Xmin sel°n (98) est
Autrement dit, si tous nos calculs sont corrects et coherents et si toutes nos hypotheses
sont verifiees, nous devons obtenir pour la somme de carres jR^Pn une valeur proche
de (n — k ) .
A cause de cette relation avec la distribution % 2 , la methode de moindre carres est
egalement appelee la methode % 2 .
L'hypothese de la forme gaussienne des distributions y^ donne une autre interpretation
du critere du minimum des carres. La probability dP que les y{ se trouvent dans les
128 ANALYSE STATISTIQUE DBS DONNEES EXPERIMENTALES
ou R est defini par (124). Ainsi le minimum de R(ai,a,2,... , a/j), fonction des
parametres 0 1 , 0 2 , . . . , o&, correspond au maximum de cette probability. On peut
dire que les "meilleures valeurs" de 0 1 , 0 2 , . . . , a^ sont celles qui attribuent la plus
grande probabilite au resultat observe.
Pour une estimation rapide on peut utiliser une procedure presque intuitive. A Poeil
nu, on trace toute la famille des courbes lineaires qui passent par les points experimen-
taux et on choisit les valeurs maximale et minimale de a;. La valeur approximative
et son erreur peuvent etre definies simplement comme :
Dans le tableau 3.2, nous avons explicite tous les resultats intermediaires necessaires
pour calculer 01 et a 2 . L'application directe des formules (133) —(134) nous donne le
resultat final :
Nous gardens deux chifFres significatifs dans 1'incertitude Aa2 afin d'avoir, pour les
grandes valeurs de x, le meme nombre de chifFres significatifs dans a^x et dans 01-
Sa valeur absolue est relativement grande, done ces parametres sont fortement correles.
Nous avons pris conscience de cette correlation lors de notre analyse rapide : pour passer
IV - AJUSTEMENT DBS PARAMETRES 129
xt 1 2 3 4 5 6 7 8 9 1 0 £
vr 5,4 3,8 4,0 4,0 3,5 2,1 2,9 2,0 1,1 1,7
^r 0,6 1,1 0,2 0,5 0,5 0,6 0,6 1,1 0,2 0,4
I?
(A3/rp)2 3 3 225 64 100 100 136 53 2025 625 3334
t/r p 15,0 3,1 100 16 14 5,8 8,1 1,7 27,5 10,6 201,8
(Aj/^ x p P
2/eXP'^i
(Ay^p
15,0 6,3 300 64 70 35 56,4 13,2 247,5 106,3 913,7
J/*hi 5,0 4,5 4,1 3,6 3,2 2,7 2,3 1,8 1,4 0,9
p
(»r -vjph42) 2 0,4 0,4 0,3 0,6 0,4 1,0 1,0 0,0 2,3 4,0 10
(A2/r )
de la droite (1) a la droite (2) il faut changer non seulement la pente a^ mais aussi la
constante a\. Ceci n'est pas toujours le cas. Dans une situation ou I'origine x = 0 se
trouve a peu pres au milieu des points experimentaux, le passage d'une droite extreme a
une autre se fait seulement par la modification de la pente 02- L'erreur sur la constante et
le coefficient de correlation sont petits dans ce cas-la. Ceci peut egalement se voir grace
a la formule (135). Quand tous les {a?;} sont du meme signe, le coefficient de correlation
est grand. Quand I'origine x = 0 se trouve au milieu des points experimentaux, la somme
correspondante est proche de zero.
II suffit de regarder la figure 3.3 pour voir qu'il se trompe. Son hypothese est fausse, mais
comment pouvons-nous le prouver ?
La difference entre nos deux resultats se trouve dans la valeur de la somme Xmin clu ''
faut calculer apres avoir choisi les valeurs des parametres {a z }. Conformement a (136)
et (137), dans notre ajustement de 10 points avec 2 parametres, on obtient Xmin = &
avec une incertitude A.Xmin = 4- La valeur obtenue dans la derniere ligne du tableau 3.2
(Xmm)exp — 10 est en tres bon accord avec cette estimation (les valeurs de y\^ sont
calculees avec les parametres (139)). Par centre, pour I'analyse de notre collegue, on
s'attendrait a obtenir Xmin = ® avec ^Xmin — ^ tandis que la valeur experimental est
(Xmm)eXP - 145 ! Voi|a la contradiction !
Nous pouvons reformuler ces conclusions en termes de probabilite car nous avons deja
etudie la distribution %2 au paragraphe 2.3.2. Dans le tableau 3.3, nous presentons les
valeurs %2 et les probabilites P pour que %2 soit plus grande ou egale a %2 avec un
nombre donne de degres de liberte.
Pour notre collegue, la probabilite de trouver x2 P'US grand que 21,7 pour v — 9 est
inferieure a 1%. La probabilite de trouver x2 proche de 100 est alors negligeable. Ainsi
son hypothese est refutee.
Tableau 3.3 : Les valeurs x^> et les probabilites P pour que \2 > x?,
pour v degres de liberte pour une droite
En conclusion, notons que la comparaison des deux premiers niveaux d'analyse montre
bien deux particularity caracteristiques de ce genre d'evaluation rapide : 1'approche
simple reproduit assez bien les valeurs de 01 et de 0,3, mais les incertitudes sur ces
valeurs peuvent etre tres differentes des valeurs exactes. L'avantage du troisieme
niveau reside en la possibilite de confirmer ou d'infirmer le choix de la dependance
fonctionnelle.
La methode des moindres carres est une approche tres efficace et elle est largement
suffisante pour les experiences faites en travaux pratiques. Neanmoins, il existe des
situations ou on ne peut pas 1'appliquer, par exemple lorsque le nombre d'evenements
est petit et que Ton ne peut pas evaluer correctement les incertitudes, ou quand les
incertitudes sur x ne sont pas negligeables x\,xi,... ,xn. Dans ces situations, on
utilise une autre approche plus generale basee sur la fonction dite de vraisemblance.
En utilisant les fonctions de distribution /(# z ; a) des variables 2 independantes X{, on ecrit
la probabilite de trouver les valeurs de Xi dans les intervalles [#,,£; + dxi]
A partir de cette condition, on trouve la valeur du parametre a. II est parfois plus commode
de minimiser le logarithme de cette fonction que la fonction elle-meme.
On desire, par exemple, trouver la moyenne /j, inconnue d'une fonction de distribution
gaussienne. Supposons que la fonction de distribution est la meme pour tous les Xi (avec
la meme variance inconnue cr2) :
et sa derivee
s'annule pour
2 Pour avoir la meme ecriture qu'au debut du chapitre, la variable aleatoire est representee par la
lettre x.
IV - AJUSTEMENT DES PARAMETRES 133
(dans cette expression, nous avons volontairement omis une constante qui ne depend pas
de p). Alors
soit
Comme nous I'avons deja vu plusieurs fois, pour avoir une estimation correcte (non biaisee)
il faut diviser la somme par TV — 1 et non pas par N (voir, par exemple, (85)).
distribution3 de y"p une gaussienne avec des "moyennes" y th (a;x z ) dependant de un (ou
plusieurs) parametre(s), on a
3 Pour retrouver exactement les meme expressions que dans la methode de x 2 > on
reprend les
notations yj pour les variables aleatoires et x^ pour 1'argument des fonctions.
IV — AJUSTEMENT DES PARAMETRES 135
Cette courbe est a la base de ('analyse des fonctions de vraisemblance dependant d'un
parametre. Le segment de droite reliant les deux branches de la parabole pour InL =
— 1/2, caracterise un intervalle de confiance
correspondant a une probabilite de 68,27 %, pour une distribution gaussienne. D'une facon
analogue, le segment de droite reliant les deux branches de la parabole pour \nL = —2
correspond a un intervalle de confiance de 95,45 %.
On peut demontrer pour une classe assez large de distributions (pas forcement gaus-
siennes) qui ne dependent que d'un seul parametre, qu'il est possible de trouver les inter-
valles de confiance de la meme facon.
Par exemple, dans le cas d'une distribution binomiale abordee dans le paragraphe prece-
dent, on peut tracer le logarithme de la fonction de vraisemblance en fonction de p. Pour
x = 2 et A" = 10, cette fonction
est presentee sur la Figure 4.3 (dans cette expression, on a ajoute une constante pour
que la valeur maximale de InL(p) soit egale a 0). Ce n'est pas une parabole mais elle
lui ressemble quelque peu. D'ailleurs, on peut souvent approximer les fonctions de ce
type par des paraboles au voisinage du maximum (ce qui signifie qu'on peut approcher la
136 ANALYSE STATISTIQUE DES DONNEES EXPERIMENTALES
A partir de cette courbe, nous pouvons facilement trouver tous les intervalles de confiance
desires. Parexemple, pour un intervalle de confiance de 95,45 %, la solution de I'equation
donne [0,036 ; 0,505]. On remarque que cet intervalle n'est pas symetrique par rapport
ap=0,2.
Une autre approche existe pour determiner ("incertitude sur la valeur des parametres dans
la methode du maximum de vraisemblance. Elle est beaucoup plus pratique, surtout
lorsque la fonction de vraisemblance depend de plusieurs parametres. Cette approche
porte le nom d'inegalite de Cramer-Rao-Frechet. Donnons sa demonstration dans le cas
ou la vraisemblance L(a) ne depend que d'un seul parametre a, mais le resultat peut etre
generalise au cas de plusieurs parametres.
Soit a I'estimation du parametre a. Cette estimation est biaisee par une erreur systerna-
tique f3(a), c'est-a-dire que la valeur moyenne de a est egale a 4
4 Pour simplifier la presentation des formule, nous utiliserons 1'ecriture / • • • dX qui signifie une
integrate multiple sur toutes les variables xt.
IV - AJUSTEMENT DBS PARAMETRES 137
En derivant cette relation par rapport a a et utilisant le fait que I'estimation a n'est
fonction que des donnees experimentales {xi}, on obtient
aux fonctions
on trouve
5 Pour demontrer cette inegalite, il suffit de remarquer que 1'integrale f ( X f ( x ) + g(x))2dx est
positive quelque soit la valeur de A. Ainsi 1'equation
n'a pas de racines reelles non nulles. Done, le discriminant doit etre negatif. Cette condition
nous donne I'inegalite recherchee.
138 ANALYSE STATISTIQUE DES DONNEES EXPERIMENTALES
(pour obtenir cette relation, il suffit de calculer la derivee de 1'equation (146) par rapport
a a).
Ainsi I'inegalite (147) prend une autre forme equivalente
Pour que cette inegalite devient une egalite, il faut que, dans I'inegalite de Schwartz, les
fonctions / et g soient les memes a un facteur multiplicatif A pres, c'est-a-dire que
Autrement dit, la vraisemblance doit avoir une forme gaussienne (a comparer avec 1'equation
(144))
Notons que, dans ce cas, la derivee seconde du logarithme de la vraisemblance est une
constante :
soit
done, le logarithme de la vraisemblance prend (a une constante pres qui ne nous interesse
pas) la forme
Ainsi, on obtient
Pour obtenir ce resultat, nous avons utilise I'independance des variables Vi et le fait que,
d'apres (27),
R.J. Barlow, "A Guide to the Use of Statistical Methods in the Physical Sciences",
Jonh Wiley fe Sons, Chichester, New York, Brisbane, Toronto, Singapore, 1989.
L. Lyons, "A practical guide to Data Analysis for Physical Sciences Students", Cam-
bridge University Press, Oxford, 1991 ;
L. Lyons, "Statistics for nuclear and particle physicists", Cambridge University Press,
Oxford, 1986.
B.N. Taylor, Ch.E. Kuyatt, "Guidelines for Evaluating and Expressing the Uncertainty
ofNIST Measurement Results", NIST Technical Note 1297, 1994
(http://physics.nist.gov/cuu/Uncertainty/bibliography.html) ;
"Guide pour ./'expression de 1'incertitude de mesure", BIPM, CEI, FICC, ISO,
OIML, UICPA, UIPPA, ISBN 92-67-20188-3, 1995
(http://www.iso.ch/iso/fr/prods-services/otherpubs/Metrology.html).
Chiffres significatifs 78
Coefficient de correlation 24, 127
Coefficient de Student 91, 97
Comparaison de deux resultats 96
Correlations 23, 57, 125
Covariance (voir aussi matrice de covariance) 29
Probabilite 11
Propagation des erreurs 51, 53
Precision de la variance experimentale 78
Conclusion 141
Bibliographie 143
Index 145