Sie sind auf Seite 1von 31

- MEMENTO DE STATISTIQUES ÉLEMENTAIRES -

Alain Hazotte

partie d'une sculpture de Tony CRAGG - 2001

alain.hazotte@univ-lorraine.fr – octobre 2018 1


Un statisticien est une personne qui peut avoir la tête dans un four et les pieds pris dans la glace et
dire qu'en moyenne il se sent bien. B. Dereca

L’inexactitude des résultats est souvent compensée par la précision des décimales … A. Sauvy

alain.hazotte@univ-lorraine.fr – octobre 2018 2


I. STATISTIQUE EXPLORATOIRE (OU DESCRIPTIVE)

Variable aléatoire et échantillon statistique - Définitions


La statistique expérimentale s’intéresse à des variables aléatoires, c’est à dire des grandeurs qui
sont susceptibles de présenter des valeurs différentes lorsque l’on en fait plusieurs mesures sur des
objets ou à des temps différents. Ces variables aléatoires (VA) seront notées X, Y, Z,…. Elles
peuvent être quantitatives (ex. poids, taille, âge) ou qualitatives (ex. couleur de cheveux, groupe
sanguin, pointure). Dans ce second cas on distinguera les variables ordinales et nominales selon
qu'elles peuvent être hiérarchisées (ex. pointure) ou pas (ex. couleur de cheveux).
L’ensemble des n mesures réalisées sur une même variable aléatoire X est appelé l’échantillon de
mesures. Les différentes valeurs numériques obtenues sont appelées ses réalisations (ou ses
occurrences) et sont notées par la suite x1, x2, x3,…. xi,…., xn. Cet échantillon correspond à un
prélèvement partiel sur l'ensemble des mesures possibles, ensemble que l'on appelle la population
(ou le lot). Cette population peut correspondre à l'ensemble dénombrable des objets sur lesquels
on pourrait faire une mesure (ex. poids des habitants d’un pays) mais aussi à un ensemble
indénombrable de mesures théoriques (ex. mesures de dureté sur une pièce).
La variable aléatoire X peut être discrète ou continue. Une VA discrète ne peut prendre qu'un
nombre fini de valeurs, appelées modalités (ex. OUI ou NON, une des six faces d'un dé, un indice
de taille de grains de I à XII, etc.). Une VA continue peut prendre n'importe quelle valeur à
l'intérieur d'un intervalle [a,b] (ex. taille d'une personne, poids d'une pièce, limite d'élasticité
mesurée en traction, etc.). Lorsque l'on dispose d'un nombre important de mesures d'une VA
continue X, on peut choisir de les regrouper en classes, c'est à dire de diviser l'intervalle [a,b] en
un nombre fini de sous-intervalles et de regrouper et dénombrer toutes les mesures obtenues à
l'intérieur d'une même classe. Ceci revient à transformer la VA continue en une VA discrète,
chaque classe étant une des modalités possibles.
Lorsqu'on dispose d'un nombre important de mesures, il est souvent utile de les représenter sous
la forme d'un histogramme (ou d'un diagramme en bâtons pour une VA discrète). Dans la
représentation la plus courante, l'histogramme ou le diagramme reporte les effectifs ni (nombre de
n
mesures) ou les fréquences f i = i pour chaque modalité ou classe, tel qu'illustré ci-dessous. Dans
n
le cas d’une VA quantitative ou discrète ordinale, on peut également utiliser une représentation en
histogramme cumulé, où les effectifs ou fréquences reportés sont ceux de toutes les
modalités/classes de valeurs inférieures ou égales.
D'autres représentations synthétiques sont disponibles dans des logiciels de représentation de
données, comme par ex. les camemberts. Toutes ces représentations permettent une appréciation
visuelle de la distribution statistique des mesures. Elles sont cependant délicates à utiliser pour
des comparaisons objectives entre différentes séries de mesures. On préfère alors utiliser des
paramètres statistiques, plus synthétiques, dont les définitions sont données au paragraphe
suivant.

alain.hazotte@univ-lorraine.fr – octobre 2018 3


a)
b)

Exemples de diagramme en bâtons tracé pour une variable aléatoire discrète (a) ou d'histogramme en
effectifs pour une variable aléatoire continue (b)

Exemple d'histogramme cumulé en fréquences

Paramètres statistiques de position (ou de tendance centrale)


Ces paramètres renseignent sur la position (le niveau) attendu de la VA X.
Le principal paramètre de position d'une VA X quantitative dont on connait n réalisations à partir
d'un échantillon statistique de mesures est
n

∑x i
la moyenne x n = i =1
; se dit average ou mean en anglais
n
Dans le cas d'une répartition en modalités ou en classes, la moyenne (aussi parfois notée mn(X))
k

∑ n .C j j k
= ∑ f j .C j , où Cj est la valeur attribuée à la
j =1
peut aussi se calculer par la formule x n =
n j =1

modalité ou à la classe j (le plus souvent le milieu de la classe) et k est le nombre de modalités ou
de classes. Les deux formules donnent des valeurs légèrement différentes dans le cas de variables
continues.

D'autres paramètres de position peuvent également être utilisés :


- le Mode (mode en anglais) : dans le cas d'une VA discrète, c'est la modalité la plus souvent
observée ; dans le cas d'une VA continue regroupée en classes, c'est la classe dont l'effectif
est le plus élevé (maximum de l'histogramme de distribution).

alain.hazotte@univ-lorraine.fr – octobre 2018 4


- la Médiane (median en anglais) : valeur centrale de la distribution, c'est à dire celle pour
laquelle on a obtenu autant de mesures inférieures que de mesures supérieures. Dans le cas de
mesures organisées en histogramme, c'est la valeur correspondant à 50% sur l'histogramme
des fréquences cumulées.
Ces deux paramètres ont l'avantage d'être peu sensibles aux valeurs de mesures extrêmes (on dit qu'ils
sont "robustes") ce qui n'est pas le cas de la moyenne. Dans le cas de répartitions par classes, ces
paramètres dépendent cependant du choix du nombre de classes.
Dans le cas d'une distribution parfaitement symétrique, moyenne et médiane sont égales, ainsi que le
mode s’il est unique.

Paramètres statistiques de dispersion


Ces paramètres renseignent sur la dispersion des mesures autour d'une position centrale définie ci-
dessus.
Les paramètres de dispersion les plus utilisés sont la variance et l'écart-type de l'échantillon.

∑ (x )
n
2
i − xn
la variance est donnée par S n = i =1
2
, ; se dit variance en anglais
n
Dans le cas d'une répartition en modalités ou en classes, elle s'écrit :

∑ n (C )
k
2
− xn
( )
j j k
= ∑ f j C j − xn
j =1 2
Sn =
2

n j =1

La racine carrée de la variance S n = S n est appelée écart-type de l’échantillon.


2

; se dit standard deviation en anglais


On montre facilement que :

= −
Cette seconde expression, qui s’énonce « la variance est égale à la moyenne des carrés moins le
carré de la moyenne », est très utilisée en pratique pour des calculs manuels.

D'autres paramètres de dispersion peuvent également être utiles :


- l'étendue E : c'est la différence entre la plus grande valeur mesurée et la plus petite (max-min)
; se dit range en anglais
- les quartiles : notés Q1, Q2, Q3 ou Q25, Q50, Q75 ce sont les valeurs pour lesquelles on a
obtenu, respectivement, 25%, 50% et 75% de mesures inférieures. Q2=Q50 est donc la
médiane ; se disent quartiles en anglais
Les quartiles se déterminent comme la médiane à partir de l’histogramme cumulé
∑ | |
- l'écart moyen absolu : = ; se dit mean absolute deviation en anglais

alain.hazotte@univ-lorraine.fr – octobre 2018 5


Principe de détermination des quartiles d'une
distribution statistique

Paramètres statistiques de forme


Ces paramètres permettent de se faire une idée de la forme de la distribution statistique.
n

∑x
k
i
On définit les moments d'ordre k d'une distribution statistique comme µ k = i =1
et les
n
n

∑(x i − x n )k
moments centrés d'ordre k comme M k = i =1
. La moyenne est bien entendu égale à
n
µ1 et la variance à M2.
On utilise souvent deux paramètres tirés de ces moments centrés pour définir la forme plus ou
moins étalée et plus ou moins dissymétrique des distributions :
M3
- coefficient d'asymétrie γ3 = 3
; se dit skewness en anglais
Sn
M4
- coefficient d'aplatissement γ4 = 4
; se dit kurtosis en anglais
Sn
Dans le cas d'une distribution normale (voir plus loin), γ3=0 (distribution parfaitement symétrique)
et γ4=3.

alain.hazotte@univ-lorraine.fr – octobre 2018 6


Syntaxe des différentes fonctions relatives aux paramètres statistiques sous Excel (en français)

Colonne Valeur
A
Paramètre Fonction Excel
1 10
2 12 mode : MO =MODE(A1:A15) 10,00
3 9 médiane : Me =MEDIANE(A1:A15) 10,00
4 8 moyenne : mn =MOYENNE(A1:A15) 10,40
5 15
6 11 étendue : E =MAX(A1:A15)-MIN(A1:A15) 13,00
7 5 quartile à 25% : Q1 ou Q25 =QUARTILE(A1:A15;1) 8,50
8 10 quartile à 50% : Q2 ou Q50 =QUARTILE(A1:A15;2) 10,00
9 10 quartile à 75% : Q3 ou Q75 =QUARTILE(A1:A15;3) 11,50
10 9 écart moyen absolu : em =ECART.MOYEN(A1:A15) 2,40
11 8 variance : Sn2 =VAR(A1:A15) 10,83
12 7 écart-type : Sn =ECARTYPEP(A1:A15) 3,18
13 14
14 18 coefficient d'asymétrie : γ3 =COEFFICIENT.ASYMETRIE(A1:A15) 0,83
15 10 coefficient d'aplatissement : γ4 =KURTOSIS(A1:A15) 0,93

alain.hazotte@univ-lorraine.fr – octobre 2018 7


II. MODELES STATISTIQUES (THEORIQUES)

Définitions
L’exploitation des résultats statistiques s’appuie sur l’utilisation de modèles statistiques basés sur
des lois de probabilité, fonctions mathématiques qui décrivent la probabilité d’apparition de
chacune des valeurs de la variable aléatoire. Une loi de probabilité est définie différemment selon
qu'elle s'applique à une variable aléatoire discrète ou continue.
Dans le cas d'une variable aléatoire discrète, la loi statistique est connue quand sont connues les
probabilités d'apparition de chacune des modalités possibles :
soit une VA X pouvant présenter k (et seulement k) modalités différentes x1, x2, ... xi, ... xk ; sa
loi de probabilité est connue quand les probabilités p(X=xi), souvent notées p(xi) voire pi, sont
k
connues pour i=1→k ; la relation ∑ p( x ) = 1 exprime que X ne peut pas prendre d'autres
i =1
i

modalités que les k identifiées.

Dans le cas d'une variable aléatoire continue définie dans un intervalle [a,b], on ne peut définir la
probabilité de chacune des valeurs possibles ; on en donne alors la densité de probabilité :
 dx dx 
p(x) est définie dans [a,b], telle que p(X ∈  x − ; x + ) → p( x ).dx quand dx→0,
 2 2
b
On a également ∫ a
p( x )dx = 1 .

on peut aussi définir la loi de probabilité par sa fonction de répartition, F(x), reliée à p(x) par

F ( x ) = p( X ∈ [a; x ]) = ∫ p(u )du


x

Espérance, variance et écart-type d'un modèle statistique


On appelle espérance du modèle statistique suivi par une variable aléatoire X, l’opérateur :
k
E ( X ) = ∑ xi . p( xi ) , dans le cas d'une VA discrète, ou
i =1

b
E ( X ) = ∫ x ⋅ p( x ).dx , dans le cas d'une VA continue
a

et sa variance VAR(X), est définie par :


k
VAR( X ) = E ([ X − E ( X )]2 ) = ∑ (x i - E(X))2 .p(x i ) , dans le cas d'une VA discrète, ou
i =1

b
VAR( X ) == ∫ [ x − E ( X )]2 ⋅ p( x ) ⋅ dx , dans le cas d'une variable continue
a

La racine carrée de la variance est appelée écart-type de la loi statistique. Il est important de noter
que ces paramètres sont distincts des variance et écart-type d'un échantillon définis dans la partie
Statistique Exploratoire. Ce sont des paramètres associés au modèle statistique théorique.

alain.hazotte@univ-lorraine.fr – octobre 2018 8


Fonctions linéaires de variables aléatoires indépendantes
Soient X1 et X2, deux variables aléatoires indépendantes, c’est-à-dire dont la réalisation de l’une
n’influence pas la réalisation de l’autre. Soit Y une fonction linéaire de X1 et X2 telle que :
Y = a1.X1 + a2.X2 + b
On montre que :
E(Y) = a1.E(X1) + a2.E(X2) + b
et que :
VAR(Y) = a12. VAR(X1) + a22. VAR(X2)
Une conséquence importante de ces relations apparaît lorsque Y est la moyenne de n variables
aléatoires Xi de même espérance et de même variance :
n

∑X i
Y= i =1
(ai = 1/n)
n
Dans ce cas, E(Y) = Ε(X) et VAR(Y)=VAR(X)/n
Ces formules sont vraies quelle que soit la loi de probabilité utilisée. Dans la suite, nous allons
définir quelque unes des lois de probabilité les plus utilisées.

Loi binomiale et loi de Poisson


Ces deux lois sont très utilisées en pratique pour représenter le comportement d'une variable
aléatoire discrète.
La loi binomiale s’applique au cas où on extrait un échantillon
de n pièces présentant soit un caractère A (p(A)=p), soit un
caractère B (p(B)=1-p). La variable aléatoire "nombre de pièces Proportions
de caractère A observées dans l’échantillon de taille n » est une
VA discrète présentant n+1 modalités (de 0 à n). On montre que boules noires=p
boules blanches
n −k
p(X=k)=p(k)= C . p .(1 − p ) = 1-p
k k
n

n!
Le terme C nk , qui s'énonce "combinaison de k dans n", est égal à C nk = . On montre que
k!.( n − k )!
E(X)=np et que VAR(X)=np.(1-p).
Cette loi statistique s'applique par exemple au cas du tirage de n pièces dans un lot, pièces dont on
vérifie si elles sont conformes (caractère B) ou non-conformes (caractère A) à un cahier des
charges. Pour avoir le droit d'utiliser cette loi, il faut que les tirages soient indépendants entre eux.
C'est le cas si on remet chaque pièce tirée après l'avoir testée, ou si n est petit devant la taille du
lot. Dans le cas où cette condition ne peut être assurée, on doit utiliser la loi hypergéométrique,
dont les caractéristiques principales sont données dans le tableau en fin de ce chapitre.
Lorsque n est grand (typiquement ≥20) et p petit (typiquement ≤0,1), la loi binomiale peut être
approximée par la loi de Poisson, qui s'énonce :

alain.hazotte@univ-lorraine.fr – octobre 2018 9


λk
p(X=k)=p(k)= e − λ . , avec λ=n.p
k!
Cette loi peut donc s'appliquer au contrôle de pièces quand n est suffisamment grand. Elle a de
nombreux autres domaines d'applications qui ne sont pas traités dans le cours, notamment tout ce
qui concerne les problèmes dits « de file d’attente » (gestion de l’offre en fonction de la demande).
On montre que E(X)=λ et que VAR(X)=λ.

Loi normale et loi normale centrée réduite


Le modèle de variable aléatoire continue de loin le plus utilisé en pratique est la loi normale (ou
loi de Gauss). Définie dans l’intervalle ]-∞,+∞[, sa densité de probabilité s’écrit :
1 ( x −µ )2
1 − ⋅
p( x ) = e 2 σ2

σ 2π
Les deux paramètres qui servent à la définir sont précisément son espérance µ=E(X) et son écart-
type σ = E([X − µ]2 ) . On utilisera la notation X ~ N(µ,σ) pour signifier qu’une variable
aléatoire X suit une loi normale d'espérance µ et d’écart-type σ.
X −µ
La variable aléatoire T = , suit quant à elle une loi normale centrée réduite, dont la densité
σ
de probabilité est
1
1 − 2⋅t 2
p(t ) = e

Son espérance est nulle et son écart-type est égal à 1 :
T ~ N (0,1).
Loi normale centrée réduite
0,4
p(u)
0,35

0,3

0,25
La figure ci-contre présente l’évolution de la densité
de probabilité de la loi normale centrée réduite. On
0,2
utilise le plus souvent sa fonction de répartition dont
0,15 les valeurs sont tabulées.
0,1

0,05
u
0
-4 -3 -2 -1 0 1 2 3 4

Lois dérivées de la loi normale


Les lois suivantes ne permettent pas de décrire le comportement de grandeurs (mesures) réelles.
Elles dérivent toutes de l’hypothèse initiale qu’une variable aléatoire mesurée X suit une loi

alain.hazotte@univ-lorraine.fr – octobre 2018 10


normale, et elles permettront de réaliser certains tests statistiques qui seront décrits dans les
chapitres suivants.
Etant données n variables aléatoires indépendantes et qui suivent une loi normale centrée réduite
T1, T2, …, Tn, la somme de leurs carrés suit une loi particulière, appelée loi du χ 2 (prononcer ‘’ki-
deux’’) à n degrés de liberté.
p(r) loi du Khi-deux
0,25

R ~ χ 2(n)
Khi-2 à 3 ddl
R = T12 + T22 + ….. + Tn2 ⇒ Khi-2 à 5 ddl
Khi-2 à 10 ddl
0,2

0,15
Cette loi, définie dans l’intervalle [0,+∞], présente
une densité de probabilité d’autant plus 0,1
asymétrique que n est petit.
Son espérance est égale à n et sa variance à 2n 0,05

0
0 5 10 15 r 20

Etant données une variable aléatoire T, normale centrée et réduite, et une variable aléatoire R,
indépendante de T, qui suit une loi du χ 2 à n degrés de liberté (n>2), le quotient :
Loi de Student-Fischer T
0,4
p(u) n très grand
Z=
0,35 n=5 R
n=2

0,3 n
0,25 suit une loi appelée loi de Student-Fisher (ou de
0,2 Student) à n degrés de liberté : Z ~ S (n).
0,15
La densité de distribution de cette loi présente une
0,1 allure en cloche plus étalée que celle de la loi
0,05 normale centrée réduite, avec laquelle elle se
u
0
confond lorsque n devient grand (>100)
-4 -3 -2 -1 0 1 2 3 4

Son espérance est nulle et sa variance est égale à n/(n-2).

Etant données deux variables aléatoires R1 et R2 indépendantes et qui suivent chacune une loi du
χ 2 à, respectivement, n1 et n2 degrés de liberté, le quotient :

alain.hazotte@univ-lorraine.fr – octobre 2018 11


p(f) loi de Snedecor
R1 0,7

n Snedecor 4-4
F= 1 0,6 Snedecor 2-6
R2
0,5
n2
0,4
suit une loi appelée loi de Fisher-Snedecor (ou de
Snedecor ou loi F) à n1 et n2 degrés de liberté : 0,3

F ~ F (n1;n2). 0,2

L’allure de cette loi, également asymétrique, est 0,1

représentée ci-contre pour deux jeux de degrés de 0


liberté n1 et n2. 0 1 2 3 4 f 5

Les tableaux ci-après résument les informations concernant les lois présentées ici. Sont ajoutées
des informations sur d’autres lois également utiles en pratique mais qui ne seront pas mises en
œuvre dans la suite de ce cours.

alain.hazotte@univ-lorraine.fr – octobre 2018 12


Principales lois statistiques pour variables aléatoires (VA) discrètes

Loi et paramètres P(X=k) E(X) V(X) Utilisations principales


Loi Uniforme
m +1 Loi pour laquelle chaque modalité a la
discrète à m 1 m2 − 1
p( k ) = ∀k même probabilité de se produire (ex.
modalités m 2 12 jet de dé)
X~ U(m)
Loi de Bernoulli
p(1)=p Tirage aléatoire avec deux modalités
de probabilité p p p.(1-p)
p(0)=1-p (0 ou 1) possibles

n tirages non-exhaustifs d'une VA de


Loi Binomiale Bernoulli ; probabilité d'observer k
p( k ) = Cnk .p k .(1 - p) n - k np np.(1-p) fois l'événement de probabilité p.
X~ B(p;n)
Application au contrôle de défauts
dans un lot.
Loi
Hypergéométriqu C k .C n − k
Idem mais dans le cas d'un tirage
N −n
p( k ) = Np nN − Np np .np.(1 − p) exhaustif (N=taille de la population ;
e CN N −1
n=taille de l'échantillon)
X~ H(n;N;Np)
Limite de la loi binomiale pour n
Loi de Poisson λk grand et λ petit. Contrôle de pièces
p( k ) = .e-λ λ λ
X~ P(λ) k! défectueuses. Problèmes de file
d'attente
1 1− p Loi du nombre de tirages pour faire
Loi Géométrique
p( k ) = p(1 - p) k -1 apparaître un événement de
X~ G(p) p p2 probabilité p
Loi de Pascal n n(1 − p ) Loi du nombre d'essais pour faire
p( k ) = Ckn−−11.p n .(1 - p) k - n apparaître n fois un événement de
X~ Pa(p;n) p p2 probabilité p
...

Syntaxe des quelques fonctions relatives aux modèles statistiques sous Excel (version française)

renvoie la probabilité associée à une valeur k ou x renvoie la valeur associée à une probabilité p

Loi Binomiale =LOI.BINOMIALE(k;n;ω;VRAI ou FAUX)


Loi de Poisson =LOI.POISSON(k;λ;VRAI ou FAUX)

Loi Normale =LOI.NORMALE(x;µ;σ;VRAI ou FAUX) =LOI.NORMALE.INVERSE(p;µ;σ)


Loi Normale Centrée Réduite =LOI.NORMALE.STANDARD(t) =LOI.NORMALE.STANDARD.INVERSE(p)
Loi de Student-Fisher =LOI.STUDENT(z;ddl;1 ou 2) =LOI.STUDENT(p;ddl)
Loi du Khi-Deux =LOI.KHIDEUX(κ;ddl) =KHIDEUX.INVERSE(p;ddl)
Loi de Fisher.Snedecor =LOI.F(f;ddl1;ddl2) =INVERSE.LOI.F(p;ddl1;ddl2)

k=nombre entier VRAI ou FAUX= probabilité cumulée ou non


x, z, κ, f= valeurs continues ddl= degré de liberté
ω=probabilité de défauts (loi binomiale) 1 ou 2 = probabilité à droite ou répartie
λ=moyenne de la loi de Poisson symétriquement

alain.hazotte@univ-lorraine.fr – octobre 2018 13


Principales lois statistiques pour variables aléatoires (VA) continues

Loi et paramètres P(X=x) ou expression E(X) V(X) Utilisations principales


Loi suivie "naturellement" par de très
Loi Normale ou 1 ( x −µ )2
− ⋅
nombreuses VA. A choisir a priori en
1
de Gauss p( x ) = e 2 σ µ σ2
2
présence d'une mesure présentant des
X ~ N(µ;σ) σ 2π dispersions résultant de phénomènes
indépendants et additifs
X −µ
Loi Normale T= Changement de variable pour
σ
Centrée Réduite 1 0 1 résolution de problèmes faisant appel
1 − 2 ⋅t 2

T~ N(0;1) p( t ) = e à la loi normale



Loi de la
moyenne d'une 1 n Problèmes de contrôle faisant appel à
loi normale Xn = ∑ Xi
n i =1
µ σ2/n une prise de moyenne sur un
échantillon de taille n
X ~ N(µ;σ/ n )

=
Loi du Khi-Deux Intervalle de confiance d'une variance
n 2n
κ2(n) + différents autres tests statistiques
Loi de Student- T Intervalles de confiance d'une
Z= n
Fisher R 0 moyenne + différents autres tests
n−2
S(n) n statistiques

Loi de Fisher- R1
n1 n2 2.n22 .( n1 + n2 − 2) Test d'égalité de variances. Tests
Snedecor (Loi F) F=
R2 n2 − 2 n1.( n2 − 2) 2 .( n2 − 4) d'analyse de la variance, etc.
F(n1;n2) n2
Loi asymétrique suivie par quelques
1 (ln x − µ ) 2
Loi Log-Normale 1 − ⋅
(µ +
σ2 phénomènes physiques (ex.
p( x ) = e 2 σ
2
)
X ~ LnN (µ;σ) ( eσ − 1).e (2 µ +σ ) distribution de taille de grains dans les
2
σ . x. 2π e 2 2

matériaux)
Phénomène se produisant avec la
Loi Uniforme sur même probabilité sur un intervalle
1 a a2
[0,a] p( x ) = [0,a]. Utilisé avec deux VA X et Y
a 2 12
X ~ U(a) pour implanter des points au hasard
sur une surface.
Utilisée en fiabilité pour représenter la
durée de vie de systèmes sans
Loi exponentielle 1 1
p( x ) = λ .e − λx vieillissement (ex. système
X ~ E(λ) λ λ2
électronique). 1/λ est le MTBF (mean
time before failure)

alain.hazotte@univ-lorraine.fr – octobre 2018 14


III. STATISTIQUE DECISIONNELLE – CONTROLE D’UNE VARIABLE ALEATOIRE

Estimateurs et intervalles de confiance


Soient n réalisations x1, x2, …, xn d’une variable aléatoire X, supposée suivre une loi statistique
définie par plusieurs paramètres α, β, γ,… : X ~ L(α, β, γ,…)
Toutes combinaisons calculées à partir de ces mesures sont des variables aléatoires. Parmi elles,
Yn(xi) est un estimateur sans biais d’un des paramètres β de la loi si :
E(Yn(xi))=β et VAR(Yn(xi)) tend vers 0 quand n tend vers l’infini
On montre que, quelle que soit le modèle statistique suivi par X :

= est un estimateur sans biais de son espérance E(X)
∑ ( )
= . = est un estimateur sans biais de sa variance VAR(X)

Ceci signifie que, disposant d’un échantillon de n mesures de la variable X, on peut affirmer que
les combinaisons de ces mesures, et
n
⋅ S n , seront d’autant plus proches des valeurs de
2

n −1
l'espérance et de la variance ‘vraies’ de la loi statistique suivie X que n sera grand. Dans la suite
on notera par simplification E(X)=µ et VAR(X)=σ2 , et on écrira que =µ* et que S n2−1 =σ*,
l'astérisque indiquant qu'on a affaire à des estimateurs sans biais.
A condition de connaître (ou d’admettre) le modèle statistique suivi par la variable X, on peut
donner un intervalle de confiance dans lequel le paramètre estimé a ‘de grandes chances’ de se
trouver. La détermination de l’intervalle de confiance nécessite donc d’accepter une loi de
probabilité pour la variable mesurée, ainsi qu’un risque α de se tromper.
L’intervalle de confiance de la moyenne µ d’une variable aléatoire X qui suit une loi normale
N(µ,σ) est défini de deux manières différentes suivant que
- σ est connu ; dans ce cas :
µ= ∓ α. √
σ

p(u) avec tα la valeur lue dans la table de la loi normale


centrée réduite, pour un risque α réparti de façon
symétrique à droite et à gauche. Ce risque est celui
qu’on assume lorsque que l’on affirme que µ se
trouve dans l’intervalle défini par la formule ci-
dessus. On parle d’intervalle de confiance à (1-α)%

-tα
α/2 (ex. à 95%) ou d’intervalle de confiance au risque α
(ex. 5%)
u
-4 -3 -2 -1 0 1 2 3 4

alain.hazotte@univ-lorraine.fr – octobre 2018 15


La valeur du risque α dépend du contexte et des conséquences de la prise de décision. En R&D
et production industrielle, il est souvent pris égal à 5% ou 10%. En économie, on peut aller jusqu’à
une prise de risque de 20% voire 30%, alors que d’autres domaines (ex. détection médicale)
imposent de plus grandes précautions et donc un risque beaucoup plus faible (0,5% voire 0,01%).
σ
Si α=5%, tα= 1,96 ≈ 2, ce qui conduit à la formule très souvent utilisée : µ = m n ± 2 .
n

n
σ n’est pas connu, mais peut être estimé par σ∗ = ⋅ Sn ; dans ce cas :
2
-
n −1
σ∗
µ= ∓ α. √
Cette fois, la valeur de zα est lue dans la table de la loi de Student-Fisher à n-1 degrés de liberté,
en répartissant le risque symétriquement. zα est toujours plus grand que tα. Si n est grand (>100)
zα et tα sont confondus.

L’intervalle de confiance de la variance σ2 d’une variable aléatoire X qui suit une loi normale
N(µ,σ) est donné par :
n ⋅ Sn ( n − 1) ⋅ σ *2 n ⋅ Sn ( n − 1) ⋅ σ *2
2 2
p(r)
= ≤σ ≤
2
=
χ2 χ2 χ1 χ1
avec χ1 et χ2 les valeurs lues dans la table de la loi du χ2 à n-
1 degrés de liberté, pour un risque α réparti symétriquement
à droite et à gauche. L'intervalle de confiance de l'écart-type
α/2 α/2 σ s'obtient bien sûr en prenant la racine carrée des termes de
r l'inégalité ci-dessus.
κ1 κ2
0 5 10 15 20

Tests d’hypothèses
Les outils statistiques sont les mêmes, mais il s’agit cette fois de rejeter ou non la validité d’une
hypothèse, H0, en testant si une variable calculée à partir d’un échantillon de n mesures se trouve
ou non à l’extérieur d’un certain intervalle de confiance.
La moyenne d’une variable aléatoire normale est-elle égale à une valeur donnée µ0 ?
De nouveau, deux cas peuvent se présenter

alain.hazotte@univ-lorraine.fr – octobre 2018 16


- σ est connu :
Si la moyenne ‘vraie’ est bien égale à µ0, il y a une probabilité 1-α que la moyenne d’un
σ
échantillon de n mesures tombe à l’intérieur de l’intervalle µ 0 ± t α , avec tα la valeur lue
n
dans la table de la loi normale centrée réduite, pour un risque α réparti de façon symétrique à
droite et à gauche.
Si la valeur de mesurée expérimentalement est extérieure à cet intervalle (ou si ( -µ0 )
 σ σ 
n’est pas comprise dans l’intervalle − t α ,+ t α  ), ’on est en droit de rejeter
 n n
l’hypothèse µ=µ0, avec un risque α de le faire à tort. On dira aussi que « la moyenne de la
population échantillonnée est significativement différente de celle testée », au risque α de se
tromper.
Si appartient à l’intervalle, rien n’autorise à rejeter l’hypothèse µ=µ0. On pourra donc
l'accepter. On notera par contre que le test ne prouve pas la validité de l’hypothèse.

- σ n’est pas connu :


On utilise le même raisonnement en testant si ( -µ0 ) se trouve ou non dans l’intervalle
 σ* σ*  ∗ n
− z α ,+ z α  , avec σ = ⋅ S n et zα lue dans la table de la loi de Student-Fisher
2

 n n n −1
à n-1 degrés de liberté, pour un risque α réparti de façon symétrique.

La variance d’une variable aléatoire normale est-elle égale à une valeur donnée σ02 ?
n ⋅ Sn (n − 1) ⋅ S n −1
2 2

On teste cette fois si la quantité = se trouve ou non à l’intérieur de l’intervalle


σ 02 σ 02
[χ1 , χ 2 ], avec χ1 et χ2 les valeurs lues dans la table de la loi du χ2 à n-1 degrés de liberté, pour un
risque α réparti symétriquement.

Comparaison de deux populations « normales »


On se pose cette fois la question de savoir si deux variables aléatoires suivant des lois normales
ont même moyenne et/ou même variance ? (en d’autres termes, si les deux populations
échantillonnées, supposées normales, peuvent être considérées comme identiques )
On extrait deux échantillons de tailles n1 et n2 de deux populations différentes X1 et X2 . On calcule
les moyennes et variances respectives, m n1 , S n1 2 et m n 2 , S n 2 2 . La méthode la plus immédiate
consiste à vérifier s’il y a recouvrement entre les intervalles de confiance de µ1 et µ2 et ceux de σ1
et σ2, calculés comme expliqué plus haut.
Une procédure plus efficace consiste à tester d’abord l’égalité des variances théoriques σ12 et σ22,
puis celle des moyennes µ1 et µ2.

alain.hazotte@univ-lorraine.fr – octobre 2018 17


Comparaison des variances :
n 1 ⋅ S n1 2
2
σ1∗ n1 − 1
Si σ12 et σ22 sont égales, le rapport des variances estimées = doit se trouver à
σ ∗2
2
n 2 ⋅ Sn 2 2
n2 −1
l’intérieur de l’intervalle [f1,f2], avec f1 et f2 lus dans la table de Snedecor à n1-1 et n2-1 degrés de
liberté, en répartissant le risque α symétriquement.
2
σ1∗
Si l’inégalité f1< <f2 n’est pas vérifiée, on rejette l’hypothèse σ12 = σ22, en assumant un risque
∗2
σ 2
α de le faire à tort.
Si elle est vérifiée, on peut admettre l’hypothèse σ12 = σ22 = σ2. On dispose alors d’un estimateur
plus précis de σ2 :
2 2
n 1S n1 + n 2 S n 2
σ ∗2 =
n1 + n 2 − 2
Comparaison des moyennes :
Dans le cas où σ12 # σ22, on est réduit à tester si les intervalles de confiances de µ1 et µ2 présentent
un recouvrement ou pas. S’ils présentent un recouvrement, cela signifie qu’il est possible que µ1
soit égal à µ2. On admettra « jusqu’à preuve du contraire » que les deux VA normales ont même
moyenne (mais des écarts-types différents). Si ce n’est pas le cas, on conclura que les deux VA
ont des moyennes et des écart-types différents.
Dans le cas où on a pu conclure à l’étape précédente que σ12 = σ2 = σ2, on calcule le
" ∗ " ∗
quotient Z= . Si l’hypothèse µ1 et µ2 est vérifiée, Z a une probabilité 1-α de se trouver
#∗.$ %

dans l’intervalle [-zα,+zα], avec zα lue dans la table de la loi de Student-Fisher à n1+n2-2 degrés de
liberté, pour un risque α réparti de façon symétrique. Si Z n’appartient pas à cet intervalle, on dit
que « la différence entre les moyennes est significative au risque α ». Sinon, on peut admettre
l’hypothèse d’égalité des moyennes, sans toutefois l’avoir démontrée.
Notons enfin que si les mesures x1i et x2j sont appariées (associées sur un même échantillon), la
comparaison des moyennes se fera grâce à un test encore plus efficace, le test d’appariement
expliqué ci-dessous.

Test d’appariement : Il s'agit d'un test sur la moyenne particulier, qui s’applique lorsque l’on veut
vérifier l’influence d’un facteur donné f sur une variable aléatoire X de grande variabilité : par
exemple, un engrais a-t-il un effet réel sur la production d’une certaine plante, compte tenu de la
variabilité de cette production en fonction du sol, de l’ensoleillement, des cultures antérieures, etc.
de chaque parcelle. Si on teste l’égalité des moyennes de X avec ou sans application de f (Xf et X)
à partir de réalisations xi et xfj indépendantes entre elles (méthode décrite ci-dessus), la variabilité
intrinsèque de X risque de masquer l’effet de f. Par contre, s’il est possible pour un même objet i
de réaliser une mesure avec ou sans effet du facteur f (par exemple diviser chaque parcelle en deux,
n’appliquer l’engrais que sur la moitié et mesurer la production de chaque partie), on disposera
d’un ensemble de réalisations couplées deux à deux (dites ‘appariées’), xi et xfi.

alain.hazotte@univ-lorraine.fr – octobre 2018 18


On peut alors travailler avec la variable aléatoire ‘différence entre mesures appariées’ D=Xf-X ; si
le facteur f n’a pas d’effet, cette VA suivra une loi normale de moyenne 0 et d’écart-type inconnu
σ.
n

∑ (x fi − xi )
 σ∗ σ∗ 
On testera donc si m n (D) = i =1
se trouve ou pas dans l’intervalle − zα ⋅ ,+ zα ⋅ 
n  n n
, avec zα lue dans la table de la loi de Student-Fisher à n-1 degrés de liberté, et σ* l’estimation de
l’écart-type de D.
Si mn (D) est à l’extérieur de l’intervalle, on pourra conclure à l’influence effective du facteur f
sur la variable X. Si on ne veut tester qu’un effet a priori positif, il est possible de reporter tout le
σ∗
risque α ‘à droite’ (du coté de + zα ⋅ ).
n

Raccordement à un modèle statistique – Test du Khi-2


Comparaison modèle-expérience :
Les tests précédents reposent sur le choix a priori d’un modèle statistique, qui est souvent la loi
normale. Il est possible de tester la validité du modèle choisi, à condition de disposer d’un nombre
suffisamment élevé de mesures expérimentales. Le test le plus efficace pour cela est dit test du
Khi-Deux car il fait appel à la loi statistique du même nom. Ce test s'applique quelle que soit la
loi statistique à valider (pas seulement limité à la loi normale)
0,5
N(x) On regroupe les données expérimentales sous forme
d’un histogramme (ou d'un diagramme en bâtons
0,4 pour une VA discrète), qui reporte pour chaque
valeur de classe xi le nombre de mesures
expérimentales appartenant à cette classe, Nex(xi).
0,3 Ne(xi)
On note k le nombre de classes de cet histogramme.
Nm(xi)
0,2
Pour chaque classe xi on peut aussi calculer Nth(xi),
le nombre théorique de mesures que l’on doit
obtenir si la variable étudiée suit exactement le
0,1
modèle statistique à valider (par exemple une loi
x
normale). La valeur de Nth(xi) n’est pas forcément
0 entière.
1 2 3 4 5 6 7 8

Le test consiste à tester l’importance des écarts entre mesures expérimentales et valeurs théoriques,
en travaillant avec le rapport :

R=∑
[N ex ( xi ) − N th ( xi )]2
N th ( xi )

alain.hazotte@univ-lorraine.fr – octobre 2018 19


On montre que si le modèle statistique est le bon, R suit p(r)
une loi du Khi-2 à (k-1) degrés de liberté.
On calcule donc R et on vérifie que la valeur obtenue est
inférieure à une valeur critique χα lue dans la table du Khi-
2 à k-1 degrés de liberté, en reportant cette fois tout le
risque α à droite. α
Si cela n’est pas le cas, on doit rejeter le modèle au risque
α de le faire à tort. Si c’est le cas, on peut accepter le r

κα
0 5 10 15 20
modèle (jusqu’à preuve du contraire …)

Remarques :
- On reporte ici tout le risque α à droite car le choix d’un mauvais modèle théorique ne peut se
traduire que par des écarts importants. Tester un risque à gauche reviendrait à tester si le modèle
n’est pas ‘trop bon’ (i.e. si les résultats expérimentaux n’ont pas été manipulés...)
- Très souvent, le modèle testé dépend d’un ou de plusieurs paramètres inconnus qu’il faut
préalablement estimer à partir des données expérimentales (par exemple moyenne et écart-type
pour la loi normale). Dans ce cas R doit être testé avec une loi du Khi-2 à (k-1-r) degrés de liberté,
r étant le nombre de paramètres estimés du modèle (par ex. r=2 pour la loi normale)
- Pour que le test soit utilisable, il faut que le nombre de mesures soit élevé, mais surtout que les
Nth(xi) ne soient pas trop petits (typiquement de l’ordre de 10 minimum). En cas d’effectifs trop
réduits, on doit procéder à des regroupements de classes. Cela diminue la valeur de k et donc
l’efficacité du test.
- Il est possible que deux (ou plusieurs) lois statistiques différentes puissent être acceptées par ce
test. Dans ce cas, il est courant -et logique- de choisir comme modèle la loi qui conduit à la valeur
de R la plus petite (celle qui "fitte" le mieux les données expérimentales)

Test de la Droite de Henry

Le test de la Droite de Henry est une méthode graphique encore très utilisée dans l'industrie, pour
vérifier qu'une série d'observations est correctement décrite par une loi normale. Si c'est le cas,
elle permet en plus d'obtenir directement une estimation de la moyenne et de l'écart type de la loi.
Le principe consiste à classer les mesures expérimentales (ou les classes de mesure) par ordre
croissant, à calculer pour chacune la fréquence cumulée associée, et à reporter dans un repère
"gausso-arithmétique" la valeur de cette fréquence en fonction de la mesure expérimentale. Si la
loi normale est un bon modèle, les points ainsi reportés s'alignent sur une droite. Le graphique
permet alors de mesurer directement la moyenne (fréquence = 50% ; t=0) et l'écart-type, entre deux
lignes reportées sur l'axe des y.

alain.hazotte@univ-lorraine.fr – octobre 2018 20


Tableau de données Principe du repère"gausso-arithmétique" ; en y
sont reportées les valeurs de t pour une fréquence
cumulée donnée.

Cette méthode est extrêmement rapide et facile à mettre en œuvre. Sa principale limite est que la
décision de savoir si les points s'alignent selon une droite reste subjective. Il existe un test pour vérifier
si une régression linéaire est justifiée, mais on perd dans ce cas l'avantage de la rapidité de la méthode.
Un quadrillage gausso-arithmétique est fourni en fin de ce polycopié.

Comparaison de plusieurs distributions de loi statistique inconnue

Ce test particulier, dérivé de celui du Khi-Deux, est


utilisable lorsque l’on dispose d’histogrammes
expérimentaux (q classes) pour plusieurs (p) échantillons
extraits de populations différentes, et que l’on cherche à
savoir si ces populations peuvent être considérées comme
similaires.

Contrairement au test de comparaison de populations normales, ici on ne fait pas d’hypothèse sur le
modèle statistique suivi par les différentes populations analysées. On se contente de supposer qu’il
est le même pour toutes.
Si on fait l’hypothèse que les p échantillons sont extraits d’un même modèle statistique, on peut
p

∑n
j =1
ji

estimer la proportion théorique de mesures devant tomber dans une classe Ci par ω = *
i p
. Dans
∑n
j =1
.j

ce cas, on montre que la variable R = ∑∑


p k [n
ij − n. jωi* ]
2

suit une loi du Khi-2 à (p-1)(q-1) degrés de


j =1 i =1 n. jωi*
liberté.
Il suffira donc de calculer R et de vérifier si sa valeur est bien inférieure à la valeur critique κα lue
dans la table du Khi-2 à (p-1)(q-1) ddl, pour un risque α reporté à droite. Si tel est le cas, on pourra

alain.hazotte@univ-lorraine.fr – octobre 2018 21


admettre que les échantillons sont extraits de populations identiques (sans cependant prouver qu’elles
le sont).
Dans le cas contraire, on pourra dire que les différents échantillons sont extraits de populations
suivant des lois statistiques différentes (au risque α de se tromper). On pourra par la suite affiner
l’analyse en recherchant si tous les échantillons sont différents ou si seulement un (ou quelques-uns)
d’entre eux s’éloigne(nt) de la distribution moyenne. Pour cela, on effectuera des tests en cherchant
à combiner les distributions similaires pour finalement isoler les populations responsables des
principaux écarts.

alain.hazotte@univ-lorraine.fr – octobre 2018 22


TABLES et DOCUMENTS UTILES

- Table de la Loi de Poisson


- Table de la Loi Normale Centrée Réduite
- Table de la Loi de Student-Fisher
- Table de la Loi du Khi-Deux
- Table de la Loi de Fisher-Snedecor (ou Loi F)

- Quadrillage Gausso-Logarithmique pour test de Henry

alain.hazotte@univ-lorraine.fr – octobre 2018 23


Table de la Loi de Poisson - Probabilités simples p(k,l) et cumulées F(k,l)

λ=0,5 λ=1 λ=1,5 λ=2 λ=2,5 λ=3 λ=3,5 λ=4 λ=4,5 λ=5
0,5 0,5 1 1 1,5 1,5 2 2 2,5 2,5 3 3 3,5 3,5 4 4 4,5 4,5 5 5
alain.hazotte@univ-lorraine.fr – octobre 2018

k p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ)
0 0,60653 0,60653 0,36788 0,36788 0,22313 0,22313 0,13534 0,13534 0,08208 0,08208 0,04979 0,04979 0,03020 0,03020 0,01832 0,01832 0,01111 0,01111 0,00674 0,00674
1 0,30327 0,90980 0,36788 0,73576 0,33470 0,55783 0,27067 0,40601 0,20521 0,28730 0,14936 0,19915 0,10569 0,13589 0,07326 0,09158 0,04999 0,06110 0,03369 0,04043
2 0,07582 0,98561 0,18394 0,91970 0,25102 0,80885 0,27067 0,67668 0,25652 0,54381 0,22404 0,42319 0,18496 0,32085 0,14653 0,23810 0,11248 0,17358 0,08422 0,12465
3 0,01264 0,99825 0,06131 0,98101 0,12551 0,93436 0,18045 0,85712 0,21376 0,75758 0,22404 0,64723 0,21579 0,53663 0,19537 0,43347 0,16872 0,34230 0,14037 0,26503
4 0,00158 0,99983 0,01533 0,99634 0,04707 0,98142 0,09022 0,94735 0,13360 0,89118 0,16803 0,81526 0,18881 0,72544 0,19537 0,62884 0,18981 0,53210 0,17547 0,44049
5 0,00016 0,99999 0,00307 0,99941 0,01412 0,99554 0,03609 0,98344 0,06680 0,95798 0,10082 0,91608 0,13217 0,85761 0,15629 0,78513 0,17083 0,70293 0,17547 0,61596
6 0,00001 1,00000 0,00051 0,99992 0,00353 0,99907 0,01203 0,99547 0,02783 0,98581 0,05041 0,96649 0,07710 0,93471 0,10420 0,88933 0,12812 0,83105 0,14622 0,76218
7 0,00007 0,99999 0,00076 0,99983 0,00344 0,99890 0,00994 0,99575 0,02160 0,98810 0,03855 0,97326 0,05954 0,94887 0,08236 0,91341 0,10444 0,86663
8 0,00001 1,00000 0,00014 0,99997 0,00086 0,99976 0,00311 0,99886 0,00810 0,99620 0,01687 0,99013 0,02977 0,97864 0,04633 0,95974 0,06528 0,93191
9 0,00002 1,00000 0,00019 0,99995 0,00086 0,99972 0,00270 0,99890 0,00656 0,99669 0,01323 0,99187 0,02316 0,98291 0,03627 0,96817
10 0,00004 0,99999 0,00022 0,99994 0,00081 0,99971 0,00230 0,99898 0,00529 0,99716 0,01042 0,99333 0,01813 0,98630
11 0,00001 1,00000 0,00005 0,99999 0,00022 0,99993 0,00073 0,99971 0,00192 0,99908 0,00426 0,99760 0,00824 0,99455
12 0,00001 1,00000 0,00006 0,99998 0,00021 0,99992 0,00064 0,99973 0,00160 0,99919 0,00343 0,99798
13 0,00000 1,00000 0,00001 1,00000 0,00006 0,99998 0,00020 0,99992 0,00055 0,99975 0,00132 0,99930
14 0,00000 1,00000 0,00001 1,00000 0,00006 0,99998 0,00018 0,99993 0,00047 0,99977
15 0,00000 1,00000 0,00002 1,00000 0,00005 0,99998 0,00016 0,99993
16 0,00000 1,00000 0,00002 0,99999 0,00005 0,99998
17 0,00000 1,00000 0,00001 0,99999
18 0,00000 1,00000
24
λ=5,5 λ=6 λ=6,5 λ=7 λ=7,5 λ=8 λ=8,5 λ=9 λ=9,5 λ=10
5,5 5,5 6 6 6,5 6,5 7 7 7,5 7,5 8 8 8,5 8,5 9 9 9,5 9,5 10 10
k p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ)
0 0,00409 0,00409 0,00248 0,00248 0,00150 0,00150 0,00091 0,00091 0,00055 0,00055 0,00034 0,00034 0,00020 0,00020 0,00012 0,00012 0,00007 0,00007 0,00005 0,00005
1 0,02248 0,02656 0,01487 0,01735 0,00977 0,01128 0,00638 0,00730 0,00415 0,00470 0,00268 0,00302 0,00173 0,00193 0,00111 0,00123 0,00071 0,00079 0,00045 0,00050
2 0,06181 0,08838 0,04462 0,06197 0,03176 0,04304 0,02234 0,02964 0,01556 0,02026 0,01073 0,01375 0,00735 0,00928 0,00500 0,00623 0,00338 0,00416 0,00227 0,00277
3 0,11332 0,20170 0,08924 0,15120 0,06881 0,11185 0,05213 0,08177 0,03889 0,05915 0,02863 0,04238 0,02083 0,03011 0,01499 0,02123 0,01070 0,01486 0,00757 0,01034
4 0,15582 0,35752 0,13385 0,28506 0,11182 0,22367 0,09123 0,17299 0,07292 0,13206 0,05725 0,09963 0,04425 0,07436 0,03374 0,05496 0,02540 0,04026 0,01892 0,02925
5 0,17140 0,52892 0,16062 0,44568 0,14537 0,36904 0,12772 0,30071 0,10937 0,24144 0,09160 0,19124 0,07523 0,14960 0,06073 0,11569 0,04827 0,08853 0,03783 0,06709
alain.hazotte@univ-lorraine.fr – octobre 2018

6 0,15712 0,68604 0,16062 0,60630 0,15748 0,52652 0,14900 0,44971 0,13672 0,37815 0,12214 0,31337 0,10658 0,25618 0,09109 0,20678 0,07642 0,16495 0,06306 0,13014
7 0,12345 0,80949 0,13768 0,74398 0,14623 0,67276 0,14900 0,59871 0,14648 0,52464 0,13959 0,45296 0,12942 0,38560 0,11712 0,32390 0,10371 0,26866 0,09008 0,22022
8 0,08487 0,89436 0,10326 0,84724 0,11882 0,79157 0,13038 0,72909 0,13733 0,66197 0,13959 0,59255 0,13751 0,52311 0,13176 0,45565 0,12316 0,39182 0,11260 0,33282
9 0,05187 0,94622 0,06884 0,91608 0,08581 0,87738 0,10140 0,83050 0,11444 0,77641 0,12408 0,71662 0,12987 0,65297 0,13176 0,58741 0,13000 0,52183 0,12511 0,45793
10 0,02853 0,97475 0,04130 0,95738 0,05578 0,93316 0,07098 0,90148 0,08583 0,86224 0,09926 0,81589 0,11039 0,76336 0,11858 0,70599 0,12350 0,64533 0,12511 0,58304
11 0,01426 0,98901 0,02253 0,97991 0,03296 0,96612 0,04517 0,94665 0,05852 0,92076 0,07219 0,88808 0,08530 0,84866 0,09702 0,80301 0,10666 0,75199 0,11374 0,69678
12 0,00654 0,99555 0,01126 0,99117 0,01785 0,98397 0,02635 0,97300 0,03658 0,95733 0,04813 0,93620 0,06042 0,90908 0,07277 0,87577 0,08444 0,83643 0,09478 0,79156
13 0,00277 0,99831 0,00520 0,99637 0,00893 0,99290 0,01419 0,98719 0,02110 0,97844 0,02962 0,96582 0,03951 0,94859 0,05038 0,92615 0,06171 0,89814 0,07291 0,86446
14 0,00109 0,99940 0,00223 0,99860 0,00414 0,99704 0,00709 0,99428 0,01130 0,98974 0,01692 0,98274 0,02399 0,97257 0,03238 0,95853 0,04187 0,94001 0,05208 0,91654
15 0,00040 0,99980 0,00089 0,99949 0,00180 0,99884 0,00331 0,99759 0,00565 0,99539 0,00903 0,99177 0,01359 0,98617 0,01943 0,97796 0,02652 0,96653 0,03472 0,95126
16 0,00014 0,99994 0,00033 0,99983 0,00073 0,99957 0,00145 0,99904 0,00265 0,99804 0,00451 0,99628 0,00722 0,99339 0,01093 0,98889 0,01575 0,98227 0,02170 0,97296
17 0,00004 0,99998 0,00012 0,99994 0,00028 0,99985 0,00060 0,99964 0,00117 0,99921 0,00212 0,99841 0,00361 0,99700 0,00579 0,99468 0,00880 0,99107 0,01276 0,98572
18 0,00001 0,99999 0,00004 0,99998 0,00010 0,99995 0,00023 0,99987 0,00049 0,99970 0,00094 0,99935 0,00170 0,99870 0,00289 0,99757 0,00464 0,99572 0,00709 0,99281
19 0,00000 1,00000 0,00001 0,99999 0,00003 0,99998 0,00009 0,99996 0,00019 0,99989 0,00040 0,99975 0,00076 0,99947 0,00137 0,99894 0,00232 0,99804 0,00373 0,99655
20 0,00000 1,00000 0,00001 1,00000 0,00003 0,99999 0,00007 0,99996 0,00016 0,99991 0,00032 0,99979 0,00062 0,99956 0,00110 0,99914 0,00187 0,99841
21 0,00000 1,00000 0,00001 1,00000 0,00003 0,99999 0,00006 0,99997 0,00013 0,99992 0,00026 0,99983 0,00050 0,99964 0,00089 0,99930
22 0,00000 1,00000 0,00001 1,00000 0,00002 0,99999 0,00005 0,99997 0,00011 0,99993 0,00022 0,99985 0,00040 0,99970
23 0,00000 1,00000 0,00001 1,00000 0,00002 0,99999 0,00004 0,99998 0,00009 0,99994 0,00018 0,99988
24 0,00000 1,00000 0,00001 1,00000 0,00002 0,99999 0,00004 0,99998 0,00007 0,99995
25 0,00000 1,00000 0,00001 1,00000 0,00001 0,99999 0,00003 0,99998
26 0,00000 1,00000 0,00000 1,00000 0,00001 0,99999
27 0,00000 1,00000
25
alain.hazotte@univ-lorraine.fr – octobre 2018 26
alain.hazotte@univ-lorraine.fr – octobre 2018 27
alain.hazotte@univ-lorraine.fr – octobre 2018 28
alain.hazotte@univ-lorraine.fr – octobre 2018 29
Table de la Loi de Fisher-Snedecor - suite

degré de liberté du numérateur


α 1 2 3 4 5 6 7 8 9 10 25 50 100
0,05 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,11 3,02 2,97
0,025 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 3,94 3,81 3,74
8 0,01 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,26 5,07 4,96
0,005 14,69 11,04 9,60 8,81 8,30 7,95 7,69 7,50 7,34 7,21 6,48 6,22 6,09
0,001 25,41 18,49 15,83 14,39 13,48 12,86 12,40 12,05 11,77 11,54 10,26 9,80 9,57
0,05 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 2,89 2,80 2,76
0,025 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,60 3,47 3,40
9 0,01 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 4,71 4,52 4,41
0,005 13,61 10,11 8,72 7,96 7,47 7,13 6,88 6,69 6,54 6,42 5,71 5,45 5,32
0,001 22,86 16,39 13,90 12,56 11,71 11,13 10,70 10,37 10,11 9,89 8,69 8,26 8,04
0,05 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,73 2,64 2,59
0,025 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,35 3,22 3,15
10 0,01 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,31 4,12 4,01
0,005 12,83 9,43 8,08 7,34 6,87 6,54 6,30 6,12 5,97 5,85 5,15 4,90 4,77
0,001 21,04 14,91 12,55 11,28 10,48 9,93 9,52 9,20 8,96 8,75 7,60 7,19 6,98
0,05 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,28 2,18 2,12
0,025 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 2,69 2,55 2,47
degré de liberté du dénominateur

15 0,01 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,28 3,08 2,98
0,005 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 3,77 3,52 3,39
0,001 16,59 11,34 9,34 8,25 7,57 7,09 6,74 6,47 6,26 6,08 5,07 4,70 4,51
0,05 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,07 1,97 1,91
0,025 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,40 2,25 2,17
20 0,01 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 2,84 2,64 2,54
0,005 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,20 2,96 2,83
0,001 14,82 9,95 8,10 7,10 6,46 6,02 5,69 5,44 5,24 5,08 4,12 3,77 3,58
0,05 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 1,96 1,84 1,78
0,025 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,23 2,08 2,00
25 0,01 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,60 2,40 2,29
0,005 9,48 6,60 5,46 4,84 4,43 4,15 3,94 3,78 3,64 3,54 2,90 2,65 2,52
0,001 13,88 9,22 7,45 6,49 5,89 5,46 5,15 4,91 4,71 4,56 3,63 3,28 3,09
0,05 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 1,88 1,76 1,70
0,025 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,12 1,97 1,88
30 0,01 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,45 2,25 2,13
0,005 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 2,71 2,46 2,32
0,001 13,29 8,77 7,05 6,12 5,53 5,12 4,82 4,58 4,39 4,24 3,33 2,98 2,79
0,05 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,73 1,60 1,52
0,025 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 1,92 1,75 1,66
50 0,01 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,17 1,95 1,82
0,005 8,63 5,90 4,83 4,23 3,85 3,58 3,38 3,22 3,09 2,99 2,35 2,10 1,95
0,001 12,22 7,96 6,34 5,46 4,90 4,51 4,22 4,00 3,82 3,67 2,79 2,44 2,25
0,05 3,94 3,09 2,70 2,46 2,31 2,19 2,10 2,03 1,97 1,93 1,62 1,48 1,39
0,025 5,18 3,83 3,25 2,92 2,70 2,54 2,42 2,32 2,24 2,18 1,77 1,59 1,48
100 0,01 6,90 4,82 3,98 3,51 3,21 2,99 2,82 2,69 2,59 2,50 1,97 1,74 1,60
0,005 8,24 5,59 4,54 3,96 3,59 3,33 3,13 2,97 2,85 2,74 2,11 1,84 1,68
0,001 11,50 7,41 5,86 5,02 4,48 4,11 3,83 3,61 3,44 3,30 2,43 2,08 1,87

alain.hazotte@univ-lorraine.fr – octobre 2018 30


Quadrillage Gausso-Arithmétique pour Test de la Droite de Henry
99 Fréquence cumulée en % - 100 % rejeté à l'infini

98

97

96

94

92
90

85

80

75

70

65

60

55
50

45
40

35

30

25

20

15

10

1 Fréquence cumulée en % - 0 % rejeté à l'infini

alain.hazotte@univ-lorraine.fr – octobre 2018 31

Das könnte Ihnen auch gefallen