Beruflich Dokumente
Kultur Dokumente
Alain Hazotte
L’inexactitude des résultats est souvent compensée par la précision des décimales … A. Sauvy
Exemples de diagramme en bâtons tracé pour une variable aléatoire discrète (a) ou d'histogramme en
effectifs pour une variable aléatoire continue (b)
∑x i
la moyenne x n = i =1
; se dit average ou mean en anglais
n
Dans le cas d'une répartition en modalités ou en classes, la moyenne (aussi parfois notée mn(X))
k
∑ n .C j j k
= ∑ f j .C j , où Cj est la valeur attribuée à la
j =1
peut aussi se calculer par la formule x n =
n j =1
modalité ou à la classe j (le plus souvent le milieu de la classe) et k est le nombre de modalités ou
de classes. Les deux formules donnent des valeurs légèrement différentes dans le cas de variables
continues.
∑ (x )
n
2
i − xn
la variance est donnée par S n = i =1
2
, ; se dit variance en anglais
n
Dans le cas d'une répartition en modalités ou en classes, elle s'écrit :
∑ n (C )
k
2
− xn
( )
j j k
= ∑ f j C j − xn
j =1 2
Sn =
2
n j =1
∑x
k
i
On définit les moments d'ordre k d'une distribution statistique comme µ k = i =1
et les
n
n
∑(x i − x n )k
moments centrés d'ordre k comme M k = i =1
. La moyenne est bien entendu égale à
n
µ1 et la variance à M2.
On utilise souvent deux paramètres tirés de ces moments centrés pour définir la forme plus ou
moins étalée et plus ou moins dissymétrique des distributions :
M3
- coefficient d'asymétrie γ3 = 3
; se dit skewness en anglais
Sn
M4
- coefficient d'aplatissement γ4 = 4
; se dit kurtosis en anglais
Sn
Dans le cas d'une distribution normale (voir plus loin), γ3=0 (distribution parfaitement symétrique)
et γ4=3.
Colonne Valeur
A
Paramètre Fonction Excel
1 10
2 12 mode : MO =MODE(A1:A15) 10,00
3 9 médiane : Me =MEDIANE(A1:A15) 10,00
4 8 moyenne : mn =MOYENNE(A1:A15) 10,40
5 15
6 11 étendue : E =MAX(A1:A15)-MIN(A1:A15) 13,00
7 5 quartile à 25% : Q1 ou Q25 =QUARTILE(A1:A15;1) 8,50
8 10 quartile à 50% : Q2 ou Q50 =QUARTILE(A1:A15;2) 10,00
9 10 quartile à 75% : Q3 ou Q75 =QUARTILE(A1:A15;3) 11,50
10 9 écart moyen absolu : em =ECART.MOYEN(A1:A15) 2,40
11 8 variance : Sn2 =VAR(A1:A15) 10,83
12 7 écart-type : Sn =ECARTYPEP(A1:A15) 3,18
13 14
14 18 coefficient d'asymétrie : γ3 =COEFFICIENT.ASYMETRIE(A1:A15) 0,83
15 10 coefficient d'aplatissement : γ4 =KURTOSIS(A1:A15) 0,93
Définitions
L’exploitation des résultats statistiques s’appuie sur l’utilisation de modèles statistiques basés sur
des lois de probabilité, fonctions mathématiques qui décrivent la probabilité d’apparition de
chacune des valeurs de la variable aléatoire. Une loi de probabilité est définie différemment selon
qu'elle s'applique à une variable aléatoire discrète ou continue.
Dans le cas d'une variable aléatoire discrète, la loi statistique est connue quand sont connues les
probabilités d'apparition de chacune des modalités possibles :
soit une VA X pouvant présenter k (et seulement k) modalités différentes x1, x2, ... xi, ... xk ; sa
loi de probabilité est connue quand les probabilités p(X=xi), souvent notées p(xi) voire pi, sont
k
connues pour i=1→k ; la relation ∑ p( x ) = 1 exprime que X ne peut pas prendre d'autres
i =1
i
Dans le cas d'une variable aléatoire continue définie dans un intervalle [a,b], on ne peut définir la
probabilité de chacune des valeurs possibles ; on en donne alors la densité de probabilité :
dx dx
p(x) est définie dans [a,b], telle que p(X ∈ x − ; x + ) → p( x ).dx quand dx→0,
2 2
b
On a également ∫ a
p( x )dx = 1 .
on peut aussi définir la loi de probabilité par sa fonction de répartition, F(x), reliée à p(x) par
b
E ( X ) = ∫ x ⋅ p( x ).dx , dans le cas d'une VA continue
a
b
VAR( X ) == ∫ [ x − E ( X )]2 ⋅ p( x ) ⋅ dx , dans le cas d'une variable continue
a
La racine carrée de la variance est appelée écart-type de la loi statistique. Il est important de noter
que ces paramètres sont distincts des variance et écart-type d'un échantillon définis dans la partie
Statistique Exploratoire. Ce sont des paramètres associés au modèle statistique théorique.
∑X i
Y= i =1
(ai = 1/n)
n
Dans ce cas, E(Y) = Ε(X) et VAR(Y)=VAR(X)/n
Ces formules sont vraies quelle que soit la loi de probabilité utilisée. Dans la suite, nous allons
définir quelque unes des lois de probabilité les plus utilisées.
n!
Le terme C nk , qui s'énonce "combinaison de k dans n", est égal à C nk = . On montre que
k!.( n − k )!
E(X)=np et que VAR(X)=np.(1-p).
Cette loi statistique s'applique par exemple au cas du tirage de n pièces dans un lot, pièces dont on
vérifie si elles sont conformes (caractère B) ou non-conformes (caractère A) à un cahier des
charges. Pour avoir le droit d'utiliser cette loi, il faut que les tirages soient indépendants entre eux.
C'est le cas si on remet chaque pièce tirée après l'avoir testée, ou si n est petit devant la taille du
lot. Dans le cas où cette condition ne peut être assurée, on doit utiliser la loi hypergéométrique,
dont les caractéristiques principales sont données dans le tableau en fin de ce chapitre.
Lorsque n est grand (typiquement ≥20) et p petit (typiquement ≤0,1), la loi binomiale peut être
approximée par la loi de Poisson, qui s'énonce :
σ 2π
Les deux paramètres qui servent à la définir sont précisément son espérance µ=E(X) et son écart-
type σ = E([X − µ]2 ) . On utilisera la notation X ~ N(µ,σ) pour signifier qu’une variable
aléatoire X suit une loi normale d'espérance µ et d’écart-type σ.
X −µ
La variable aléatoire T = , suit quant à elle une loi normale centrée réduite, dont la densité
σ
de probabilité est
1
1 − 2⋅t 2
p(t ) = e
2π
Son espérance est nulle et son écart-type est égal à 1 :
T ~ N (0,1).
Loi normale centrée réduite
0,4
p(u)
0,35
0,3
0,25
La figure ci-contre présente l’évolution de la densité
de probabilité de la loi normale centrée réduite. On
0,2
utilise le plus souvent sa fonction de répartition dont
0,15 les valeurs sont tabulées.
0,1
0,05
u
0
-4 -3 -2 -1 0 1 2 3 4
R ~ χ 2(n)
Khi-2 à 3 ddl
R = T12 + T22 + ….. + Tn2 ⇒ Khi-2 à 5 ddl
Khi-2 à 10 ddl
0,2
0,15
Cette loi, définie dans l’intervalle [0,+∞], présente
une densité de probabilité d’autant plus 0,1
asymétrique que n est petit.
Son espérance est égale à n et sa variance à 2n 0,05
0
0 5 10 15 r 20
Etant données une variable aléatoire T, normale centrée et réduite, et une variable aléatoire R,
indépendante de T, qui suit une loi du χ 2 à n degrés de liberté (n>2), le quotient :
Loi de Student-Fischer T
0,4
p(u) n très grand
Z=
0,35 n=5 R
n=2
0,3 n
0,25 suit une loi appelée loi de Student-Fisher (ou de
0,2 Student) à n degrés de liberté : Z ~ S (n).
0,15
La densité de distribution de cette loi présente une
0,1 allure en cloche plus étalée que celle de la loi
0,05 normale centrée réduite, avec laquelle elle se
u
0
confond lorsque n devient grand (>100)
-4 -3 -2 -1 0 1 2 3 4
Etant données deux variables aléatoires R1 et R2 indépendantes et qui suivent chacune une loi du
χ 2 à, respectivement, n1 et n2 degrés de liberté, le quotient :
n Snedecor 4-4
F= 1 0,6 Snedecor 2-6
R2
0,5
n2
0,4
suit une loi appelée loi de Fisher-Snedecor (ou de
Snedecor ou loi F) à n1 et n2 degrés de liberté : 0,3
F ~ F (n1;n2). 0,2
Les tableaux ci-après résument les informations concernant les lois présentées ici. Sont ajoutées
des informations sur d’autres lois également utiles en pratique mais qui ne seront pas mises en
œuvre dans la suite de ce cours.
Syntaxe des quelques fonctions relatives aux modèles statistiques sous Excel (version française)
renvoie la probabilité associée à une valeur k ou x renvoie la valeur associée à une probabilité p
=
Loi du Khi-Deux Intervalle de confiance d'une variance
n 2n
κ2(n) + différents autres tests statistiques
Loi de Student- T Intervalles de confiance d'une
Z= n
Fisher R 0 moyenne + différents autres tests
n−2
S(n) n statistiques
Loi de Fisher- R1
n1 n2 2.n22 .( n1 + n2 − 2) Test d'égalité de variances. Tests
Snedecor (Loi F) F=
R2 n2 − 2 n1.( n2 − 2) 2 .( n2 − 4) d'analyse de la variance, etc.
F(n1;n2) n2
Loi asymétrique suivie par quelques
1 (ln x − µ ) 2
Loi Log-Normale 1 − ⋅
(µ +
σ2 phénomènes physiques (ex.
p( x ) = e 2 σ
2
)
X ~ LnN (µ;σ) ( eσ − 1).e (2 µ +σ ) distribution de taille de grains dans les
2
σ . x. 2π e 2 2
matériaux)
Phénomène se produisant avec la
Loi Uniforme sur même probabilité sur un intervalle
1 a a2
[0,a] p( x ) = [0,a]. Utilisé avec deux VA X et Y
a 2 12
X ~ U(a) pour implanter des points au hasard
sur une surface.
Utilisée en fiabilité pour représenter la
durée de vie de systèmes sans
Loi exponentielle 1 1
p( x ) = λ .e − λx vieillissement (ex. système
X ~ E(λ) λ λ2
électronique). 1/λ est le MTBF (mean
time before failure)
Ceci signifie que, disposant d’un échantillon de n mesures de la variable X, on peut affirmer que
les combinaisons de ces mesures, et
n
⋅ S n , seront d’autant plus proches des valeurs de
2
n −1
l'espérance et de la variance ‘vraies’ de la loi statistique suivie X que n sera grand. Dans la suite
on notera par simplification E(X)=µ et VAR(X)=σ2 , et on écrira que =µ* et que S n2−1 =σ*,
l'astérisque indiquant qu'on a affaire à des estimateurs sans biais.
A condition de connaître (ou d’admettre) le modèle statistique suivi par la variable X, on peut
donner un intervalle de confiance dans lequel le paramètre estimé a ‘de grandes chances’ de se
trouver. La détermination de l’intervalle de confiance nécessite donc d’accepter une loi de
probabilité pour la variable mesurée, ainsi qu’un risque α de se tromper.
L’intervalle de confiance de la moyenne µ d’une variable aléatoire X qui suit une loi normale
N(µ,σ) est défini de deux manières différentes suivant que
- σ est connu ; dans ce cas :
µ= ∓ α. √
σ
n
σ n’est pas connu, mais peut être estimé par σ∗ = ⋅ Sn ; dans ce cas :
2
-
n −1
σ∗
µ= ∓ α. √
Cette fois, la valeur de zα est lue dans la table de la loi de Student-Fisher à n-1 degrés de liberté,
en répartissant le risque symétriquement. zα est toujours plus grand que tα. Si n est grand (>100)
zα et tα sont confondus.
L’intervalle de confiance de la variance σ2 d’une variable aléatoire X qui suit une loi normale
N(µ,σ) est donné par :
n ⋅ Sn ( n − 1) ⋅ σ *2 n ⋅ Sn ( n − 1) ⋅ σ *2
2 2
p(r)
= ≤σ ≤
2
=
χ2 χ2 χ1 χ1
avec χ1 et χ2 les valeurs lues dans la table de la loi du χ2 à n-
1 degrés de liberté, pour un risque α réparti symétriquement
à droite et à gauche. L'intervalle de confiance de l'écart-type
α/2 α/2 σ s'obtient bien sûr en prenant la racine carrée des termes de
r l'inégalité ci-dessus.
κ1 κ2
0 5 10 15 20
Tests d’hypothèses
Les outils statistiques sont les mêmes, mais il s’agit cette fois de rejeter ou non la validité d’une
hypothèse, H0, en testant si une variable calculée à partir d’un échantillon de n mesures se trouve
ou non à l’extérieur d’un certain intervalle de confiance.
La moyenne d’une variable aléatoire normale est-elle égale à une valeur donnée µ0 ?
De nouveau, deux cas peuvent se présenter
n n n −1
à n-1 degrés de liberté, pour un risque α réparti de façon symétrique.
La variance d’une variable aléatoire normale est-elle égale à une valeur donnée σ02 ?
n ⋅ Sn (n − 1) ⋅ S n −1
2 2
dans l’intervalle [-zα,+zα], avec zα lue dans la table de la loi de Student-Fisher à n1+n2-2 degrés de
liberté, pour un risque α réparti de façon symétrique. Si Z n’appartient pas à cet intervalle, on dit
que « la différence entre les moyennes est significative au risque α ». Sinon, on peut admettre
l’hypothèse d’égalité des moyennes, sans toutefois l’avoir démontrée.
Notons enfin que si les mesures x1i et x2j sont appariées (associées sur un même échantillon), la
comparaison des moyennes se fera grâce à un test encore plus efficace, le test d’appariement
expliqué ci-dessous.
Test d’appariement : Il s'agit d'un test sur la moyenne particulier, qui s’applique lorsque l’on veut
vérifier l’influence d’un facteur donné f sur une variable aléatoire X de grande variabilité : par
exemple, un engrais a-t-il un effet réel sur la production d’une certaine plante, compte tenu de la
variabilité de cette production en fonction du sol, de l’ensoleillement, des cultures antérieures, etc.
de chaque parcelle. Si on teste l’égalité des moyennes de X avec ou sans application de f (Xf et X)
à partir de réalisations xi et xfj indépendantes entre elles (méthode décrite ci-dessus), la variabilité
intrinsèque de X risque de masquer l’effet de f. Par contre, s’il est possible pour un même objet i
de réaliser une mesure avec ou sans effet du facteur f (par exemple diviser chaque parcelle en deux,
n’appliquer l’engrais que sur la moitié et mesurer la production de chaque partie), on disposera
d’un ensemble de réalisations couplées deux à deux (dites ‘appariées’), xi et xfi.
∑ (x fi − xi )
σ∗ σ∗
On testera donc si m n (D) = i =1
se trouve ou pas dans l’intervalle − zα ⋅ ,+ zα ⋅
n n n
, avec zα lue dans la table de la loi de Student-Fisher à n-1 degrés de liberté, et σ* l’estimation de
l’écart-type de D.
Si mn (D) est à l’extérieur de l’intervalle, on pourra conclure à l’influence effective du facteur f
sur la variable X. Si on ne veut tester qu’un effet a priori positif, il est possible de reporter tout le
σ∗
risque α ‘à droite’ (du coté de + zα ⋅ ).
n
Le test consiste à tester l’importance des écarts entre mesures expérimentales et valeurs théoriques,
en travaillant avec le rapport :
R=∑
[N ex ( xi ) − N th ( xi )]2
N th ( xi )
κα
0 5 10 15 20
modèle (jusqu’à preuve du contraire …)
Remarques :
- On reporte ici tout le risque α à droite car le choix d’un mauvais modèle théorique ne peut se
traduire que par des écarts importants. Tester un risque à gauche reviendrait à tester si le modèle
n’est pas ‘trop bon’ (i.e. si les résultats expérimentaux n’ont pas été manipulés...)
- Très souvent, le modèle testé dépend d’un ou de plusieurs paramètres inconnus qu’il faut
préalablement estimer à partir des données expérimentales (par exemple moyenne et écart-type
pour la loi normale). Dans ce cas R doit être testé avec une loi du Khi-2 à (k-1-r) degrés de liberté,
r étant le nombre de paramètres estimés du modèle (par ex. r=2 pour la loi normale)
- Pour que le test soit utilisable, il faut que le nombre de mesures soit élevé, mais surtout que les
Nth(xi) ne soient pas trop petits (typiquement de l’ordre de 10 minimum). En cas d’effectifs trop
réduits, on doit procéder à des regroupements de classes. Cela diminue la valeur de k et donc
l’efficacité du test.
- Il est possible que deux (ou plusieurs) lois statistiques différentes puissent être acceptées par ce
test. Dans ce cas, il est courant -et logique- de choisir comme modèle la loi qui conduit à la valeur
de R la plus petite (celle qui "fitte" le mieux les données expérimentales)
Le test de la Droite de Henry est une méthode graphique encore très utilisée dans l'industrie, pour
vérifier qu'une série d'observations est correctement décrite par une loi normale. Si c'est le cas,
elle permet en plus d'obtenir directement une estimation de la moyenne et de l'écart type de la loi.
Le principe consiste à classer les mesures expérimentales (ou les classes de mesure) par ordre
croissant, à calculer pour chacune la fréquence cumulée associée, et à reporter dans un repère
"gausso-arithmétique" la valeur de cette fréquence en fonction de la mesure expérimentale. Si la
loi normale est un bon modèle, les points ainsi reportés s'alignent sur une droite. Le graphique
permet alors de mesurer directement la moyenne (fréquence = 50% ; t=0) et l'écart-type, entre deux
lignes reportées sur l'axe des y.
Cette méthode est extrêmement rapide et facile à mettre en œuvre. Sa principale limite est que la
décision de savoir si les points s'alignent selon une droite reste subjective. Il existe un test pour vérifier
si une régression linéaire est justifiée, mais on perd dans ce cas l'avantage de la rapidité de la méthode.
Un quadrillage gausso-arithmétique est fourni en fin de ce polycopié.
Contrairement au test de comparaison de populations normales, ici on ne fait pas d’hypothèse sur le
modèle statistique suivi par les différentes populations analysées. On se contente de supposer qu’il
est le même pour toutes.
Si on fait l’hypothèse que les p échantillons sont extraits d’un même modèle statistique, on peut
p
∑n
j =1
ji
estimer la proportion théorique de mesures devant tomber dans une classe Ci par ω = *
i p
. Dans
∑n
j =1
.j
λ=0,5 λ=1 λ=1,5 λ=2 λ=2,5 λ=3 λ=3,5 λ=4 λ=4,5 λ=5
0,5 0,5 1 1 1,5 1,5 2 2 2,5 2,5 3 3 3,5 3,5 4 4 4,5 4,5 5 5
alain.hazotte@univ-lorraine.fr – octobre 2018
k p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ)
0 0,60653 0,60653 0,36788 0,36788 0,22313 0,22313 0,13534 0,13534 0,08208 0,08208 0,04979 0,04979 0,03020 0,03020 0,01832 0,01832 0,01111 0,01111 0,00674 0,00674
1 0,30327 0,90980 0,36788 0,73576 0,33470 0,55783 0,27067 0,40601 0,20521 0,28730 0,14936 0,19915 0,10569 0,13589 0,07326 0,09158 0,04999 0,06110 0,03369 0,04043
2 0,07582 0,98561 0,18394 0,91970 0,25102 0,80885 0,27067 0,67668 0,25652 0,54381 0,22404 0,42319 0,18496 0,32085 0,14653 0,23810 0,11248 0,17358 0,08422 0,12465
3 0,01264 0,99825 0,06131 0,98101 0,12551 0,93436 0,18045 0,85712 0,21376 0,75758 0,22404 0,64723 0,21579 0,53663 0,19537 0,43347 0,16872 0,34230 0,14037 0,26503
4 0,00158 0,99983 0,01533 0,99634 0,04707 0,98142 0,09022 0,94735 0,13360 0,89118 0,16803 0,81526 0,18881 0,72544 0,19537 0,62884 0,18981 0,53210 0,17547 0,44049
5 0,00016 0,99999 0,00307 0,99941 0,01412 0,99554 0,03609 0,98344 0,06680 0,95798 0,10082 0,91608 0,13217 0,85761 0,15629 0,78513 0,17083 0,70293 0,17547 0,61596
6 0,00001 1,00000 0,00051 0,99992 0,00353 0,99907 0,01203 0,99547 0,02783 0,98581 0,05041 0,96649 0,07710 0,93471 0,10420 0,88933 0,12812 0,83105 0,14622 0,76218
7 0,00007 0,99999 0,00076 0,99983 0,00344 0,99890 0,00994 0,99575 0,02160 0,98810 0,03855 0,97326 0,05954 0,94887 0,08236 0,91341 0,10444 0,86663
8 0,00001 1,00000 0,00014 0,99997 0,00086 0,99976 0,00311 0,99886 0,00810 0,99620 0,01687 0,99013 0,02977 0,97864 0,04633 0,95974 0,06528 0,93191
9 0,00002 1,00000 0,00019 0,99995 0,00086 0,99972 0,00270 0,99890 0,00656 0,99669 0,01323 0,99187 0,02316 0,98291 0,03627 0,96817
10 0,00004 0,99999 0,00022 0,99994 0,00081 0,99971 0,00230 0,99898 0,00529 0,99716 0,01042 0,99333 0,01813 0,98630
11 0,00001 1,00000 0,00005 0,99999 0,00022 0,99993 0,00073 0,99971 0,00192 0,99908 0,00426 0,99760 0,00824 0,99455
12 0,00001 1,00000 0,00006 0,99998 0,00021 0,99992 0,00064 0,99973 0,00160 0,99919 0,00343 0,99798
13 0,00000 1,00000 0,00001 1,00000 0,00006 0,99998 0,00020 0,99992 0,00055 0,99975 0,00132 0,99930
14 0,00000 1,00000 0,00001 1,00000 0,00006 0,99998 0,00018 0,99993 0,00047 0,99977
15 0,00000 1,00000 0,00002 1,00000 0,00005 0,99998 0,00016 0,99993
16 0,00000 1,00000 0,00002 0,99999 0,00005 0,99998
17 0,00000 1,00000 0,00001 0,99999
18 0,00000 1,00000
24
λ=5,5 λ=6 λ=6,5 λ=7 λ=7,5 λ=8 λ=8,5 λ=9 λ=9,5 λ=10
5,5 5,5 6 6 6,5 6,5 7 7 7,5 7,5 8 8 8,5 8,5 9 9 9,5 9,5 10 10
k p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ) p(k,λ) F(k,λ)
0 0,00409 0,00409 0,00248 0,00248 0,00150 0,00150 0,00091 0,00091 0,00055 0,00055 0,00034 0,00034 0,00020 0,00020 0,00012 0,00012 0,00007 0,00007 0,00005 0,00005
1 0,02248 0,02656 0,01487 0,01735 0,00977 0,01128 0,00638 0,00730 0,00415 0,00470 0,00268 0,00302 0,00173 0,00193 0,00111 0,00123 0,00071 0,00079 0,00045 0,00050
2 0,06181 0,08838 0,04462 0,06197 0,03176 0,04304 0,02234 0,02964 0,01556 0,02026 0,01073 0,01375 0,00735 0,00928 0,00500 0,00623 0,00338 0,00416 0,00227 0,00277
3 0,11332 0,20170 0,08924 0,15120 0,06881 0,11185 0,05213 0,08177 0,03889 0,05915 0,02863 0,04238 0,02083 0,03011 0,01499 0,02123 0,01070 0,01486 0,00757 0,01034
4 0,15582 0,35752 0,13385 0,28506 0,11182 0,22367 0,09123 0,17299 0,07292 0,13206 0,05725 0,09963 0,04425 0,07436 0,03374 0,05496 0,02540 0,04026 0,01892 0,02925
5 0,17140 0,52892 0,16062 0,44568 0,14537 0,36904 0,12772 0,30071 0,10937 0,24144 0,09160 0,19124 0,07523 0,14960 0,06073 0,11569 0,04827 0,08853 0,03783 0,06709
alain.hazotte@univ-lorraine.fr – octobre 2018
6 0,15712 0,68604 0,16062 0,60630 0,15748 0,52652 0,14900 0,44971 0,13672 0,37815 0,12214 0,31337 0,10658 0,25618 0,09109 0,20678 0,07642 0,16495 0,06306 0,13014
7 0,12345 0,80949 0,13768 0,74398 0,14623 0,67276 0,14900 0,59871 0,14648 0,52464 0,13959 0,45296 0,12942 0,38560 0,11712 0,32390 0,10371 0,26866 0,09008 0,22022
8 0,08487 0,89436 0,10326 0,84724 0,11882 0,79157 0,13038 0,72909 0,13733 0,66197 0,13959 0,59255 0,13751 0,52311 0,13176 0,45565 0,12316 0,39182 0,11260 0,33282
9 0,05187 0,94622 0,06884 0,91608 0,08581 0,87738 0,10140 0,83050 0,11444 0,77641 0,12408 0,71662 0,12987 0,65297 0,13176 0,58741 0,13000 0,52183 0,12511 0,45793
10 0,02853 0,97475 0,04130 0,95738 0,05578 0,93316 0,07098 0,90148 0,08583 0,86224 0,09926 0,81589 0,11039 0,76336 0,11858 0,70599 0,12350 0,64533 0,12511 0,58304
11 0,01426 0,98901 0,02253 0,97991 0,03296 0,96612 0,04517 0,94665 0,05852 0,92076 0,07219 0,88808 0,08530 0,84866 0,09702 0,80301 0,10666 0,75199 0,11374 0,69678
12 0,00654 0,99555 0,01126 0,99117 0,01785 0,98397 0,02635 0,97300 0,03658 0,95733 0,04813 0,93620 0,06042 0,90908 0,07277 0,87577 0,08444 0,83643 0,09478 0,79156
13 0,00277 0,99831 0,00520 0,99637 0,00893 0,99290 0,01419 0,98719 0,02110 0,97844 0,02962 0,96582 0,03951 0,94859 0,05038 0,92615 0,06171 0,89814 0,07291 0,86446
14 0,00109 0,99940 0,00223 0,99860 0,00414 0,99704 0,00709 0,99428 0,01130 0,98974 0,01692 0,98274 0,02399 0,97257 0,03238 0,95853 0,04187 0,94001 0,05208 0,91654
15 0,00040 0,99980 0,00089 0,99949 0,00180 0,99884 0,00331 0,99759 0,00565 0,99539 0,00903 0,99177 0,01359 0,98617 0,01943 0,97796 0,02652 0,96653 0,03472 0,95126
16 0,00014 0,99994 0,00033 0,99983 0,00073 0,99957 0,00145 0,99904 0,00265 0,99804 0,00451 0,99628 0,00722 0,99339 0,01093 0,98889 0,01575 0,98227 0,02170 0,97296
17 0,00004 0,99998 0,00012 0,99994 0,00028 0,99985 0,00060 0,99964 0,00117 0,99921 0,00212 0,99841 0,00361 0,99700 0,00579 0,99468 0,00880 0,99107 0,01276 0,98572
18 0,00001 0,99999 0,00004 0,99998 0,00010 0,99995 0,00023 0,99987 0,00049 0,99970 0,00094 0,99935 0,00170 0,99870 0,00289 0,99757 0,00464 0,99572 0,00709 0,99281
19 0,00000 1,00000 0,00001 0,99999 0,00003 0,99998 0,00009 0,99996 0,00019 0,99989 0,00040 0,99975 0,00076 0,99947 0,00137 0,99894 0,00232 0,99804 0,00373 0,99655
20 0,00000 1,00000 0,00001 1,00000 0,00003 0,99999 0,00007 0,99996 0,00016 0,99991 0,00032 0,99979 0,00062 0,99956 0,00110 0,99914 0,00187 0,99841
21 0,00000 1,00000 0,00001 1,00000 0,00003 0,99999 0,00006 0,99997 0,00013 0,99992 0,00026 0,99983 0,00050 0,99964 0,00089 0,99930
22 0,00000 1,00000 0,00001 1,00000 0,00002 0,99999 0,00005 0,99997 0,00011 0,99993 0,00022 0,99985 0,00040 0,99970
23 0,00000 1,00000 0,00001 1,00000 0,00002 0,99999 0,00004 0,99998 0,00009 0,99994 0,00018 0,99988
24 0,00000 1,00000 0,00001 1,00000 0,00002 0,99999 0,00004 0,99998 0,00007 0,99995
25 0,00000 1,00000 0,00001 1,00000 0,00001 0,99999 0,00003 0,99998
26 0,00000 1,00000 0,00000 1,00000 0,00001 0,99999
27 0,00000 1,00000
25
alain.hazotte@univ-lorraine.fr – octobre 2018 26
alain.hazotte@univ-lorraine.fr – octobre 2018 27
alain.hazotte@univ-lorraine.fr – octobre 2018 28
alain.hazotte@univ-lorraine.fr – octobre 2018 29
Table de la Loi de Fisher-Snedecor - suite
15 0,01 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,28 3,08 2,98
0,005 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 3,77 3,52 3,39
0,001 16,59 11,34 9,34 8,25 7,57 7,09 6,74 6,47 6,26 6,08 5,07 4,70 4,51
0,05 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,07 1,97 1,91
0,025 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,40 2,25 2,17
20 0,01 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 2,84 2,64 2,54
0,005 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,20 2,96 2,83
0,001 14,82 9,95 8,10 7,10 6,46 6,02 5,69 5,44 5,24 5,08 4,12 3,77 3,58
0,05 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 1,96 1,84 1,78
0,025 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,23 2,08 2,00
25 0,01 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,60 2,40 2,29
0,005 9,48 6,60 5,46 4,84 4,43 4,15 3,94 3,78 3,64 3,54 2,90 2,65 2,52
0,001 13,88 9,22 7,45 6,49 5,89 5,46 5,15 4,91 4,71 4,56 3,63 3,28 3,09
0,05 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 1,88 1,76 1,70
0,025 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,12 1,97 1,88
30 0,01 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,45 2,25 2,13
0,005 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 2,71 2,46 2,32
0,001 13,29 8,77 7,05 6,12 5,53 5,12 4,82 4,58 4,39 4,24 3,33 2,98 2,79
0,05 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,73 1,60 1,52
0,025 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 1,92 1,75 1,66
50 0,01 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,17 1,95 1,82
0,005 8,63 5,90 4,83 4,23 3,85 3,58 3,38 3,22 3,09 2,99 2,35 2,10 1,95
0,001 12,22 7,96 6,34 5,46 4,90 4,51 4,22 4,00 3,82 3,67 2,79 2,44 2,25
0,05 3,94 3,09 2,70 2,46 2,31 2,19 2,10 2,03 1,97 1,93 1,62 1,48 1,39
0,025 5,18 3,83 3,25 2,92 2,70 2,54 2,42 2,32 2,24 2,18 1,77 1,59 1,48
100 0,01 6,90 4,82 3,98 3,51 3,21 2,99 2,82 2,69 2,59 2,50 1,97 1,74 1,60
0,005 8,24 5,59 4,54 3,96 3,59 3,33 3,13 2,97 2,85 2,74 2,11 1,84 1,68
0,001 11,50 7,41 5,86 5,02 4,48 4,11 3,83 3,61 3,44 3,30 2,43 2,08 1,87
98
97
96
94
92
90
85
80
75
70
65
60
55
50
45
40
35
30
25
20
15
10