Sie sind auf Seite 1von 85

1

PRÉFACE

Chance ? Malchance ? Hazard ? L'étude des probabilités et Statistiques, de


plus en plus présente dans la formation des élèves et étudiants, tend à donner
une approche pus rationnelle à ces trois notions.

Ce document de cours, divisé en deux parties et dix chapitres, traite la


plupart des notions sur ce schéma qui facilite la compréhension : Exemple
introductif - Approche simpliée - Généralisation - Exercice d'application.
Ainsi, l'étudiant ayant suivi et compris les cours d'analyse 1&2 au niveau 1
y verra un bon complément de travail.

Le Docteur Paul TCHOUA, enseignant à l'Université de Ngaoundéré a dû


user de son expérience et de la connaissance qu'il a des étudiants pour pro-
duire, au l d'un travail hargneux, ce document parfaitement adapté à l'étude
des Probabilités et Statistiques. Il appartient maintenant aux étudiants d'en
faire un bon usage.

KAMDOUM David, DAAWORE Jean-Jacques


Etudiants en S.T.I.2
2
Table des matières

I PROBABILITÉS 7
1 ANALYSE COMBINATOIRE 9
1.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 CLASSIFICATION D'OBJETS . . . . . . . . . . . . . . . . . 9
1.3 ARRANGEMENT . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 PERMUTATION . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 PERMUTATION AVEC RÉPÉTITION . . . . . . . . . . . . 12
1.6 COMBINAISON . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.1 Combinaison sans répétition . . . . . . . . . . . . . . . 13
1.6.2 Combinaison avec répétition . . . . . . . . . . . . . . . 14
1.7 FORMULE DU BINÔME DE NEWTON . . . . . . . . . . . 15
1.7.1 Énoncé . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.2 Conséquences . . . . . . . . . . . . . . . . . . . . . . . 15
1.8 ARRANGEMENTS AVEC RÉPÉTITION . . . . . . . . . . . 15
1.9 PERMUTATION AVEC RÉPÉTITION . . . . . . . . . . . . 16

2 ESPACES PROBABILISÉS 17
2.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 EXEMPLES INTRODUCTIFS . . . . . . . . . . . . . . . . . 17
2.3 NOTION D'EXPÉRIENCE ALÉATOIRE . . . . . . . . . . . 18
2.4 ÉVÈNEMENTS ALÉATOIRES . . . . . . . . . . . . . . . . . 18
2.5 OPÉRATIONS SUR LES ÉVÈNEMENTS . . . . . . . . . . . 19
2.5.1 Évènements contraires . . . . . . . . . . . . . . . . . . 19
2.5.2 Évènement A et B . . . . . . . . . . . . . . . . . . . . 19
2.5.3 Évènement A ou B . . . . . . . . . . . . . . . . . . . . 19
2.5.4 Évènement A∆B . . . . . . . . . . . . . . . . . . . . . 19
2.5.5 Diérence de deux évènements . . . . . . . . . . . . . . 19
2.5.6 Évènements incomparables . . . . . . . . . . . . . . . . 20
2.5.7 Lois de De Morgan . . . . . . . . . . . . . . . . . . . . 20
2.6 NOTION DE PROBABILITÉ . . . . . . . . . . . . . . . . . . 20
2.6.1 Expérience de Laplace . . . . . . . . . . . . . . . . . . 20

3
4 TABLE DES MATIÈRES

2.6.2 Probabilité relative à une expérience aléatoire . . . . . 20


2.6.3 Axiomes de probabilité . . . . . . . . . . . . . . . . . . 21
2.7 PROBABILITÉ CONDITIONNELLE . . . . . . . . . . . . . 23
2.8 ÉVÈNEMENTS INDÉPENDANTS . . . . . . . . . . . . . . . 24
2.9 FORMULE DE BAYES . . . . . . . . . . . . . . . . . . . . . 24

3 VARIABLES ALÉATOIRES 27
3.1 VALEURS ALÉATOIRES . . . . . . . . . . . . . . . . . . . . 27
3.2 LOI DE PROBABILITÉ D'UNE V.A.R. . . . . . . . . . . . . 27
3.2.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3 CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE
V.A.R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.1 Espérance mathématique . . . . . . . . . . . . . . . . . 31
3.3.2 Densité de probabilité d'une fonction de v.a.r. . . . . . 33
3.3.3 Espérance mathématique d'une fonction de v.a. . . . . 34
3.3.4 Quantile d'ordre α , Mode , Médiane . . . . . . . . . . 35

4 VARIABLES ALÉATOIRES A DEUX DIMENSIONS 37


4.1 CAS DISCRET . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.1 Probabilités conditionnelles . . . . . . . . . . . . . . . 38
4.1.2 Indépendance de couple de variables aléatoires . . . . . 38
4.1.3 Covariance d'un couple de variables aléatoires . . . . . 39
4.1.4 Formule de K÷ning . . . . . . . . . . . . . . . . . . . . 39
4.2 CAS CONTINU . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . 40
4.3 MOMENT CENTRÉ ET MOMENT NON CENTRÉ . . . . . 41
4.3.1 Moment centré d'ordre k . . . . . . . . . . . . . . . . . 41
4.3.2 Moment non centré d'ordre k . . . . . . . . . . . . . . 41
4.3.3 Relation entre moment centré et moment non centré . 41
4.4 FONCTIONS CARACTÉRISTIQUES ET FONCTIONS GÉ-
NÉRATRICES . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4.1 Fonctions caractéristiques . . . . . . . . . . . . . . . . 42
4.4.2 Fonction génératrice . . . . . . . . . . . . . . . . . . . 42
4.5 COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLA-
TISSEMENT . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6 DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLE
DE V.A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
TABLE DES MATIÈRES 5

5 MODÈLES PROBABILISTES DISCRETS 47


5.1 VARIABLE DE BERNOULLI . . . . . . . . . . . . . . . . . . 47
5.2 VARIABLE BINOMIALE . . . . . . . . . . . . . . . . . . . . 48
5.3 LOI HYPERGÉOMÉTRIQUE . . . . . . . . . . . . . . . . . . 49
5.4 LOI DE POISSON P (λ), (λ > 0) . . . . . . . . . . . . . . . . 50

6 MODÈLES PROBABILISTES CONTINUS 51


6.1 LOI UNIFORME SUR [a, b] . . . . . . . . . . . . . . . . . . . 51
6.2 LOI GAMMA( de paramètre a) . . . . . . . . . . . . . . . . . 52
6.3 LOI BÊTA( de paramètres a et b) . . . . . . . . . . . . . . . . 52
6.4 LOIS NORMALES . . . . . . . . . . . . . . . . . . . . . . . . 53
6.4.1 Loi normale centrée-réduite . . . . . . . . . . . . . . . 53
6.4.2 Loi normale de paramètres (m, σ) (m ∈ R et σ > 0) . . 54
6.5 LOI DE KHI-DEUX (X 2 (n), n ∈ N) . . . . . . . . . . . . . . 54
6.6 LOI DE STUDENT . . . . . . . . . . . . . . . . . . . . . . . 55
6.7 LOI DE FISHER-SNEDECOR (de paramètres m et n) . . . . 55

7 REGRESSION ET CORRELATION 57
7.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2 PRINCIPE DES MOINDRES CARRÉ . . . . . . . . . . . . . 58
7.3 CORRELATION D'UN COUPLE D'OBSERVATIONS . . . . 58
7.4 QUELQUES COURBES DE CORRELATION . . . . . . . . . 59
7.4.1 Droite de regression de Y en X . . . . . . . . . . . . . 59
7.4.2 Droite de regression de X en Y . . . . . . . . . . . . . 61
7.4.3 Autres types de regression . . . . . . . . . . . . . . . . 61

8 CONVERGENCE EN PROBABILITÉ 63
8.1 ETUDE DE LA LOI BINOMIALE . . . . . . . . . . . . . . . 63
8.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 63
8.1.2 Inégalité de Bienaymé TCHEBITCHEFF . . . . . . . . 63
8.1.3 Dénition de la convergence en probabilité . . . . . . . 65
8.2 CONVERGENCE PRESQUE SÛRE . . . . . . . . . . . . . . 65
8.3 CONVERGENCE EN LOI . . . . . . . . . . . . . . . . . . . . 66
8.4 THÉORÈME CENTRAL-LIMITE . . . . . . . . . . . . . . . 66

II STATISTIQUES 67
9 ESTIMATIONS 69
9.1 MÉTHODES DE SONDAGE . . . . . . . . . . . . . . . . . . 69
9.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 69
6 TABLE DES MATIÈRES

9.1.2 Types de sondages . . . . . . . . . . . . . . . . . . . . 70


9.1.3 Méthode de sondage aléatoire . . . . . . . . . . . . . . 70
9.2 ESTIMATEUR DE PARAMÈTRES INCONNUS . . . . . . . 70
9.3 ESTIMATION PONCTUELLE . . . . . . . . . . . . . . . . . 73
9.3.1 Estimateur ponctuel de la moyenne . . . . . . . . . . . 73
9.3.2 Estimation ponctuelle de la variance . . . . . . . . . . 75
9.3.3 Estimation par intervalle . . . . . . . . . . . . . . . . . 76
9.3.4 Quelques cas . . . . . . . . . . . . . . . . . . . . . . . 76

10 TESTS STATISTIQUES 81
10.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 81
10.2 TEST CLASSIQUE . . . . . . . . . . . . . . . . . . . . . . . . 81
10.2.1 Test relatif à une fréquence . . . . . . . . . . . . . . . 81
10.2.2 Test sur la moyenne . . . . . . . . . . . . . . . . . . . 83
10.3 TEST DE KOLGOMOROV . . . . . . . . . . . . . . . . . . . 85
Première partie
PROBABILITÉS

7
Chapitre 1
ANALYSE COMBINATOIRE

1.1 INTRODUCTION

Dans l'étude des phénomènes aléatoires, on se trouve quelques fois confronté


à l'énumération des situations aussi complexes ou simples du phénomène étu-
dié. L'étude et le développement des techniques et procédures permettant
d'énumérer ces possibilités est appelé analyse combinatoire. Ces tech-
niques iront du simple schéma (arbre, graphes) à l'établissement des formules
plus complexes et à certaines situations particulières.

1.2 CLASSIFICATION D'OBJETS

Dénition 1.2.1. L'ensemble d'objets à étudier peut être formé d'objets dif-
férents entre eux ; ils sont alors dits discernables. On les représente par des
lettres distinctes (a, b, c, . . .).

Dénition 1.2.2. L'ensemble d'objets à étudier peut être formé d'objets


identiques entre eux ; ils sont alors dits indiscernables
. On les représente
par la même lettre (a, a, a, . . .).

Exemple 1.1. On dispose de 10 pièces de monnaies dont 3 pièces de 50F , 4


pièces de 100F et 3 pièces de 500F .
On notera ces objets de la manière suivante : a, a, a, b, b, b, b, c, c, c qui est
un ensemble discernable d'objets indiscernables.

Dénition 1.2.3. L'ensemble d'objets à étudier peut être formé d'objets dont
certains sont discernables et d'autres indiscernables (cas de l'exemple précé-
dent). On obtient alors un ensemble formé de groupes discernables d'objets
indiscernables.

9
10 CHAPITRE 1. ANALYSE COMBINATOIRE

Exemple 1.2. Une urne contient n boules dont n1 sont rouges et n2 sont
noires. On suppose que les boules sont indiscernables au toucher et que les
boules de même couleur sont identiques.
Exercice 1.1. On range p boules dans n cases.
1. Présenter toutes les situations possibles relativement au caractère dis-
cernable et indiscernable des boules et des cases.
2. Combien y a-t-il de rangements si :
(a) les boules et les cases sont discernables ; chaque case ne pouvant
recevoir qu'une boule ?
(b) les boules et les cases sont discernables ; chaque case pouvant re-
cevoir un nombre quelconque de boules.
(c) les boules sont indiscernables et les cases sont discernables ; chaque
case ne pouvant recevoir qu'une seule boule ?
(d) les boules sont indiscernables et les cases sont discernables ; chaque
case pouvant recevoir un nombre quelconque de boules ?
de sorte qu'aucune case ne soit vide.
Dénition 1.2.4. Une disposition d'ojets sera dite ordonnée si deux dispo-
sitions dièrent par la nature des objets et l'ordre d'apparition de ces objets.
On représentera les dispositions ordonées par des parenthèses.
Une disposition sera dite non ordonnée si l'ordre d'apparition des objets
n'est pas pris en compte.
Exemple 1.3.
1. On considère un course de 15 chevaux et on s'intéresse au tiercé gagnant
sans ex-æquo.
Ici, on a 15 objets discernables. Un résultat est une disposition ordonnée
de trois chevaux.
2. Les étudiants de S.T.I.2 sont au nombre de 60 dont 20 lles. Ils décident
de déléguer 5 de leurs camarades assister leur camarade Tchinddébé
malade.
S'il n'y a pas de précisions supplémentaires, cette délégation sera une
disposition non ordonnée de 5 étudiants.

1.3 ARRANGEMENT

Dénition 1.3.1. On appelle arrangement (sans répétition) de n objets


discernables pris p à p, toute disposition ordonnée de p de ces n objets.
1.4. PERMUTATION 11

Exemple 1.4. Considérons une urne contenant n boules numérotées de 1 à n.


On suppose que les boules sont indiscernables au toucher. On tire au hasard
et sans remise p boules de l'urne.
On obtient ainsi une disposition ordonnée de p de ces n boules. C'est donc
un arrangement p à p de ces n boules.

Théorème 1.3.1. Le nombre d'arrangements de n objets distincts pris p à


p est égale à :
Apn = n(n − 1) . . . (n − p + 1)
p étant le nombre d'éléments d'une disposition.

Démonstration. L'ensemble fondamental comporte n objets distincts, donc


E = {a1 , a2 , . . . , an }. On veut déterminer le nombre de dispositions ordon-
nées pris p à p de ces n éléments.
On procède alors à l'idéalisation suivante :
 n possibilités pour le choix du premier élément ;
 (n − 1) possibilités pour le choix du deuxième élément ;

..
.

 (n − p + 1) possibilités pour le choix du pime élément.


On en déduit donc qu'il y a : N = n(n − 1) . . . (n − p + 1) arrangements
possibles de ces n éléments pris p à p.

Remarque 1.3.1 ( Arrangement et applications injectives ).


Prenons E = {a1 , a2 , . . . , an } et les positions {1, 2, . . . , p}. On a néces-
sairement p ≤ n.
On note que le nombre d'arrangements p à p de n objets distincts est égal
au nombre d'injections d'un ensemble ni à p éléments dans un ensemble ni
à n éléments.
Exemple 1.5. Déterminer le nombre de tiercés gagnants sans ex-æquo dans
une course de 10 chevaux.
Le nombre de tiercé gagnant est N = A310 = 10 × 9 × 8 = 720 car il s'agit
d'arranger les chevaux 3 à 3 parmi 10.

1.4 PERMUTATION

Dénition 1.4.1. On appelle permutation de objets distincts


n toute
disposition ordonnée de ces n objets (arrangement n à n de ces n objets).
12 CHAPITRE 1. ANALYSE COMBINATOIRE

Théorème 1.4.1. Le nombre de permutations de n objets distincts est égal


à:
Apn = n × (n − 1) × . . . × 2 × 1 = n!

Démonstration. Conséquence du théorème précédent avec p = n.

Convention et notation :Nous convenons de dire que 0! = 1 et compte


tenu de cette convention, on a donc :

n!
Apn =
(n − p)!

1.5 PERMUTATION AVEC RÉPÉTITION

On suppose qu'on dispose de n objets formés de r groupes d'objets iden-


tiques ; donc n = α1 + α2 + . . . + αr où le groupe i comporte αi éléments.
Le problème consiste à déterminer le nombre de permutations de ces n
objets en tenant compte des groupes d'objets identiques.
Exemple 1.6. Déterminons tous les nombres de 5 chires qu'on peut former
avec le nombre 22211.
Solution : La liste exhaustive des permutations est la suivante :

22211 22112
22121 12212
21221 12122
21212 11222
21122 12221

On vient donc d'écrire toutes les permutations avec répétition des chires
du nombre 22211.

Dénition 1.5.1. Une permutation de n objets distincts dont certains sont


identiques est appelépermutation avec répétition .

Théorème 1.5.1. On suppose qu'on dispose de n objets distincts composés


de r groupes d'objets identiques. Le groupe i comporte αi élélments tels que
n = α1 + α2 + . . . + αr .
Le nombre de permutations avec répétition de ces n objets est égal à :

n!
α1 !.α2 !. . . . .αr !
1.6. COMBINAISON 13

Exercice 1.2.
1. Etablir le théorème pour r = 2.
Indications : Utiliser des raisonnements analogues à ceux utilisés pour
les arrangements et les permutations sans répétition.
2. On dispose de cinq livres sur une étagère, de combien de façons dié-
rentes peut-on les disposer ?
3. On dispose de six boules dont trois blanches, deux noires et une grise.
De combien de façons peut-on les disposer les unes à la suite des autres ?
Remarque 1.5.1. Le terme anagramme est souvent utilisé pour des permu-
tations avec répétition des objets d'un mot donné.

1.6 COMBINAISON

1.6.1 Combinaison sans répétition


Exemple 1.7 (Introductif ). Une urne contient n boules distinctes. On tire k
boules de l'urne les unes après les autres sans remise, sans tenir compte de
l'ordre de tirage des boules. On choisit donc un sous-ensemble de k boules
de l'urne appelé combinaison de n boules k à k.

Dénition 1.6.1. Soit E un ensemble ni ;


On appelle combinaison de p éléments de E, tout sous-ensemble à p
éléments de E .

Problème
De combien de façon diérentes peut-on tirer k boules de l'urne sans
remise en ne tenant pas compte de l'ordre des tirages ?

Résolution
Le problème peut se ramener à celui d'une permutation avec répétition.
Numérotons les boules a1 , a2 , . . . , an . On dénit la fonction Z : E −→ {0, 1}.
Pour toute partie A à p éléments de E , on a :

 1 si x ∈ A

ZA (x) = (Fonction caractéristique de la partie A de E )


0 sinon

14 CHAPITRE 1. ANALYSE COMBINATOIRE

On dénit ainsi une correspondance biunivoque (bijective) entre l'en-


semble des combinaisons p à p d'éléments de E et l'ensemble des Z(A) de la
forme (0, 0, 1, . . . , 1, 0).
| {z }
n positions
Pour toute autre autre partie B de E à p éléments, Z(A) et Z(B) dièrent
par les positions des 0 et des 1 qui apparaîssent dans le n-uplets.
On peut noter clairement que à toute combinaison p à p d'éléments de
E , correspond une et une seule permutation avec répétition des objets 0 et
1 ; et réciproquement, à toute permutation avec répétition d'objets 0 et 1, il
correspond une et une seule combinaison d'éléments de E .
On établi ainsi une bijection entre les permutations avec répétition d'élé-
ments 0 et 1 et les combinaisons p à p d'éléments de E . On en déduit que
le nombre de combinaisons p à p est égal au nombre de permutations avec
répétition d'objets 0 et 1.
Théorème 1.6.1. Le nombre de combinaisons p à p de n objets distincts est
égal à :
n!
Cpn =
p!.(n − p)!
Notation : Le nombre de combinaisons p à p de n objets distincts d'un
ensemble à n éléments est noté :
 
p
Cn ou
p
n
Propriétés 1.
1. C0n = 1 et Cnn = 1 ;
2. C1n = n ;
3. Cn−p
n = Cpn , (0 ≤ p ≤ n) ;
4. Cpn + Cp+1
n n+1 .
= Cp+1
Exercice 1.3. Etablir les résultats de la propriété.

1.6.2 Combinaison avec répétition


On dispose de n boules distinctes, on tire successivement p boules avec
remise sans tenir compte de l'ordre des tirages. On obtient une disposition
non ordonnée de p objets, éventuellement avec répétition. On établit comme
au théorème 1.6.1 que le nombre de combinaisons de n objets p à p avec
répétition est égal à :
Cpn+p , n, p ∈ N
1.7. FORMULE DU BINÔME DE NEWTON 15

Remarque 1.6.1. Les formules de combinaison et permutation apparaissent


dans les développements de la forme (a1 + a2 + . . . + an )s comme coecients
des monômes correspondants.
C'est ainsi que les coecients de a2 .b3 .c dans (a + b + c)6 est 2!.3!.1!
6!
.

1.7 FORMULE DU BINÔME DE NEWTON

1.7.1 Énoncé
n
X
(a + b)n = Cni ai .bn−i
i=0

1.7.2 Conséquences

n
X
1. Cnp = 2n ;
p=0
Xn
2. Cnp (−1)p = 0
p=0

Exercice 1.4.
1. Etablir la formule du binôme de Newton par récurrence sur n.
2. Etablir ses conséquences.

1.8 ARRANGEMENTS AVEC RÉPÉTITION

Exemple 1.8 (introductif ). Une urne contient n boules distinctes ; on tire


successivement avec remise k de ces n boules. on note à chaque fois le numéro
obtenu. On obtient ainsi une suite ordonnée de k boules, avec répétition
éventuellement. Les tirages étant faits avec remise, on a à chaque tirage n
possibilités de tirer une boule donnée. On dénit ainsi des arrangements avec
répétition de ces n boules.

Dénition 1.8.1. On appelle arrangement avec répétition à de


objets
p p
n toute disposition ordonnée de p de ces n objets, avec répétition
éventuellement.
16 CHAPITRE 1. ANALYSE COMBINATOIRE

Théorème 1.8.1. le nombre d'arrangements avec répétition de n objets pris


k à k est :
nk k, n ∈ N∗

Exercice 1.5. Etablir ce théoème.


Remarque 1.8.1.
1. Considérons l'ensemble I à k éléments et l'ensemble J à n éléments. Le
nombre d'applications possibles de I dans J est nk .
2. En utilisant le raisonnement appliqué sur les arrangements avec répéti-
tion, on démontre que le cardinal du produit cartésien de p ensembles
nis est égal au produit des cardinaux des ensembles correspondants.

1.9 PERMUTATION AVEC RÉPÉTITION

Dénition 1.9.1. Une permutation avec répétition n'est autre chose qu'un
arrangement n à n de n objets avec répétition.
Chapitre 2
ESPACES PROBABILISÉS

2.1 INTRODUCTION

La notion de probabilité est facilement appréhendable par la notion de


degré de vraissemblanse (chance) qu'on rencontre dans la vie de tous les
jours. On introduit pour se faire un ensemble fondamental E des résultats
possibles relatifs à une expérience aléatoire donnée.

2.2 EXEMPLES INTRODUCTIFS

Exemple 2.1. On jette un dé équilibré dont les faces sont numérotées de 1 à


6. On observe le numéro porté par la face supérieure du dé immobilisé. On
dénit ainsi une expérience aléatoire dont les résultats possibles sont contenus
dans l'ensemble fondamental Ω = {1, 2, 3, 4, 5, 6}.
Le terme "dé équilibré" nous fait savoir que toutes les faces ont la même
"chance" d'apparaître. Pour quantier cette notion de même "chance", on
dira que chaque face a la probabilité 16 d'apparaître.
Exemple 2.2. On jette deux dés équilibrés identiques dont les faces sont nu-
mérotées de 1 à 6 ; un résultat d'une telle expérience aléatoire est un couple
(a, b) tel que :
a ∈ {1, 2, 3, 4, 5, 6} = Ω1
b ∈ {1, 2, 3, 4, 5, 6} = Ω2
L'ensemble fondamental est Ω = Ω1 × Ω2 . Card(Ω) = 36. Le degré de vrai-
semblance d'apparition d'un couple est la probabilité d'obtenir un couple et
vaut 36
1
.
Exemple 2.3. On tire p boules distinctes d'une urne qui en contient n.

17
18 CHAPITRE 2. ESPACES PROBABILISÉS

1. successivement avec remise ;


2. successivement sans remise ;
3. simultanément.
On dénit dans chacun de ces cas des expériences aléatoires pour lesquelles on
peut dénir des ensembles fondamentaux et même des notions de probabilité.

2.3 NOTION D'EXPÉRIENCE ALÉATOIRE

Dénition 2.3.1. Une expérience est dite aléatoire si et seulement si :


1. elle peut être répétée dans les mêmes conditions ;
2. il existe un nombre ni ou inni d'états que peut prendre la réalisation
de l'expérience aléatoire à chaque occurence ;
3. le réalisation de chaque évènement est aléatoire (on ne peut à priori
prévoir le résultat) ;
4. il se produit à chaque fois un seul évènement.

2.4 ÉVÈNEMENTS ALÉATOIRES

Dénition 2.4.1. Etant donnée une expérience aléatoire E , chaque résultat


possible est appeléévènement aléatoire et l'ensemble de tous les résul-
tats possibles de l'expérience aléatoire constitue l' ensemble fondamental
ou univers des possibles .
Exemple 2.4.
1. Le jet d'une pièce de monnaie :

Ω = {P ile, F ace} ;

2. Le tirage de p boules succesivement sans remise dans une urne qui en


contient n.
Dans ce dernier cas, Ω est l'ensemble de tous les arrangements p à p de
n boules.
CardΩ = Apn
Dénition 2.4.2. On appelle évènement d'une expérience aléatoire, toute
partie de l'univers des possibles.
1. Les évènements singletons sont appelés évènements élémentaires ;
2. L'ensemble vide est appelé évènement impossible ;
2.5. OPÉRATIONS SUR LES ÉVÈNEMENTS 19

3. L'univers lui-même est appelé évènement certain.


Exemple 2.5. Prenons Ω = {1, 2, 3, 4, 5, 6} ;
A = {1, 2} est un évènement de l'expérience aléatoire ;
B = {3} est un évènement élémentaire ;
C = ∅ est l'évènement impossible ;
E = Ω est l'évènement certain.

Dénition 2.4.3. Un évènement A d'une expérience aléatoire est dit réalisé


lors de l'occurence de l'expérience aléatoire si le résultat apporté appartient
à A. Dans le cas contraire, il est ditnon réalisé .

2.5 OPÉRATIONS SUR LES ÉVÈNEMENTS

2.5.1 Évènements contraires


Soit A un évènement de l'expérience aléatoire E d'univers des possibles
Ω est appelé évènement contraire de A. Il est réalisé
Ω ; l'évènement Ā = {A
si et seulement si A n'est pas réalisé.

2.5.2 Évènement A et B
L'évènement A ∩ B est appelé évènement A et B et est réalisé si et
seulement si A et B sont réaliés simultanément.

2.5.3 Évènement A ou B
L'évènement A ∪ B est appelé évènement A ou B et est réalisé si et
seulement si A est réalié ou B est réalisé ou les deux le sont simultanément.

2.5.4 Évènement A∆B


L'évènement A∆B est réalisé si et seulement si A est réalisé ou B est
réalisé, mais pas les deux simultanément.

A∆B = (A r B) ∪ (B r A) = (A ∪ B) r (B ∩ A)

2.5.5 Diérence de deux évènements


Soient A et B deux évènements, on note A r B l'évènement qui est réalisé
si et seulement si A est réalisé et B non réalisé.
20 CHAPITRE 2. ESPACES PROBABILISÉS

Propriétés 2.
P1 : A r A = ∅ ;
P2 : Ω r A = Ā ;
P3 : Ā¯ = A.

2.5.6 Évènements incomparables


Deux évènements A et B sont dits incomparables si et seulement si :

A∩B =∅

2.5.7 Lois de De Morgan

A ∪ B = Ā ∩ B̄
A ∩ B = Ā ∪ B̄

2.6 NOTION DE PROBABILITÉ

2.6.1 Expérience de Laplace


Dénition 2.6.1. Une expérience aléatoire pour laquelle l'ensemble fonda-
mental Ω est ni et telle que tous les évènements élémentaires aient la même
chance d'occurence est appelée expérience de Laplace.

Exemple 2.6.
 Jet d'une pièce équilibrée ;
 Tirage au hazard des boules dans une urne.

2.6.2 Probabilité relative à une expérience aléatoire


Considérons une expérience de Laplace E d'ensemble fondamental Ω avec
Ω = {w1 , w2 , . . . , wn }. Nous allons quantier le degré de vraisemblance de
chaque évènement. Tous les évènements élémentaires ayant le même degré de
vraisemblance, on pose que la probabilité de chaque évènement élémentaire
est égale à CardΩ
1
= n1 .
Ce nombre est appelé probabilité de l'évènement {wi }.
Nous allons poser :
CardA
P (A) = , A ⊆ Ω où
CardΩ
2.6. NOTION DE PROBABILITÉ 21

P : P(Ω) −→ R vériant les propriétés :

(i) P (A) > 0;


(ii) 0 6 P (A) 6 1;
(iii) P (Ω) = 1;
(iv) Soient A, B/A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B).

2.6.3 Axiomes de probabilité


Etant donné une expérience aléatoire E d'univers des possibles Ω, soit β
une famille de parties de Ω vériant :

(i) β 6= ∅;
(ii) β est stable pour la réunion nie ;
(iii) β est stable pour la diérence ;

β est appelé anneau des parties de Ω.


Si de plus, β est stable pour la réunion dénombrable, alors β est appelé
σ -anneau des parties de Ω.
Un anneau des parties de Ω contenant Ω est appelé algèbre.
Un σ -anneau des parties de Ω contenant Ω est appelé σ -algèbre ou tribu.
Exemple 2.7. On considère l'expérience aléatoire d'ensemble fondamental Ω.
Alors, β = P(Ω) est une tribu (σ -algèbre).

Dénition 2.6.2. (Ω, β) est un espace probabilisable si et seulement si β


est une tribu des parties de Ω.

Dénition 2.6.3. Le triplet (Ω, β, P ) est un espace probabilisé si et seule-


ment si :
1. (Ω, β) est un espace probabilisable ;
2. P est une application dénit de β dans R vériant les propriétés sui-
vantes :
(a) ∀A ∈ β, 0 6 P (A) 6 1 ;
(b) P (Ω) = 1 ;
(c) Soient A, B/A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B).
L'application P est appelée probabilité sur β et pour tout A appartenant à
β , P (A) est appelée probabilité de l'évènement A.
22 CHAPITRE 2. ESPACES PROBABILISÉS

Exemple 2.8 (Loi uniforme ou probabilité de Laplace). Considérons une expé-


rience aléatoire de Laplace ayant pour ensemble fondamental Ω = {w1 , w2 , . . . , wn } ;
prenons comme tribu β = P(Ω).
Considérons l'application
P : β −→ R
CardA
A 7−→
CardΩ
Le triplet (Ω, β, P ) est un espace probabilisé ni car Ω est ni.
Propriétés 3. Considérons (Ω, β, P ) un espace probabilisé, on a :
1. P (∅) = 0 ;
2. P (Ā) = 1 − P (A) ;
3. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ;
4. Si A ⊆ B , alors P (A) 6 P (B) ;
5. Si Ω est ni avec Ω = {w1 , w2 , .P
. . , wn };
si on pose Pi = P ({wi }), alors i=1 Pi = 1 ;
n

6. Si (Ω, β, P ) est un espace probabilisé ni, alors


X
∀A ∈ β, P (A) = P ({w})
w∈A
.
Démonstration.
1.

∅∩∅=∅
⇒ P (∅ ∪ ∅) = P (∅) + P (∅) = P (∅)
∅∪∅=∅
⇒ P (∅) = 0
2.

A ∩ Ā = ∅
⇒ P (A ∪ Ā) = P (A) + P (Ā) = P (Ω) = 1
A ∪ Ā = Ω
⇒ P (Ā) = 1 − P (A)
3.

A ∪ (B r A) = A ∪ B
⇒ P (A ∪ B) = P (A) + P (B r A)
A ∩ (B r A) = ∅

B = (B r A) ∪ (A ∩ B)
⇒ P (B) = P (B r A) + P (A ∩ B)
∅ = (B r A) ∩ (A ∩ B)

d'où P (A ∪ B) = P (A) + P (B) − P (A ∩ B)


2.7. PROBABILITÉ CONDITIONNELLE 23

2.7 PROBABILITÉ CONDITIONNELLE

Exemple 2.9 (introductif ). Une urne contient trois boules blanches et trois
boules noires. on tire au hazard et l'une après l'autre deux boules.
1. Construire l'espace probabilisé associé à cette expérience aléatoire. On
précisera l'ensemble fondamental, la tribu utilisée et on donnera de
façon explicite la probabilité.
2. Quelle est la probabilité d'avoir une boule blanche au deuxième tirage ?
Solution.
1. L'ensemble fondamental Ω est l'ensemble des couples de boules. On a
donc :
Card(Ω) = A26 = 6 × 5 = 30
β = P(Ω)
Le tirage étant fait au hazard, tous les couples ont la même probabi-
lité d'apparaître, on dit ici que tous les évènements élémentaires sont
équiprobables.
CardA
P (A) =
CardΩ
On construit ainsi l'espace probabilisé (Ω, β, P ).
2. La probabilité cherchée dépend du premier tirage.

Dénition 2.7.1. Soit (Ω, β, P ) un espace probabilisé, soit A un évènement


tel que P (A) =
6 0, soit B un évènement quelconque, on note PA (B) ou P B
(lire probabilité de sachant
B A), le réel :
A

P (A ∩ B)
PA (B) =
P (A)
Propriétés 4.
1. Si P (A) 6= 0, alors P (A ∩ B) = PA (B).P (A).
2. De façon générale,

P (A ∩ B ∩ C) = P (A).PA (B).PA∩B (C)

Exercice 2.1.
On jette deux dés équilibrés identiques et on s'interresse à la somme des
numéros apportés.
Quelle est la probabilité d'obtenir la somme 8 sachant que les numéros
apportés sont pairs ?
24 CHAPITRE 2. ESPACES PROBABILISÉS

Exercice 2.2.
Dans une urne se trouve six boules dont quatre blanches et deux noires.
On tire successivement sans remise deux boules de l'urne.
Quelle est la probabilité d'obtenir des boules blanches dans tous les cas ?

2.8 ÉVÈNEMENTS INDÉPENDANTS

Dénition 2.8.1. Deux évènements A et B sont dits indépendants si et


seulement si :
P (A ∩ B) = P (A).P (B)

Conséquence
Si A et B sont indépendants, alors :

PA (B) = P (B) et PB (A) = P (A)

La notion d'indépendance est symétrique et on peut la dénir pour un nombre


quelconque d'évènements ; on parlera alors d'évènements mutuellement in-
dépendants (2 à 2 indépendants).
Dénition 2.8.2. Une suite d'évènements A1 , A2 , . . . , An est dite collec-
tivement exhaustive si et seulement si dans (Ω, P(Ω)) ,
1.
n
[
Ω= Ai
i=1

2.
Ai ∩ Aj = ∅; i 6= j

2.9 FORMULE DE BAYES

Exemple 2.10 (introductif ). On considère trois urnes U1 , U2 , et U3 contenant


respectivement les boules blanches et les boules noires dans les proportions
suivantes :
(2, 1), (2, 2), (1, 2)
Problème : On tire une urne au hazard et on tire de l'urne choisie une boule.
1. Quelle est la probabilité de tirer une boule noire ?
2. Quelle est la probabilité pour que la boule tirée vienne de l'urne U1 ?
2.9. FORMULE DE BAYES 25

Solution.
Soit A l'évènement : " Tirer une boule noire" et Ui l'évènement : " Tirer
l'urne Ui ".
La deuxième question peut être reformulée comme suit : Quelle est la
probabilité de tirer une boule de l'urne U1 sachant que cette boule
est noire ?
Toutes les urnes ont la même chance d'être tirée, on a donc :
1
P (U1 ) = P (U2 ) = P (U3 ) =
3
On a également :
1 1 2
PU1 (A) = , PU2 (A) = , PU1 (A) =
3 2 3
A = (A ∩ U1 ) ∪ (A ∩ U2 ) ∪ (A ∩ U3 )
P (A ∩ Ui )
PUi (A) = ⇒ P (A ∩ Ui ) = PUi (A).P (Ui )
P (Ui )
d'où
3
X
P (A) = PUi (A).P (Ui )
i=1

On en déduit que :
PU (A).P (U1 )
PA (U1 ) = P3 1 , Formule de Bayes
i=1 P Ui
(A).P (Ui )
Exemple 2.11 (de généralisation). On suppose qu'on dispose de n urnes U1 ,
U2 , . . . , Un comportant des boules blanches et des boules noires. On suppose
que l'urne Ui a la probabilité πi d'être tirée et on note P (Ui ) = πi . On
suppose également que l'urne Ui a une proportion de pi boules blanches et
de qi boules noires.
On a donc : n
X
pi + qi = 1 , ∀i et πi = 1
i=1

Soit A l'évènement : " Tirer une boule noire" et Uj l'évènement : " Tirer
l'urne Uj ".
La formule généralisée de Bayes est la probabilité de Uj sachant A et elle
vaut :

PU (A).P (Uj )
PA (Uj ) = P3 j
i=1 PUi (A).P (Ui )
26 CHAPITRE 2. ESPACES PROBABILISÉS

Exercice 2.3. Dans une usine de production des boucles d'oreilles, se trouve
quatres machines M1 , M2 , M3 et M4 . Les proportions de production de ces
machines sont respectivement 10%, 20%, 30% et 40%. Les proportions de
pièces défectueuses sont respectivement 2%,1%,4% et 2%.
1. Quelle est la probabilité pour qu'une pièce tirée soit défectueuse ?
2. On tire une pièce et on constate qu'elle est défectueuse, quelle est la
probabilité qu'elle provienne de la machine M1 .
Chapitre 3
VARIABLES ALÉATOIRES

3.1 VALEURS ALÉATOIRES

Exemple 3.1.
1. Jet d'un dé équilibré dont les faces sont numérotées de 1 à 6.
Les valeurs 1, 2, 3, 4, 5 et 6 sont appelées valeurs aléatoires (résultats
d'une variables aléatoire).
2. L'erreur commise lors de la lecture d'une valeur donnée sur un appareil
de mesure.
Dénition 3.1.1. On appelle variable aléatoire réelle (v.a.r.) sur Ω, toute
application
X : Ω −→ R
w 7−→ X(w)
Si X(Ω) = {X(w), w ∈ Ω} est ni ou inni dénombrable, la variable
aléatoire (v.a.) X est dite discrète.
Une variable aléatoire (v.a.) X est dite continue
si X(Ω) contient au
moins un intervalle ouvert non vide.

3.2 LOI DE PROBABILITÉ D'UNE V.A.R.

3.2.1 Cas discret


Soit (Ω, β, P ) un espace probabilisé et soit X une variable aléatoire réelle
(v.a.r.) telle que X(Ω) = {x1 , x2 , . . . , xn , . . . }. X(Ω) est au plus inni
dénombrable. Supposons X(Ω) ordonné, c'est-à-dire x1 < x2 < . . . < xn <
...

27
28 CHAPITRE 3. VARIABLES ALÉATOIRES

On a :
X −1 (R) = {w ∈ Ω / X(w) ∈ R} = Ω

Notation 1.

− {X = x} = {w ∈ Ω / X(w) = x}
− {X < x} = {w ∈ Ω / X(w) < x}
− {a < X < b} = {w ∈ Ω / a < X(w) < b}

Distribution de la loi de X
Notons Pi , la probabilité P (X = xi ) ;

Propriétés 5.
1. 0 6 Pi 6 1.
2. i=1 Pi = 1 (Pour X nie)
Pn

ou
P∞
i=1 Pi = 1 (Pour X innie dénombrable)

3. PX (A) = x∈A Px .
P

Dénition 3.2.1. PX est appelée loi de probabilité de X ou distribution


de probabilité de X .
Exemple 3.2.

1.
Soit X(Ω) = {0, 1, 2, . . . , n}, n ∈ N∗

P (X = i) = Cin .pi .(1 − p)n−i

2.
X(Ω) = N, soit λ > 0

λi
P (X = i) = e−λ .
i!
Exercice 3.1. Montrer que dans les deux cas de l'exemple précédent, PX est
une loi de probabilité de X .
3.2. LOI DE PROBABILITÉ D'UNE V.A.R. 29

Diagramme en bâton
Soit X une variable aléatoire réelle (v.a.r.) discrète telle que X(Ω) =
{x1 , x2 , . . . , xn , . . . }.
Posons P (X = xi ) = Pi , on a le diagramme en bâton suivant :

Fonction de repartition d'une v.a. discrète


Dénition 3.2.2. Soit X une variable aléatoire réelle (v.a.r.) sur un en-
semble ω ; on appelle fonction de répartition de X , l'application :
F : R −→ R
x 7−→ P (X < x)
Soit donc X(Ω) = {x1 , x2 , . . . , xn } ; n ∈ N∗
supposons x1 < x2 < . . . < xn ;
∗ x 6 x1 ⇒ F (x) = P (X < x) = 0;
∗ x ∈]x1 , x2 ] ⇒ F (x) = P (X < x) = p1 ;
∗ x ∈]x2 , x3 ] ⇒ F (x) = P (X < x) = p1 + p2 ;
..
.
X i
∗ x ∈]xi , xi+1 ] ⇒ F (x) = P (X < x) = pj ; i = 1, 2, . . . , n
j=1
∗ x > xn ⇒ F (x) = 1.
30 CHAPITRE 3. VARIABLES ALÉATOIRES

Propriétés 6.
lim F (x) = 0 ; lim F (x) = 1
x→−∞ x→+∞
lim F (x) = 0 = F (x1 ) ; lim− F (x) = p1 = F (x2 )
x→x−
1 x→x2

F est croissante et discontinue, mais continue à gauche.

Propriétés 7.
1. Toute fonction de répartition F est croissante ;
2. Toute fonction de répartition F est continue à gauche :

∀a ∈ R, lim F (x) = F (a)


x→a−

3. 0 6 F (x) 6 1 ;
4. P (a 6 X 6 b) = F (b) − F (a).

3.2.2 Cas continu


Distribution des probabilités d'une v.a. continue
Dénition 3.2.3. On appelle distribution de probabilité d'une v.a. conti-
nue X , une fonction f : R −→ R satisfaisant :
1. f (x) > 0, ∀x ∈ R ;
Rb
2. P (a 6 X 6 b) = a f (x)dx ;
R +∞
3. −∞ f (x)dx = 1.
f est appelée densité de probabilité de X .
Exemple 3.3. Prenons

 1 + x si x ∈ [−1, 0]

f (x) = 1 − x si x ∈ [0, 1]
0 sinon

Montrons que f est la densité de probabilité d'une v.a. X .

∗ f (x) > 0, ∀x ∈ R
Z +∞ Z −1 Z 0 Z 1 Z +∞
∗ f (x)dx = f (x)dx + f (x)dx + f (x)dx + f (x)dx
−∞ −∞ −1 0 1
Z 0 Z 1
= (1 + x)dx + (1 − x)dx = 1
−1 0
3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R. 31

Exercice 3.2. Soit


e−x si x > 0

f (x) =
0 sinon
1. Montrer que f est la densité de probabilité d'une v.a. continueX .
2. Dénir alors la probabilité relative à un intervalle [a, b].

Fonction de répartition d'une v.a. continue


Dénition 3.2.4. On appelle fonction de répartition de la v.a. X de
densité f , la fonction

F : R −→ R Z x
x 7−→ P (X < x) = f (t)dt
−∞

Exercice 3.3. Déterminer les fonctions de répartition des variables aléatoires


de densité de probabilité f dans chacun des cas :

 1 + x si x ∈ [−1, 0]

e si x > 0
 −x
f (x) = 1 − x si x ∈ [0, 1] et f (x) =
0 sinon
0 sinon

3.3 CARACTÉRISTIQUES DE TENDENCE

CENTRALE D'UNE V.A.R.

3.3.1 Espérance mathématique


Cas discret
Dénition 3.3.1. On appelle espérance mathématique d'une v.a.r. dis-
crète X par rapport à X(Ω) = {x1 , x2 , . . . , xN , . . .} tel que P (X = xi ) = Pi ,
le réel
N
X
E(X) = xi .Pi où (N ∈ N ou N = +∞)
i=1

Exemple 3.4.
1. P (X = xi ) = 1
6
, i = 1, 2, . . . , 6.

1 1 1 1 1 1 21
E(X) = 1 × +2× +3× +4× +5× +6× =
6 6 6 6 6 6 6
32 CHAPITRE 3. VARIABLES ALÉATOIRES

2. Loi de Poisson
X suit la loi de probabilité P(λ), λ > 0 ; X(Ω) = N.
+∞
X
E(X) = i.pi
i=0
+∞
X
−λ λi
= i.e .
i=0
i!
+∞
−λ
X λi
= e . i.
i=1
i!
+∞
−λ
X λi−1
= λ.e .
i=1
(i − 1)!
+∞ j
−λ
X λ
= λ.e .
j=0
j!
= λ.e−λ .eλ
= λ

Cas continu
Soit X une v.a. continue de densité f .

Dénition 3.3.2. On appelle espérance mathématique de X , le réel , s'il


existe : Z +∞
E(X) = xf (x)dx
−∞

Exemple 3.5. Soit la densité de probabilité d'une v.a. X suivante :

e si x > 0
 −x
f (x) =
0 sinon
R +∞ R +∞
On a : E(X) = −∞
xf (x)dx = 0
xe−x dx = 1
Exercice 3.4. Soit la fonction :
Z +∞
Γ(x) = tx−1 e−t dt
0

Établir que :
1. Γ converge pour x > 0 ;
3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R. 33

2. Γ(x + 1) = xΓ(x) ;
3. ∀n ∈ N, Γ(n + 1) = n!
Propriétés 8.
1. L'espérance mathématique d'une v.a. constante est égale à cette même
variable aléatoire :
E(a) = a, si X = a
2. Si X et Y sont deux variables aléatoires réelles, soient α, β ∈ R ; alors :
E(αX + βY ) = αE(X) + βE(Y )

3.3.2 Densité de probabilité d'une fonction de v.a.r.


Soit ϕ une application :
ϕ : R −→ R
x 7−→ ϕ(x)
Soit X une v.a.r. (discrète ou continue) de densité f ; on pose Y = ϕ(X).
Y est une nouvelle v.a.r. et on se propose de déterminer la densité de Y .

Fonction de répartition de Y

G(y) = P (Y < y) = P (ϕ(X) < y)


Supposons sans nuire à la généralité que ϕ est bijective ;
Alors, G(y) = P (X < ϕ−1 (y))
d'où, G(y) = FX (ϕ−1 (y))
Supposons que FX (la fonction de répartition de X ) est dérivable presque
partout dans R. Sachant que
dFX (x)
f (x) =
dx
on en déduit la fonction de répartition de Y :
g(y) = FX0 (ϕ−1 (y)).(ϕ−1 )0 (y)
1 1
= f (ϕ−1 (y)). 0 −1
car (ϕ−1 )0 (y) = 0
ϕ ◦ ϕ (y) ϕ ◦ ϕ−1 (y)
et puisque g(y) est positive, on a :
1
g(y) = f (ϕ−1 (y)). 0 −1
|ϕ (ϕ (y))|
34 CHAPITRE 3. VARIABLES ALÉATOIRES

Exemple 3.6 (d'application). Soit la v.a. X de densité de probabilité :


e xi x > 0
 −x
f (x) =
0 sinon
On donne
Y = 3X + 9 = ϕ(X)
Déterminons la densité de probabilité de Y
On a :
Y −9
Y = 3X + 9 = ϕ(X) ⇒ ϕ−1 (Y ) =
3
Donc  1 y−9
3
e−( 3 ) si y − 9 > 0 c'est-à-dire y > 9
0 sinon
Exercice 3.5. Considérons la v.a. X de densité de probabilité :
e xi x > 0
 −x
f (x) =
0 sinon
On donne
Y = X 2 = ϕ(X)
Déterminer la densité de probabilité de Y
Remarque 3.3.1. Les formules de g(Y ) obtenues sous les hypothèses ϕ bijectif
et dérivable et FX dérivable restent valablent si la fonction ϕ est bijective
par intervalle.

3.3.3 Espérance mathématique d'une fonction de v.a.


Soit X une v.a.r. continue ou discrète, soit ϕ : R −→ R une application
continue par morceau telle que :
ϕ : R −→ R
x 7−→ ϕ(x)
On pose
Y = ϕ(X)
Dénition 3.3.3. On a :
Z +∞
E(ϕ(X)) = ϕ(x)f (x)dx (cas continu)
−∞
N
X
E(ϕ(X)) = ϕ(xi )Pi (cas discret)
i=1
3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R. 35

Cas particulier
Soit X une v.a. de moyenne (espérance mathématique) X̄ = E(X) ; po-
sons ϕ(X) = (X − X̄)2 . On a :
Z +∞
E(ϕ(X)) = (x − X̄)2 f (x)dx (cas continu)
−∞

Dénition 3.3.4. On appelle variance


de la v.a. X , le réel, s'il existe :
Z +∞
V ar(X) = (x − X̄)2 f (x)dx (cas continu)
−∞
N
X
V ar(X) = (xi − X̄)2 Pi (cas discret)
i=1

Propriétés 9 (de la variance). Soit X et Y deux v.a.r., soient α, β ∈ R


1. V ar(αX) = α V ar(X) ;
2

2. Si X et Y sont indépendantes, alors :


V ar(αX + βY ) = α2 V ar(X) + β 2 V ar(Y )

3.3.4 Quantile d'ordre α , Mode , Médiane


Soit X une v.a.r. de fonction de répartition F , soit α ∈ [0, 1] ;
Dénition 3.3.5. quantile d'ordre α, la modalité u
On appelle α telle que
F (u ) = α.
Si α = , le quantile est appelé médiane.
α
1
2

Quelques quantiles particuliers


On appelle
 quartile d'ordre k, le quantile dénit par :
k
F (uk ) = avec k = 0, 1, 2 ou 3.
4
 décile d'ordre k, le quantile dénit par :
k
F (uk ) = avec k = 0, 1, 2, . . . , 9.
10
..
.
36 CHAPITRE 3. VARIABLES ALÉATOIRES

 centile d'ordre k, le quantile dénit par :


k
F (uk ) = avec k = 0, 1, 2, . . . , 100.
100
Chapitre 4
VARIABLES ALÉATOIRES A
DEUX DIMENSIONS

4.1 CAS DISCRET

Soient X et Y deux variables aléatoires dénies sur le même univers Ω


telles que :

X(Ω) = {x1 , x2 , . . . , xn } ; x1 < x2 < . . . < xn


Y (Ω) = {y1 , y2 , . . . , yn } ; y1 < y2 < . . . < yn
et P (X = xi et Y = yi ) = Pij

Dénition 4.1.1. Le couple (X, Y ) est appelé couple de variables aléa-


toires
de loi conjointe Pij avec i = 1, 2, . . . , n et j = 1, 2, . . . , m (dénie
comme si haut).

Loi conjointe
XY y1 y2 . . . yj . . . ym Loi marginale de X
x1 P11 P12 . . . P1j . . . P1m P1.
x2 P21 P22 . . . P2j . . . P2m P2.
.. .. .. .. .. ..
. . . . . .
xi Pi1 Pi2 . . . Pij . . . Pim Pi.
.. .. .. .. .. ..
. . . . . .
xn Pn1 Pn2 . . . Pnj . . . Pnm Pn.
Loi marginale de Y P.1 P.2 . . . P.j . . . P.m

37
38 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

On a :
m
X n
X
Pi. = Pij et P.j = Pij
j=1 i=1
Pi. = P (X = xi ) indépendament de Y
P.j = P (Y = yi ) indépendament de X
Propriétés 10.
1. 0 6 Pij 6 1 ;
2. j=1 Pij = 1 ;
Pn Pm
Pi=1
3. n
et j=1 P.j = 1.
Pm
i=1 P i. = 1

4.1.1 Probabilités conditionnelles


Probabilité de Y sachant xi
On va noter Z = Y /xi la variable aléatoire de Y sachant xi et on aura :
Pij
P (Z = yj ) = P (Y = yi /X=xi ) =
Pi.

Probabilité de X sachant yj
On va noter W = X/Yj la variable aléatoire de X sachant yj et, de même
que précédemment, on aura :
Pij
P (W = xi ) = P (X = xi /Y =yj ) =
P.j

4.1.2 Indépendance de couple de variables aléatoires


Dénition 4.1.2. Les variables aléatoires X et Y sont dites indépendantes
si et seulement si :
P (X/Y ) = P (X) et P (Y /X ) = P (Y )

Conséquence
Si X et Y sont deux variables indépendantes, alors :
Pij = Pi. × P.j
Remarque 4.1.1.
Pij = Pi. × Pj/i
4.2. CAS CONTINU 39

4.1.3 Covariance d'un couple de variables aléatoires


Dénition 4.1.3. Soient (X, Y ) un couple de variables aléatoires de loi
covariance du couple
conjointe pij . On appelle (X, Y ), le nombre :
cov(X, Y ) = E[(X − X̄).(Y − Ȳ )]
ce qui donne :
n X
X m
cov(X, Y ) = (xi − X̄).(yj − Ȳ ).Pij
i=1 j=1

4.1.4 Formule de K÷ning


On a n X
m
X
E(X, Y ) = xi .yj .Pij
i=1 j=1

d'où on déduit la formule de K÷ning :


cov(X, Y ) = E(X.Y ) − E(X).E(Y )
Conséquence
1. Si X et Y sont indépendantes, alors
E(X.Y ) = E(X).E(Y )
2. Si X et Y sont indépendantes, alors Cov(X, Y ) = 0. Mais la réciproque
n'est pas vraie ;
3. V ar(X) = Cov(X, X) = E(X 2 ) − (E(X))2 .

4.2 CAS CONTINU

4.2.1 Loi conjointe


Soient X et Y deux variables aléatoires continues sur le même univers Ω.

P (x < X < x + dx , y < Y < y + dy) = f (x, y)dxdy


40 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

1. La fonction f est Riemann intégrable ;


2. f (x, y) > 0 ;
3. f (x, y)dxdy = 1.
RR
R2
f (x, y) est appelée densité conjointe du couple (X, Y ).

4.2.2 Lois marginales


Loi marginale de X
Dénition 4.2.1. Z +∞
fX (x) = f (x, y)dy
−∞

Loi marginale de Y
Dénition 4.2.2. Z +∞
fY (y) = f (x, y)dx
−∞

4.2.3 Lois conditionnelles


Loi de X sachant Y
f (x,y)
si fY (y) 6= 0

 fY (y)
fX/Y (x) =
0 sinon

Loi de Y sachant X
f (x,y)
si fX (x) 6= 0

 fX (x)
fY /X (y) =
0 sinon

Propriétés 11 (générales de la variance).


Soient X et Y deux variables aléatoires réelles, α, β ∈ R ;
R +∞
1. V ar(X) = −∞ (x − X̄)2 f (x)dx ;
2. V ar(αX + βY ) = α2 V ar(X) + β 2 V ar(Y ) + 2αβCov(X, Y ) ;
3. Formule de K÷ning : V ar(X) = E(X ) − [E(X)] . 2 2
4.3. MOMENT CENTRÉ ET MOMENT NON CENTRÉ 41

4.3 MOMENT CENTRÉ ET MOMENT NON

CENTRÉ

4.3.1 Moment centré d'ordre k


Dénition 4.3.1. Soit X une variable aléatoire ; on appelle moment centré
d'ordre k de X noté M , le nombre s'il existe :
k

Mk = E[(X − X̄)k ] , k ∈ N

Propriétés 12.
1. M1 = 0 ;
2. M2 = V ar(X).

4.3.2 Moment non centré d'ordre k


Dénition 4.3.2. Soit X une variable aléatoire ; on appelle moment non
centré d'ordre k de X noté µk , le nombre :

µk = E(X k ) , k ∈ N

4.3.3 Relation entre moment centré et moment non cen-


tré

Mk = E[(X − X̄)k ] , k ∈ N
k
X
= E[ Cpk .(−1)p .X̄ p .X k−p ]
p=0
k
X
= Cpk .(−1)p .X̄ p .E[X k−p ] d'où
p=0
k
X
Mk = Cpk .(−1)p .X̄ p .µk−p
p=0
42 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

4.4 FONCTIONS CARACTÉRISTIQUES ET

FONCTIONS GÉNÉRATRICES

4.4.1 Fonctions caractéristiques


Dénition 4.4.1. On appelle fonction caractéristique de la variable aléa-
toire réelle ou constante X , la fonction :

g : R −→ R
t 7−→ E(etX )

Cas où X est continue de densité f


Z +∞
g(t) = f (x)etx dx
−∞

Cas où X est discret de loi de probabilité P

N
X
g(t) = etxi Pi (N ni ou inni)
i=0

Propriétés 13.
1. g(0) = 1 ;
R +∞
2. g 0 (t)|t=0 = −∞
xf (x)dx = E(X) ;
R +∞
3. g 00 (t)|t=0 = −∞
x2 f (x)dx = E(X 2 ) d'où

dk g(X)
= E(X k )
dX

4.4.2 Fonction génératrice


Dénition 4.4.2. On appelle fonction génératrice de la variable aléatoire
réelle ou constante X , la fonction :

φ : R −→ R
u 7−→ E(eiuX )
4.5. COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLATISSEMENT 43

Remarque 4.4.1. On dénit la fonction génératrice par φX (u) = E(uX ), u >


0. En eet :

uX = eX ln(u)
= evX en posant v = ln(u) donc
φ(u) = E(euiX )
= E[(eiu )]X
= E(v X ) en posant v = eiu

Exercice 4.1. On considère la variable aléatoire X suivant la loi de Gauss de


densité :
1 x2
f (x) = √ e− 2 , x ∈ R

1. Déterminer les fonctions caractéristique et génératrice de X ;
2. En déduire tous les moments centrés et non centrés de X .
Exercice 4.2. Mêmes questions que prédémment pour les variables aléatoires
Y et Z ayant respectivement les densités :
si x > 0
 −x
 e
1. f (x) =
0 sinon

n
2. P (X = n) = e−λ . λn! , n ∈ N (Loi de poisson)

4.5 COEFFICIENT D'ASSYMÉTRIE ET CO-

EFFICIENT D'APLATISSEMENT

Dénition 4.5.1. On appelle coecient d'assymétrie d'une variable aléa-


toire
p X admettant une moyenne nie E(X) et un écart-type ni σX =
var(X), le réel :

E[(X − E(X))3 ]
γ1 = 3
σX
Dénition 4.5.2. On appelle coecient d'aplatissementd'une variable
aléatoire X admettant une moyenne nie E(X) et un écart-type ni σX , le
réel :

E[(X − E(X))4 ]
γ2 = 4
−3
σX
44 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

Les coecients d'assymétrie et d'aplatissement permettent d'évaluer les


degrés de symétrie et d'aplatissement d'une distribution. D'autres coecients
dénissent le degré d'élement.

Propriétés 14.
1. γ1 = 0 si X est symétrique par rapport à la normale. Mais, la réciproque
n'est pas vraie.
2. Si γ1 > 0, la distribution est plus étalée vers la droite. Si γ1 < 0, la
distribution est plus étalée vers la gauche.
3. γ2 = 0 si la distribution est normale (La condition γ2 = 0 est une
condition nécessaire mais pas susante de normalité, car on peut avoir
γ2 = 0 pour une distribution qui n'est pas normale.)

4.6 DENSITE DE PROBABILITÉ D'UNE FONC-

TION DE COUPLE DE V.A.

Soit (X, Y ) un couple de variables aléatoires réelles de densité conjointe


f (x, y). On pose :
Z1 = φ1 (X, Y )
Z2 = φ2 (X, Y )
On a la transformation réciproque suivante :

X = ψ1 (Z1 , Z2 )

Y = ψ2 (Z1 , Z2 )
La densité conjointe de (Z1 , Z2 ) est donnée par :

g(z1 , z2 )dz1 dz2 = f (x, y)|dx.dy|


γx γx
γz γz2

1
= f (x, y) dz1 .dz2
γy γy


γz1 γz2

d'où on déduit :

γx γx

γz1 γz2
g(z1 , z2 ) = f (ψ1 (z1 , z2 ), ψ2 (z1 , z2 )) dz1 .dz2
γy γy


γz1 γz2

Les lois de Z1 et Z2 sont obtenues comme lois marginales de (Z1 , Z2 ).


4.6. DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLE DE V.A. 45

Application
On dénit la densité d'un couple de variable aléatoire (X, Y ) par :

 (y − x)e−(y−x) pour 0 6 x 6 1 et x 6 y

f (x, y) =
0 sinon

Déterminons la densité g de la variable aléatoire Z1 = X + Y .


Etant donné qu'on a qu'une seule fonction, il faut donc la compléter par
une fonction qui soit bijective pour obtenir un couple de variable aléatoire.
Prenons par exemple Z2 = Y . On a :
γx γx
γz γz2
= 1 où J est le jacobien
1

γy γy
J

γz1 γz2

On a également :

Y = Z2 = ψ2 (Z1 , Z2 ) et X = Z1 − Z2 = ψ1 (Z1 , Z2 )

g(Z1 , Z2 ) = f (Z1 − Z2 , Z2 )
Z +∞
gZ1 (x) = g(Z1 , Z2 )dZ2
−∞
46 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS
Chapitre 5
MODÈLES PROBABILISTES
DISCRETS

5.1 VARIABLE DE BERNOULLI

Dénition 5.1.1. Une variable aléatoire dont l'ensemble des valeurs est ré-
duite à deux éventualités est appeléevariable de Bernoulli .

Exemple 5.1.

1. Jet d'une pièce de monnaie : Ω = {P ile, F ace} ;


2. Considérons ξ , une expérience aléatoire quelconque d'espace probabilisé
associé (Ω, β, P ) ;
Soit A un évènement, on construit la variable aléatoire X de la façon
suivante :
1 si A esr réalisé

X(w) =
0 sinon

X(Ω) = {0, 1} est une variable de Bernoulli

Formalisation d'une variable de Bernoulli


La variable de Bernoulli sera assimilée à la variable X qui prend la valeur
1 avec un p et la valeur 0 avec un q .
On notera que X suit la probabilité P .
X = 1 est appelé succès et X = 0 est appelé échec.

E(X) = p, V ar(X) = E(X 2 ) − [E(X)]2 = pq et σX = pq .

47
48 CHAPITRE 5. MODÈLES PROBABILISTES DISCRETS

5.2 VARIABLE BINOMIALE

Soit E une expérience aléatoire, soient (Ω, β, P ) l'espace probabilisé as-


socié et A un évènement de probabilité p. On répète n fois l'épreuve E dans
les mêmes conditions ; on note X la variable aléatoire qui associe le nombre
de réalisation de A.

Valeur de X(Ω)
X(Ω) = {0, 1, . . . , n}

Loi de X
Notons P (X = i), la probabilité de i réalisations de A ;
 X = 0 ⇒ A n'est pas réalisé ;
P (X = 0) = (1 − p)n = q n
 X = 1 ⇒ A est réalisé une fois ;
P (X = 1) = np(1 − p)n−1
 X = i ⇒ A est réalisé i fois ;
P (X = i) = Cin pi .q n−i
On dira que X suit la loi binomiale de paramètres n et p (B(n, p)).
Exercice 5.1.

1. Démontrer que la probabilité qu'il y ait i succès est Cin pi .q n−i pour n
épreuves ;
2. Tracer le diagramme en bâton de la loi binomiale pour :
 n = 6 et p = 0, 1 ;
 n = 6 et p = 0, 5 ;
 n = 6 et p = 0, 7 ;
 n = 6 et p = 0, 9 ;
Evaluer pour chaque cas, les coecients d'asymétrie et d'aplatissement.

Propriétés 15. On suppose que X B(n, p) (X suit la loi binomiale de


paramètres n et p).

1. L'espérance mathématique de la loi binomiale est : E(X) = np ;



2. V ar(X) = npq et σX = npq ;
3. Mode de X
5.3. LOI HYPERGÉOMÉTRIQUE 49

Supposons que le mode de X est égal à x ; alors :

Px = P (X = x) = Cxn px .q n−x
Px+1 n−x p
= . <1
Px x+1 q
Px n−x+1 p
et = . >1
Px−1 x q

En résolvant ces deux inégalités, on a :

np − q < x < np + p

 Si np − q et np + p ne sont pas des entiers, alors le mode est l'unique


entier entre np − q et np + p.
 Si np − q est entier, alors np + p est entier et, np − q et np + p sont
les deux valeurs modales de la distribution binomiale.
4.
gX (u) = (q + peu )n (Fonction génératrice)

φX (u) = (q + peiu )n (Fonction caractéristique)

Exercice 5.2. Etablir ces résultats.

5.3 LOI HYPERGÉOMÉTRIQUE

La loi binomiale correspond à un tirage avec remise (on travaille dans les
mêmes conditions). Le cas de tirage sans remise correspond à une variable
appelée variable hypergéométrique.

Construction d'une variable hypergéométrique


On considère une urne contenant M boules blanches et (N − M ) boules
noires. On tire successivement n boules de l'urne sans remise. Soit X la
variable aléatoire qui associe le nombre de boules blanches parmi les n tirées.
Proportion de boules blanches : p = M N
.
On note X B(N, M, n) et on lit X suit la loi hypergéométrique
de paramètres N, M et n.
X(Ω) = {0, 1, . . . , n}
50 CHAPITRE 5. MODÈLES PROBABILISTES DISCRETS

Théorème 5.3.1 (Loi de X ).


n−x
CxM .CN −M
P (X = x) = n
CN

Propriétés 16.
1. Moyenne : E(X) = np = n. M
N
;
2. Variance : V ar(X) = N −n
N −1
.npq .

Exercice 5.3. Etudier le mode de cette distribution.

5.4 LOI DE POISSON P (λ), (λ > 0)


Dénition 5.4.1. C'est une variable aléatoire caractérisée par X(Ω) = N.
Elle a pour loi :
λi
P (X = i) = eλ .
i!
Propriétés 17.
1. Moyenne : E(X) = λ ;
2. Variance : V ar(X) = λ.

Exercice 5.4.
1. Calculer les coecients d'assymétrie et d'aplatissement de la loi de
Poisson ;
2. En utilisant la technique des quotients, déterminer les modes de la loi
de Poisson.
Chapitre 6

MODÈLES PROBABILISTES
CONTINUS

6.1 LOI UNIFORME SUR [a, b]


Dénition 6.1.1. On appelle loi uniforme sur [a, b], a < b, la loi de densité
de probabilité f dénie par :

1
si x ∈ [a, b]

 b−a
f (x) =
0 sinon

Propriétés 18.
Rb
1. E(X) = x
a b−a
.dx = a+b
2
;
(a−b)2
2. V ar(X) = E(X 2 ) − [E(X)]2 = 12
;

3. Fonction de répartition :

F (x) = 0 si x 6 a ;
Z x
1 x−a
F (x) = dt = si x ∈ [b, a] ;
a b−a b−a
F (x) = 1 si x > b .

51
52 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS

6.2 LOI GAMMA( de paramètre a)


Dénition 6.2.1. On appelle loi gamma
de paramètre a (a < 0), la loi de
densité de probabilité f dénie par :

si x > 0
 1 x a−1
 Γ(a) .e .x
fa (x) =
0 sinon

Rappels
R +∞
 Γ(a) = 0 xa−1 .e−x dx ;
 Γ(a + 1) = a.Γ(a) ;
 Γ(n + 1) = n! si n ∈ N.

Propriétés 19.
R +∞
1. E(X) = 1
Γ(a)
. 0 xa .e−x dx = Γ(a+1)
Γ(a)
= a;
2. V ar(X) = E(X 2 ) − [E(X)]2 = a ;

Exercice 6.1.
1. Evaluer les moments d'ordre r de Γ ;
2. Déterminer les fonctions caractéristiques et génératrices de la loi Γ.

6.3 LOI BÊTA( de paramètres a et b)


Dénition 6.3.1. Une variable aléatoire X suit la loi Bêta de paramètres
a et b (X β(a, b)) si elle admet pour densité de probabilité la fonction f
dénie par :
1
.xa−1 .(1 − x)b−1 , si x ∈ [0, 1]

 β(a,b)
fa (x) =
0 sinon

Rappels
Z 1
β(a, b) = xa−1 .(1 − x)b−1 dx
0

Propriétés 20.
1. E(X) = a
a+b
;
6.4. LOIS NORMALES 53

2. V ar(X) = E(X 2 ) − [E(X)]2 = a.b


(a+b)2 .(a+b+1)
;

Exercice 6.2. Montrer que :

Γ(a).Γ(b)
β(a, b) =
Γ(a + b)

6.4 LOIS NORMALES

6.4.1 Loi normale centrée-réduite


Rappel
On dit qu'une variable aléatoire est centrée si et seulement si E(X) = 0.
Elle sera dite réduite si et seulement si V ar(X) = 1.

Dénition 6.4.1. On appelle variable aléatoire centrée-réduite, la va-


riable X de densité f dénie par :

1 x2
f (x) = √ .e− 2 , x∈R

Notation
On note X N (0, 1) pour signier que X suit la loi normale centrée-
réduite aussi appelée loi de Laplace-Gauss.

Représentation de la distribution de probabilité


Propriétés 21. Soit Π, la fonction de répartition de la loi normale centrée-
réduite.
1. Π(0) = 0, 5 ;
2. Π(−∞) = 0 et Π(+∞) = 1 ;
3. Π(−x) = 1 − Π(x) ;
4. P (|X| < u) = P (−u < X < u) = Π(u) − Π(−u) = 2.Π(u) − 1 ;
5. E(X) = 0 et V ar(X) = 1 ;
6. Fonction caractéristique :
t2
ϕ(t) = e− 2
54 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS

6.4.2 Loi normale de paramètres (m, σ) (m ∈ R et σ > 0)


Elle est dénie par :

1 1 (x−m)
2
f (x) = √ .e[− 2 . σ ] , x∈R
2π.σ

Propriétés 22.
1. Si U N(0, 1),

∀a, b ∈ R , X = aU + b N (b, |a|)

2.
Y = σU + m N (m, σ)

6.5 LOI DE KHI-DEUX (X 2(n), n ∈ N)


Dénition 6.5.1. Soient n variables aléatoires normales centrées-réduites
indépendantes deux à deux, la variable Z = X12 + X22 + . . . + Xn2 suit la loi
de Khi-deux à n degrés de liberté (Z X 2 (n)).
En utilisant la théorie générale des variables aléatoires à plusieurs dimen-
sions, on trouve que la loi du Khi-deux est donnée par la fonction f dénie
par :  n−1
−x
 2 n2 .Γ( n ) .x 2 .e 2 si x > 0
 1
2
fX 2 (n) (x) =
0 sinon

Formes de distributions de la loi du X 2 (n)


Propriétés 23.
1. E(X 2 (n)) = n ;
2. V ar(X 2 (n)) = 2n.

Remarque 6.5.1. n désigne en général le nombre d'observations indépendantes


eectuées (degrés de liberté).
Exercice 6.3. Retrouver les formules de la moyenne et de la variance d'une
variable aléatoire X suivant la loi du Khi-deux à n degrés de liberté.
6.6. LOI DE STUDENT 55

6.6 LOI DE STUDENT

Soient U une variable aléatoire suivant la loi normale centrée-réduite et


X une variable aléatoire suivant la loi du Khi-deux à n degrés de liberté telles
que U et X soient indépendantes. Alors, la variable T = X 2U(n) suit la loi de
Student à n degrés de liberté (T
n
t(n)).

6.7 LOI DE FISHER-SNEDECOR (de para-

mètres m et n)
Soient X et Y deux variables aléatoires suivant la loi du Khi-deux respec-
tivement à n et à m degrés de liberté telles que X et Y soient indépendantes ;
alors la variable
X
n
F = Y
m

suit la loi de Fisher-Snedecor à n − m degrés de libertés (F F(m, n)).


Exercice 6.4 (Travaux pratiques). Photocopier les tables de Gauss, de Student,
de Fisher et apprendre à lire.
56 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS
Chapitre 7
REGRESSION ET
CORRELATION

7.1 INTRODUCTION

On considère un couple de variables aléatoires (X, Y ). On suppose que


les valeurs x et y ont été mesurées sur un échantillon (des observations
concrètes). On se propose de déterminer un modéle fonctionel permettant
de prédire les valeurs de y sachant celles de x. On cherche alors une relation
de la forme Y = φ(X) : on parle de liaison fonctionnelle. Le problème
consiste à choisir φ de façon optimale suivant un certain nombre de critères.
La méthode utilisée (que nous utiliserons) est la méthode des moindres
carrés qui consiste à choisir φ de sorte que l'erreur quadratique soit mini-
male.
Exemple 7.1. On a relevé les données suivantes sur une population donnée
par le couple de variables aléatoires (X, Y ) (pouvant être le poids et la taille
par exemple).

Erreur quadratique E

e1 = |y1 − φ(x1 )| : Ecart

e2 = |y2 − φ(x2 )| : Ecart

ei = |yi − φ(xi )| : Ecart

en = |yn − φ(xn )| : Ecart

57
58 CHAPITRE 7. REGRESSION ET CORRELATION

on en déduit l'erreur quadratique suivante :


v
u n q
uX
E= t (yi − φ(xi )) = e21 + e22 + . . . + e2n
2

i=1

7.2 PRINCIPE DES MOINDRES CARRÉ

On considère une série d'observations (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) pour


laquelle on cherche la liaison fonctionnelle Y = φ(X). Le principepdes Pnmoindres
carrés consiste à choisir φ de sorte que l'erreur quadratique E = i=1 (yi − φ(xi ))
2

soit minimale. L'analyse est faite en utilisant la théorie d'optimisation des


fonctions de plusieurs variables.

Rappel
Soit S = S(x1 , x2 , . . . , xn ) une fonction susamment régulière sur un
domaine D. S est minimale en un point critique qui est tel que :

dS
=0, i = 1, 2, . . . , n
dxi

7.3 CORRELATION D'UN COUPLE D'OB-

SERVATIONS

Soient (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) n observations indépendantes d'un


couple de variables aléatoires.

Variables Valeurs Moyennes


X̄ = n1 . Pni=1 xi
P
X x1 x2 ... xi . . . xn
Y y1 y2 ... yi . . . yn Ȳ = n1 . ni=1 yi

Le coecient de correlation mesure le degré de correlation (liaison) qui


existe entre les variables X et Y . Ce coecient est compris entre −1 et 1.
 Si |r| est proche de 1, il y a forte correlation ;
 Si |r| est proche de 0, il y a faible correlation.
7.4. QUELQUES COURBES DE CORRELATION 59

Covariance empirique

n
1 X
δXY = . (xi − X̄)(yi − Ȳ )
n − 1 i=1

Variances empiriques

n
2 1 X
δX = . (xi − X̄)2
n − 1 i=1

n
1 X
δY2 = . (yi − Ȳ )2
n − 1 i=1

N.B. : On en déduit les écart-types empiriques :


q q
δX = 2
δX et δY = δY2

Coecient de correlation empirique

δXY
r=
δX .δY

7.4 QUELQUES COURBES DE CORRELA-

TION

7.4.1 Droite de regression de Y en X


On a relevé (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ), n observations. On cherche une
relation fonctionnelle
Pnde la forme : Y = aX + b = φ(X) de sorte que l'erreur
quadratique E = i=1 (yi − a.xi − b) soit minimale.
2 2
60 CHAPITRE 7. REGRESSION ET CORRELATION

Détermination des coecients a et b


Les coecients a et b sont déterminés grâce aux critères d'optimisation
dénis plus haut.
n
dE 2 X
= 0 ⇔ −2. xi (yi − a.xi − b) = 0 (1)
da i=1
n
dE 2 X
= 0 ⇔ −2. (yi − a.xi − b) = 0 (2)
db i=1
n n n
1 X 2 1 X 1 X
(1) ⇒ a. . xi + b. . xi = . xi .yi
n i=1 n i=1 n i=1
n n
1 X 1 1 X
(2) ⇒ a. . xi + n. .b = . yi
n i=1 n n i=1
et on a le système :


 a.E(X 2 ) + b.E(X) = E(X, Y )
⇒ a(E(X 2 ) − (E(X))2 ) = E(X, Y ) − E(X).E(Y )
a.E(X) + b = E(Y )
 | {z } | {z }
V ar(X) Cov(X,Y )

Cov(X, Y )
⇒ a=
V ar(X)
et on en déduit
b = E(Y ) − a.E(X)

Remarque 7.4.1.
Cov(X, Y )
a =
V ar(X)
Cov(X, Y ) σY
= .
V ar(X) σy
σY
= .r
σX
Donc
σY
a= .r
σX
d'où la relation fonctionnelle :
σY σY
Y = .r.X + E(Y ) − .r.E(X)
σX σX
7.4. QUELQUES COURBES DE CORRELATION 61

7.4.2 Droite de regression de X en Y


Soit à déterminer la relation fonctionnelle X = α.Y + β . On peut recher-
cher les coecients α et β comme précédemment. Mais une méthode plus
rapide est la suivante :

X = α.Y + β ⇒ X̄ = α.Ȳ + β
⇒ X̄.Ȳ = α.Ȳ 2 + β Ȳ (1)
X = α.Y + β ⇒ X.Y = α.Y 2 + β.Y
⇒ E(X.Y ) = α.E(Y 2 ) + β.E(Y ) (2)
En soustrayant (1) à (2), on en déduit :

Cov(X, Y )
α= et β = X̄ − α.Ȳ
V ar(Y )
et on obtient comme précédemment la relation suivante :
σX
α= .r
σY

7.4.3 Autres types de regression


Approximation pôlygonale
On suppose qu'on a fait n observations sur un couple de variables aléa-
toires (X, Y ). Des analyses à priori ont préssenti une relation fonctionnelle
de la forme :
Y = a.X 2 + b.X + c
Il est donc question de déterminer les coecients a, b, c à l'aide de la méthode
des moindres carrés ( ou en suivant la méthode précédente).

Approximation par un pôlynome de degré n


On utilise les mêmes formalismes que précédemment.

Relation de la forme Y = α.X β (x > 0, α > 0)


Pour ce cas, on transforme la relation non linéaire en une relation linéaire
et on applique les techniques des droites de regression. La transformation se
fait de la manière suivante :

Y = α.X β ⇒ ln(Y ) = ln(α) + β ln(X)


62 CHAPITRE 7. REGRESSION ET CORRELATION

Posons Y 0 = ln(Y ), a = ln(α), b = β et X 0 = ln(X). On obtient la relation :

Y 0 = a + b.X 0

En appliquant la technique de la droite de regression, on détermine a et b et


on en déduit α et β .

Relation de la forme Y = α.β X (X > 0, Y > 0, α > 0)


On utilise les mêmes transformations et le même formalisme que précé-
demment.
Chapitre 8
CONVERGENCE EN
PROBABILITÉ

8.1 ETUDE DE LA LOI BINOMIALE

8.1.1 Introduction
Soit E une épreuve dont les éventualités constituent l'ensemble fondamen-
tal Ω. Soit A un évènement dont la probabilité de réalisation est p. Soit (En ),
l'épreuve consistant en la réalisation successive de l'épreuve E n fois de façon
indépendante.
L'ensemble fondamental dans ce cas est E = Ωn .
Associons les n variables aléatoires qui ont conduit à la réalisation de
(En ). Posons :
1
Zn = B(n, p).
n
qui représente la moyenne de réalisation de l'évènement A au cour de n
épreuves. On a :
E(Zn ) = p
pq
V ar(Zn ) =
n

8.1.2 Inégalité de Bienaymé TCHEBITCHEFF


Soit g une fonction dénie sur l'ensemble X à valeurs dans R+ , soit X
une variable aléatoire sur X telle que E[(g(X))k ], k ∈ N existe.
Lemme 8.1.1.
E[(g(X))k ]
∀t > 0 , P (g(X) > t) 6
tk

63
64 CHAPITRE 8. CONVERGENCE EN PROBABILITÉ

Pour g(x) = |x − X̄| et k = 2, on a :

E[|X − X̄|2 ] V ar(X)


P (|X − X̄| > t) 6 2
=
t t2
Démonstration. Soit f , la densité de probabilité de X , soit k ∈ N.
Z
E[(g(X)) ] = (g(x))k .f (x)dx
k
X
posons donc :
X1 = {x ∈ X /g(x) 6 t}
X2 = {x ∈ X /g(x) > t}

Z Z
k k
E[(g(X)) ] = (g(x)) .f (x)dx + (g(x))k .f (x)dx
X1 X2
Z
> tk . f (x)dx = tk .P (g(X) > t)
X2

d'où
E[(g(X))k ]
P (g(X) > t) 6
tk

Corollaire 8.1.2.
E[(g(X))k ]
P (g(X) 6 t) 1 1 − Inégalité de Bienaymé TCHEBITCHEFF
tk
Corollaire 8.1.3. Posons g(x) = |x − X̄|

E[|x − X̄|k ]
P (|x − X̄| 6 t) 1 1 −
tk
Corollaire 8.1.4. Si V ar(X) = σ 2 et E(X) = m, alors

3
P (m − 2σ < X 6 m + 2σ) >
4
Corollaire 8.1.5. Soit a ∈ R ;

E[(X − a)2 ] σ 2 + (m − a)2


P (|X − a| > t) 6 =
t2 t2
8.2. CONVERGENCE PRESQUE SÛRE 65

Application
Le théorème ci-dessus et ses corrolaires permettent d'estimer à priori les
probabilités des phénomènes dont on dispose seulement d'informations sur
la moyenne et l'écart-type.
Supposons que X N (m, σ) ; on a :

P (|X − E(X)| > 2σ) 6 0, 0456 ' 4, 6%

8.1.3 Dénition de la convergence en probabilité


Dénition 8.1.1. Soit (Zn )n∈N , une suite de variables aléatoires dénies sur
le même ensemble Ω. On dit que la suite (Zn )n∈N converge en probabilité
vers le réel p si et seulement si :

∀ε > 0, lim P (|Zn − p| > ε) = O


n→+∞

Condition susante de convergence en probabilité


Soit (Xn )n∈N , une suite de variables aléatoires telle que E(Xn ) = a + Un
où Un tend vers 0 lorsque n tend vers +∞ et V ar(Xn ) = Vn où Vn tend vers
0 lorsque n tend vers +∞. Alors, Xn converge vers a.
En eet :

E[(Xn − a)2 ] Un2 + Ua2


P (|Xn −a| > ε) 6 = tend vers 0 pour n tendant vers +∞
ε2 ε2

8.2 CONVERGENCE PRESQUE SÛRE

Dénition 8.2.1. Soit (Xn )n∈N , une suite de variables aléatoires.


(Xn )n∈N converge presque sûrement vers une variable a si et seule-
ment si :

∀ε > 0 , ∀η > 0 , ∃N1 ∈ N/


∀n ∈ N , n > N1 ⇒ P (|Xn − a| > ε, |Xn+1 − a| > ε, |Xn+p − a| > ε) < η

Remarque 8.2.1. La convergence en probabilité implique la convergence presque


sûre, mais la réciproque n'est pas vraie.
66 CHAPITRE 8. CONVERGENCE EN PROBABILITÉ

8.3 CONVERGENCE EN LOI

Dénition 8.3.1. Soit (Xn )n∈N , une suite de variables aléatoires de fonction
de répartition Fn .
Soit X une variable aléatoire réelle de fonction de répartition F .
On dit que (Xn )n∈N converge en loi vers une variable X si et seulement
si Fn converge simplement vers F .

Remarque 8.3.1. La convergence en probabilité implique la convergence en


loi, mais la réciproque n'est pas vraie.

8.4 THÉORÈME CENTRAL-LIMITE

Soit (Xn )n∈N , une suite de variables aléatoires indépendantes deux à deux,
communes de même moyenne m et d'écart-type σ > 0, alors :
Sn n
−m 1 1 X
n
où .Sn = . Xi = X̄n
√σ n n i=1
n

converge en loi vers la loi normale centrée-réduite quelque soit la suite de


variables (Xn )n∈N .
Deuxième partie
STATISTIQUES

67
Chapitre 9
ESTIMATIONS

9.1 MÉTHODES DE SONDAGE

9.1.1 Introduction
La collecte d'informations relatives à une population peut être faite de
façon exhaustive (on a l'information sur chaque individu), on parle alors de
recensement ou sur une partie seulement de la population, on parle de
sondage et la partie de la population considérée est appelée échantillon.
Lorsque la taille de la population est très grande, le recensement devient
très couteux en temps comme en moyens matériels et nanciers. C'est le cas
du recensement général de la population.

Dénition 9.1.1. Le terme population désigne un groupe d'objets ou d'élé-


ments pris en compte par un problème statistique donné. Chaque élément de
la population est appelé individu . Les informations sur une population sont
généralement obtenues par sondage. Ceci se fait par des enquêtes sur une
fraction seulement de la population.
Le rapport Nn où n est la taille de l'échantillon et N la taille de la popu-
lation est appelétaux de sondage .

Les enquêtes par sondage possèdent les avantages suivants :


 faible coût ;
 rapidité ;
 souplesse.
L'un des désavantages de l'échantillonage est la diculté à obtenir des échan-
tillons signicatifs réalisés avec une précision susante.

69
70 CHAPITRE 9. ESTIMATIONS

9.1.2 Types de sondages


On distingue deux grandes catégories de sondages :
 Les sondages par choix raisonnés ;
 Les sondages purement aléatoires.
Les sondages par choix raisonnés sont fait en tenant compte des informa-
tions à priori obtenues sur la population.
Pour les sondages aléatoires (tirage aléatoire), on suppose que les indi-
vidus sont tirés au hazard (sans aucun à priori) et chaque individu a une
probabilité non nulle d'être tiré. Les valeurs observées sur les échantillons
sont des variables aléatoires. A partir de ces observations, il est possible d'es-
timer des grandeurs relatives à toute la population et d'évaluer des erreurs
éventuellement commises : on parle en statistique d'induction statistique.

9.1.3 Méthode de sondage aléatoire


Dénition 9.1.2. La méthode de sondage aléatoire est caractérisée par le fait
que chaque individu de la population a une probabilité non nulle d'être tiré.
En général, la même probabilité est aectée à chaque individu et le principe
devient celui du tirage des boules dans une urne ; les tirages pouvant être :
 avec remise : tirage bernoullien ;
 sans remise : tirage exhaustif .

Pour résoudre des problèmes statistiques, on part d'observations indé-


pendantes d'une variable aléatoire réelle, on eectue n expériences aléatoires
et la suite (x1 , x2 , . . . , xn ) des valeurs observées, de variable aléatoire X ,
s'appelle échantillon de la variable X . Du point de vu de la théorie des
probabilités, cette suite est une suite de variables aléatoires indépendantes
de même fonction de répartition (en général inconnu) : on parle alors de
problème statistique. La loi de l'échantillon est basée sur la loi des grands
nombres et le théorème central-limite.

9.2 ESTIMATEUR DE PARAMÈTRES INCON-

NUS

Dénition 9.2.1. Un estimateur θ d'un paramètre d'une loi inconnue est


une fonction dénie dans l'espace des échantillons.

Exemple 9.1. X̄n = n1 .


Pn
i=1 Xi est un estimateur de la moyenne.
9.2. ESTIMATEUR DE PARAMÈTRES INCONNUS 71

Qualité d'un estimateur


L'estimateur θ̂ = θ̂(x1 , x2 , . . . , xn ) est une variable aléatoire dont on
peut dénir la moyenne et la variance. Si θ̂ est un estimateur du paramètre
θ, l'estimateur θ̂ sera dit sans biais si et seulement si :

E(θ̂) = θ , ∀ θ ∈ Θ

où Θ est l'ensemble des paramètres.


Dans la classe des estimateurs sans biais, il est intuitif d'admettre que le
meilleur estimateur est celui qui minimize la variance V (θ) dénie par :
h i
2
V (θ) = E (θ̂ − θ)

Soit P (x, θ), la densité de probabilité en fonction du paramètre inconnu θ.


Supposons P (x, θ) dérivable par rapport à θ et
Z Z
d d P (x, θ)
. P (x, θ) dx = . dx
dθ Γ Γ dθ
Posons Z  2
d ln P (x, θ)
. dx θ ∈ Θ,
Γ dθ
I(θ) s'appelle quantité d'information sur θ contenue dans l'échan-
tillon. Sous certaines conditions de régularité, on a :
h i 1
σ 2 (θ̂) = E (θ̂ − θ)2 > (Inégalité de Cramer-Rao)
n.σ(θ)
où n est la taille de l'échantillon.
Un bon estimateur est caractérisé par son absence de biais et sa faible
dispersion. Le réel E(θ̂) − θ est appelé biais de l'estimateur.
La variabilité de l'estimateur est mesurée par sa variance
h i
V (θ) = E (θ̂ − θ)2

Sur deux estimateurs, le plus écace est celui avec la plus petite variance.

Principaux estimateurs
Soit P une population de N individus qu'on note US , repéré par leurs
numéros S (1 6 S 6 N ). Les individus de l'échantillon sont repérés par
l'indice i.
72 CHAPITRE 9. ESTIMATIONS

Soit X une variable aléatoire dans la population ; on désigne par XS , la


valeur de X prise par l'individu US . On note
n
1X
X̄n = Xi , un estimateur de la moyenne sur l'échantillon.
n i=1
De même : n
1 X 2
Sn2 = Xi − X̄n
n i=1
est un estimateur de la variance sur l'échantillon.
n
1 X 2
S 0 2n = Xi − X̄n
n − 1 i=1
est un autre estimateur de la variance sur l'échantillon.
La moyenne inconnue m de la population peut être estimée par X̄n . On
note que X̄n est un estimateur sans biais (E(X̄n ) = m.
On a :
σ2
V ar(X̄n ) =
n
où σ 2 est la variance de la population inconnue (cas indépendant) et
N − n σ2
V ar(X̄n ) =.
N −1 n
où σ 2 est la variance de la population inconnue (cas exhaustif) .
Estimateur de la variance
Nous avons deux estimateurs :
n
1X 2
Sn2 = Xi − X̄n
n i=1
n
1 X 2
Ŝn2 = Xi − X̄n
n − 1 i=1
de la variance inconnue de la population. Soit m, la moyenne inconnue de la
population ; nous savons que X̄n est un estimateur sans biais et susamment
écace de la moyenne pour n susamment grand. On a la relation suivante :
n
1 X 2
Sn2 = (Xi − m)2 − X̄n − m
n i=1
n
1 X 2
E(Sn2 ) = E (Xi − m)2 − E X̄n − m
n i=1
nσ 2 σ 2 n−1 2
= − = σ
n n n
9.3. ESTIMATION PONCTUELLE 73

Donc
n−1 2
E(Sn2 ) = σ
n
Le biais de cet estimateur est :
2

B(Sn2 ) = n − 1 σ 2 − σ 2 = σ

n n
Estimateur sans biais de la variance σ2
n
n 1 X 2
Ŝn2 = Sn2 = Xi − X̄n
n−1 n − 1 i=1
est un estimateur sans biais de la variance σ 2 car E(Ŝn2 ) = σ 2 . Ces calculs
peuvent être fait dans le cas d'un échantillon exhaustif.

9.3 ESTIMATION PONCTUELLE

9.3.1 Estimateur ponctuel de la moyenne


Soit P une population donnée étudiée sous un critère x ; x1 , x2 , ... , xn
un échantillon indépendant, f (x, θ) la densité de probabilité de X , θ étant le
paramètre moyenne inconnu.
Un estimateur sans biais et écace de θ (la moyenne inconnue) est
n
1 X
X̄n = Xi
n i=1
Démonstration. Par dénition de l'échantillon, chaque Xi suit la loi de X .
E(X) = θ
V ar(Xi ) = σ 2
n
1 X nθ
E(X̄n ) = E(Xi ) = =θ
n i=1 n
Donc X̄n est un estimateur sans biais de la moyenne θ.
Propriétés 24. X̄n est un estimateur consistant et écace de la moyenne.
En eet :
σ2
V ar(X̄n ) = −→ 0 pour n −→ ∞ écacité
n
de la moyenne. En eet :
pour ε −→ 0 consistence

P X̄n − θ 6 ε −→ 1
74 CHAPITRE 9. ESTIMATIONS

Méthode de maximum de vraisemblance (méthode générale pour


tout autre paramètre d'une loi
Dénition 9.3.1. Soit X une variable aléatoire dont la distribution f (x, θ)
dépend d'un paramètre θ. On considère un échantillon de n observations in-
dépendantes x1 , x2 , . . . , xn . La fonction

n
Y
L= f (xi , θ) = L(x1 , . . . , xn , θ)
i=1

est appelée fonction de vraisemblance.


Pour chaque valeur θ, cette fonction peut être diérente. Le principe du
maximum de vraisemblance consiste à choisir comme estimateur de θ, la
valeur particulière θ̂ de θ qui rend maximum la fonction L(x1 , . . . , xn , θ).
Comme on l'a précisé plus tôt, L est la quantité d'information contenue
dans l'échantillon.
L'estimation θ̂ du paramètre θ inconnu sera la valeur de θ qui donne à
l'échantillon obtenu la plus grande probabilité (vraisemblance) à priori d'être
obtenue.
La détermination d'un estimateur ponctuel par la méthode du maximum
de vraisemblance utilise les propriétés diérentielles de la fonction L de vrai-
semblance. On suppose que L est susamment régulière par rapport à θ et
que θ̂ est un point singulier de L qui vérie donc la relation :

d
L(x1 , . . . , xn , θ) = 0

En résolvant cette équation, on trouve les estimateurs θ̂. Quelques fois, la


forme de la fonction f (x, θ) est compliquée et on utilise plutôt G = ln L(x1 , . . . , xn , θ)
en notant que G et L ont les mêmes points réguliers. On résout alors l'équa-
tion :
dG
= 0 pour déterminer θ̂

Exemple 9.2. On considère une variable aléatoire X normale de variance σ 2


connue. On se propose d'estimer la moyenne m en utilisant la méthode du
maximum de vraisemblance.
9.3. ESTIMATION PONCTUELLE 75

Pour un échantillon (x1 , x2 , . . . , xn ), on a :

(xi − θ)2
 
1
f (x, θ) = √ .exp −
2πσ 2σ 2
n
Y
L(x1 , . . . , xn , θ) = f (xi , θ)
i=1
Xn
ln L(x1 , . . . , xn , θ) = ln f (xi , θ)
i=1
n 
(x − θ)2

X 1
= ln √ −
i=1
2πσ 2σ 2
n n
X −2(x − θ) X
G0 = (ln L)0 = =0 ⇔ (xi − θ) = 0
i=1
2σ 2 i=1
n
X
⇔ n.θ̂ = xi
i=1
n
1 X
Soit θ̂ = xi
n i=1

Remarque 9.3.1. Un estimateur du maximum de vraisemblance possède une


propriété de vraisemblance. Si G est un estimateur du maximum de vraisem-
blance pour le paramètre θ et si h(θ) est une fonction possédant un inverse,
alors h(θ̂) est un estimateur du maximum de vraisemblance pour le paramètre
h(θ).
Exercice 9.1. En utilisant la méthode du maximum de vraisemblance, déter-
miner un estimateur ponctuel de la variance d'une population Gaussienne
(c'est-à-dire que la population suit la loi normale).
Remarque 9.3.2. La méthode des moments est une alternative à la méthode
du maximum de vraisemblance. Elle consiste essentiellement à égaler les
moments d'échantillonnage aux moments de la distribution inconnues et à
résoudre le système d'équation ainsi obtenu pour avoir les paramètres re-
cherchés. Les estimations des diérents paramètres sont obtenues comme
solutions du système d'équation en nombre susant, exprimant l'égalité des
moments de l'échantillonnage.

9.3.2 Estimation ponctuelle de la variance


Soit P une population étudiée suivant un caractère X ; x1 , x2 , . . . , xn un
n-échantillon indépendant de cette population.
76 CHAPITRE 9. ESTIMATIONS

Proposition 9.3.1. On suppose que X a pour moment m et pour variance


σ inconnue ; les estimateurs
2

n
1 X
Sn2 = (xi − X̄n )2
n i=1
n
1 X
Ŝn2 = (xi − X̄n )2
n − 1 i=1

sont deux estimateurs de la variance ; Ŝn2 étant un estimateur sans biais.

9.3.3 Estimation par intervalle


L'estimation ponctuelle est souvent mal adaptée au problème de l'esti-
mation d'un paramètre par suite du fait qu'elle peut diérer notablement
de la vraie valeur. Un autre type de l'estimation consistera à former un in-
tervalle aléatoire entourant l'estimation ponctuelle. Ces intervalles, fonctions
des observations, sont aléatoires et possèdent les propriétés de toute expé-
rience aléatoire. On peut donc donner la probabilité pour que la vraie valeur
appartienne à un intervalle. Ainsi, si θ est le paramètre à estimer, un in-
tervalle de conance [a, b] est tel qu'il y ait une probabilité à priori donnée
(1 − α) pour pour que a 6 θ 6 b.
a et b sont les limites de conance de θ à 100(1 − α)% et l'intervalle
lui-même est appelé intervalle de conance à 100(1 − α)%. On dit aussi
quelques fois intervalle aux risques de (1 − α)%.

9.3.4 Quelques cas


Intervalle de conance de la moyenne d'une distribution normale
dont on connaît l'écart-type
Soit X une variable aléatoire normale de moyenne inconnue µ et de va-
riance σ 2 .
On note X̄n la moyenne d'un échantillon de taille n tiré de cette loi. Alors :

X̄n − µ
√ N (0, 1)
n

Soit t α2 le fractile d'ordre 100 α2 % de la loi normale.


Alors, !
X̄n − µ
P −t α2 6 σ 6 t α2 = 1 − α

n
9.3. ESTIMATION PONCTUELLE 77

nous donne un intervalle de conance à 100(1 − α)%


!  
X̄n − µ σ σ
−t α2 6 6 t α2 ⇒ −t α2 √ + X̄n 6 µ 6 t α2 √ + X̄n
√σ n n
n

On trouve l'intervalle de conance de µ suivant :


 
σ σ
X̄n − t α2 √ , X̄n + t α2 √
n n
à 100 α2 %.
La longueur de cet intervalle est 2t α2 √σn , qui tend vers 0 lorsque n tend
vers +∞.
Remarque 9.3.3. Il existe une relation entre la théorie de l'intervalle de
conance et la théorie de tests. Si nous voulons tester l'hypothèse µ = µ0
contre l'alternative µ 6= µ0 , la procédure que l'on verra au paragraphe sui-
vant reviendra à admettre l'hypothèse µ = µ0 si µ appartient à l'intervalle
de conance de µ et à rejetter dans le cas contraire.

Intervalle de conance de la moyenne d'une distribution normale


dont l'écart-type est inconnu
Soit X une variable aléatoire suivant la loi normale de moyenne µ et
d'écart-type σ inconnu.
Un échantillon de taille n nous donne des estimateurs ponctuels de la
moyenne X̄n et de l'écart-type
n
1 X
Ŝn2 = (Xi − X̄n )2
n i=1

Proposition 9.3.2. Soit X une variable aléatoire suivant la loi normale


de paramètres m et σ , σ étant inconnu, (x1 , x2 , . . . , xn ) un n-échantillon
indépendant ; Alors :
X̄n − m
t(n − 1)
Ŝn

n

Intervalle de conance pour la moyenne d'une population gaus-


sienne, σ inconnu
!
X̄n − µ
P −t α2 6 6 t α2 =1−α
√σ
n
78 CHAPITRE 9. ESTIMATIONS

nous donne cet intervalle de conance. t α2 est déni par la loi de Student à
(n − 1) degrés de liberté. De même, on aura :
!
Ŝn2 Ŝn2
−t 2
α √ + X̄n 6 m 6 t 2
α √ + X̄n
n n

Intervalle de conance de l'écart-type d'une distribution normale


Soit X une variable aléatoire normale de moyenne inconnue µ et d'écart-
type σ .

Proposition 9.3.3. La variable :

Ŝn2
Z = n. X 2 (n − 1)
σ2
!
Ŝ 2
P a ≤ n. n2 ≤ b =1−α
σ

Puisque X 2 n'est pas symétrique, on va prendre :


 α  α
P X 2 (n − 1) < a = et P X 2 (n − 1) ≥ b =
2 2
et lire a et b sur la table.
! !
Ŝ 2 Ŝ 2 Ŝ 2
a ≤ n. n2 ≤ b ⇒ n. n ≤ σ 2 ≤ n. n
σ b a

est un intervalle de conance à 100(1 − α)% de la variance.


r r
n n
d'où .Ŝn ≤ σ ≤ .Ŝn
b a

est un intervalle de conance à 100(1 − α)% de l'écart-type.

Intervalle de conance de la diérence des moyennes de deux lois


normales
Soient deux variables aléatoires X N (µX , σX ) et Y N (µY , σY ) ; on
eectue nX observations de X et nY observations de Y .
9.3. ESTIMATION PONCTUELLE 79

 Cas où σX et σY sont connus


On sait dans ce cas que :

X̄nX − ȲnY − (µX − µY )


q 2 N (0, 1)
σX σ2
nX
+ nYY

Par des procédés identiques aux précédents, on détermine alors un in-


tervalle de conance pour (µX − µY ) qui aura pour bornes :
s
2
σX σ2
XnX − ȲnY ± t α2 . + Y
nX nY

 Cas où σX et σY sont inconnus, mais σX = σY


On démontre alors que :

X̄nX − ȲnY − (µX − µY )


q q 2 +n .S 2
t(nX + nY − 2)
1 1 nX .SX Y
nX
+ nY
. nX +nY −2
Y

et on a donc l'intervalle de conance ayant pour bornes :


r s
2
1 1 nX .SX + nY .SY2
X̄nX − ȲnY ± t α2 . + .
nX nY nX + nY − 2

à 100(1 − α)%.

Intervalle de conance du rapport d'écart-types de deux lois nor-


males
Soient :
X N (µX , σX )

Y N (µY , σY )
et
n
2 1 X
SX = Sn2X = . (xi − X̄nx )2
nX i=1
n
1 X
SY2 = Sn2Y = . (yi − Ȳny )2
nY i=1
80 CHAPITRE 9. ESTIMATIONS

Proposition 9.3.4.
2
SX
2
σX
F = SY2
F(nX − 1, nY − 1)
2
σY

On peut déterminer un intervalle de conance du rapport σX


σY
comme précé-
demment.
P (a ≤ F ≤) = 1 − α
donc,
2
SX
2
σX SY2 σY2 SY2
a≤ SY2
≤ b ⇒ a. 2
≤ 2
≤ b. 2
2
SX σX SX
σY

et on détermine les bornes à l'aide de la table de Fisher-Snedecor :

F = F(nX − 1, nY − 1)

Remarque 9.3.4.
1. Nous avons considéré dans tout ce qui précède, des intervalles bilaté-
raux. On pourrait aussi chercher des intervalles de la forme [a, +∞[,
] − ∞, b] ou [a, b] non symétriques en appliquant la même logique.
2. Dans tout ce qui précède, nous n'avons considéré que des populations
gaussiennes, mais ces résultats restent valablent pour des échantillons
de taille susamment grande, quelque soit la loi considérée. Mais, pour
des échantillons de petite taille et des lois quelconques, c'est du cas
particulier qu'il faut faire.
Chapitre 10
TESTS STATISTIQUES

10.1 INTRODUCTION

La statistique a en général pour objet le problème de la décision dans


le cas de l'incertain. La décision devra en général être prise sur la vue des
résultats d'un échantillonage ; L'incertitude se traduisant par le fait qu'un
échantillonage répété donnerait des résultats diérents. Il est aussi impor-
tant de noter que l'objet de la statistique est la résolution des problémes où
l'incertain est un élément essentiel.
La statistique est en général utilisée dans la théorie de contrôle de qualité,
de gestion, de sondage de points de vue aussi bien dans le domaine écono-
mique, politique, que tout autre. Les décisions sont prises à l'aide des tests
statistiques. En général, on dispose de deux hypothèses :
 L' hypothèse nulle H0 ;
 L' hypothèse alternative H1 .

10.2 TEST CLASSIQUE

10.2.1 Test relatif à une fréquence


Soit une population composée d'individus dont certains possèdent le ca-
ractère A. Soit un échantillon de taille n prélévé dans cette population, on
a observé une fréquence f d'individus possédant ce caractère. La proportion
P d'individus ayant le caractère A dans la population est inconnue et la
proportion f mesurée sur l'échantillon peut diérer grandement de la vraie
valeur P en raison des uctuations d'échantillonage. Sur la base de la valeur
f observée sur l'échantillon, on se propose de tester si la vraie proportion f
peut être considérée ou non comme égale à une valeur P0 xée à priori.

81
82 CHAPITRE 10. TESTS STATISTIQUES

On dénit ainsi trois types de tests :

- Type 1 : Hypothèse H0 : P = P0 ;
Hypothèse H1 : P > P0 ;
- Type 2 : Hypothèse H0 : P = P0 ;
Hypothèse H1 : P < P0 ;
- Type 3 : Hypothèse H0 : P = P0 ;
Hypothèse H1 : P 6= P0 .

La fréquence f , selon le mode de tirage de l'échantillon, suit une loi bino-


miale ou hypergéométrique ayant pour paramètre P = P0 en supposant que
l'hypothèse H0 est exacte.
Sous certaines conditions, (n très grand ou le taux de sondage petit) la
loi de la fréquence f normalisée suit la loi normale centrée-réduite.

f − P0
T =q N (0, 1)
P0 (1−P0 )
n

Etant donné le seuil de signication α, on est en mesure de déterminer la


région critique correspondant à chacun de ces trois cas.

Type 1 : La région critique est de la forme R : {f > l}

P (f > l/P =P0 ) = α et P (T > tα ) = α

On trouve :
r
P0 (1 − P0 )
l = P0 + tα .
n
Décision :
 Si la fréquence observée est supérieure à l, on rejette l'hypothèse H0 ,
c'est-à-dire l'hypothèse H1 est retenue.
 Si la fréquence observée est inférieure à l, on retient l'hypothèse H0 .

Type 2 : La région critique est de la forme R : {f < l}


Analogue au Type 1 en inversant les décisions.
10.2. TEST CLASSIQUE 83

Type 3 : La région d'acceptation est de la forme R : {l1 < f < l2 }


On a :
P (l1 < f < l2 ) = 1 − α
Décision : On a
r r
P0 (1 − P0 ) P0 (1 − P0 )
l1 = P0 − tα . et l2 = P0 + tα .
n n
Si la valeur observée appartient à R, on prend la décision H0 , sinon on prend
la décision H1 .
Exemple 10.1. On se propose de contrôler par sondage l'exactitude de l'in-
ventaire d'un stock commercial comprenant une dizaine de milliers d'articles.
Un échantillon de 500 articles a été tiré dans ce but et on admet qu'une pro-
portion d'erreur dans l'inventaire inférieure ou égale à 3% est acceptable à
un seuil de 5% .
Solution :
Puisque n est très grand (n = 500) et P0 = 0, 03, posons comme hypo-
thèses :
 Hypothèse nulle : H0 : P = P0 ;
 Hypothèse alternative : H1 : P > P0 ;
Région critique : R = {f > l}
r
P0 (1 − P0 )
l = P0 + tα .
n
P (T > tα ) = α = 0, 05 ⇒ α = 1, 65
⇒ l = 0, 043

On rejettera donc l'hyporthèse H0 et on supposera que la proportion


d'erreur commise dans l'inventaire est supérieure ou égale à 4, 3% si le pour-
centage d'erreur rélevé sur l'échantillon est supérieur ou égal à 3%.

10.2.2 Test sur la moyenne


Sur un échantillon de taille N , on a observé la valeur moyenne X̄n rela-
tive à la variable statistique X . La véritable valeur m de la moyenne pour
l'ensemble de la population est inconnue et X̄n peut en diérer en raison des
uctuations aléatoires. Sur la base de la valeur X̄n observée, on se propose de
tester si la moyenne m peut être considérée ou non comme égale à la valeur
m0 xée à priori.
En fonction du problème posé on peut choisir l'un des trois tests suivants :
84 CHAPITRE 10. TESTS STATISTIQUES

- Type 1 : Hypothèse H0 : m = m0 ;
Hypothèse H1 : m > m0 ;
- Type 2 : Hypothèse H0 : m = m0 ;
Hypothèse H1 : m < m0 ;
- Type 3 : Hypothèse H0 : m = m0 ;
Hypothèse H1 : m 6= m0 .
Si la population d'origine est normalement distribuée (population gaussienne)
ou si l'échantillon est susamment grand, X̄n suit approximativement la loi
de Laplace-Gauss de paramètres (m, √σn ) où m est la moyenne inconnue et
σ l'écart-type de la variable X dans l'ensemble de la population. On peut
noter que sous l'hypothèse H0 , on ne peut entièrement déterminer la loi de
X̄n parce que σ est en général inconnu. Deux cas se présentent alors :
 L'écart-type σ est connu
Dépendant donc du type de test considéré, on détermine la région cri-
tique R en notant que :
m0
T = X̄n − N (0, 1)
√σ
n

Ceci nous permet de déterminer les bornes de la région critique.


 L'écart-type σ est inconnu (cas le plus fréquent)
On ignore en même temps la moyenne et l'écart-type. Mais nous savons
qu'un estimateur sans biais et écace de la variance est donné par :
n
1 X
Sn2 = . (xi − X̄n )2
n − 1 i=1

Si l'éectif de l'échantillon est grand (n ≥ 30), on admet que :


m0
T = X̄n − §n
N (0, 1)

n

Ceci nous permet de déterminer la région critique.


Par contre, si n est petit (n < 30) la variable T ne suit plus la loi
normale centrée-réduite mais plutôt la loi de Student-Fisher à (n −
1) degrés de liberté. La région d'acceptation est donc déterminée en
utilisant la loi de Student-Fisher.
Exercice 10.1. Une machine fabrique des pièces mécaniques en série. Elle a
été réglée pour que le diamètre de celle-ci soit égale à 12, 60mm. Il est tout à
fait normal qu'une certaine variabilité est admise. Sur un échantillon de 100
pièces, on a observé pour ce diamètre une valeur moyenne X̄n = 12, 65mm
et une variance δ 2 = 0, 1584mm.
10.3. TEST DE KOLGOMOROV 85

Le réglage de la machine peut-il être considéré comme exacte au seuil de


5% ?
Exercice 10.2. On suppose que dans l'exemple précédant, la moyenne X̄n =
12, 65mm et la variance δ 2 = 0, 1584mm ont été observées sur un échantillon
de 10 pièces seulement. Quelle est la décision au seuil de 5% pour ce cas ?
Remarque 10.2.1. En utilisant les propriétés des lois que nous avons vu dans
la première partie de ce cours, on peut traiter le cas des tests de comparaison
de fréquence, de moyenne et des tests relatifs au quotient des fréquences.

10.3 TEST DE KOLGOMOROV

Il s'agit d'un test de conformité. A partir des observations faites, on vou-


drait tester si la loi de la population inconnue suit la loi théorique donnée.
Le cas le plus fréquent est la loi normale. A partir des observations faites sur
l'échantillon, peut-on admettre que la loi de la population est normale ?
En général, la loi du Khi-deux est utilisée.