Sie sind auf Seite 1von 72

Chapitre 1

enements et probabilit
Ev
es,
probabilit
e conditionnelle et
ind
ependance
On cherche ici `
a proposer un cadre mathematique dans lequel on puisse parler sans ambiguite
de la probabilite quun evenement A donne se realise lors du deroulement de lexperience E `
a
resultat aleatoire ou de la probabilite quune variable X dont la valeur depend du resultat de E
prenne sa valeur dans un domaine donne.

1.1

Notions de base

D
efinition 1.1 est lensemble de toutes les eventualites, ou resultats possibles dune experience
aleatoire E. On lappelle espace dechantillonnage ou ensemble fondamental.
D
efinition 1.2 un evenement A est un ensemble deventualites possedant la meme propriete. Il
est donc represente par un sous-ensemble A de . Si le resultat dune experience est un element
de A, on dit que levenement A a ete realise.
Lensemble vide est appele evenement impossible, puisquaucun element de ne peut
etre realise.
Lensemble des cas possibles est appele evenement certain.
Un evenement ne comportant quun seul resultat possible est appele evenement elementaire.
Levenement A complementaire de A dans , est appele evenement contraire de A.

Etant
donnes deux evenements A et B, on definit :
A B la conjonction des evenements A et B, realise si A et B sont tous les deux realises.
Si AB = , on dit que les evenements A et B sont incompatibles ou disjoints (ou encore,
mutuellement exclusifs).
A B, realise si A, ou B, ou (A et B) sont realises.
A B, realise si A est realise, mais pas B.
Op
erations sur les
ev
enements Soient trois evenements A, B, C :
A=A
A (B C) = (A B) C = A B C
A (B C) = (A B) C = A B C
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)

ENEMENTS

PROBABILITE
CONDITIONNELLE ET INDEPENDANCE

2CHAPITRE 1. EV
ET PROBABILITES,
AB =AB
AB =AB
D
efinition 1.3 On appelle probabilite une application P de lensemble devenements sur [0, 1]
telle que :
1. P () = 1
2. Pour toute suite {An }n1 devenements de deux a
` deux incompatibles (i.e. 2 `
a 2 disjoints : Ai Aj = si i 6= j), alors :

An =

P (An )

n1

n1

Consequences :
A de , 0 P (A) 1
Si A B = , alors P (A B) = P (A) + P (B)
Si A1 , A2 , ..., An sont des evenements elementaires et i Ai = , alors
P (A1 ) + P (A2 ) + ... + P (An ) = 1
Si tous les evenements elementaires sont equiprobables, cest-`a-dire, si P (Ak ) =
k = 1, 2, ..., n, alors, si A est constitue de m evenements elementaires de ce type,
P (A) =

1
n

pour

m
card(A)
=
n
card()

On dit que P est la loi uniforme sur .


Lorsque lespace fondamental est fini ou denombrable, definir la probabilite P sur les evenements
equivaut `a se donner la famille {p } des probabilites individuelles, i.e. p = P ({}), .
Soit A , alors :
X
P (A) =
p .
A

Propri
et
es
el
ementaires :
1. P (A B) = P (A) + P (B) P (A B).
Justification : A B = (A B) B = P (A B) = P (A B) + P (B), et
A = (A B) (A B) = P (A) = P (A B) + P (A B)
2. P (A) = 1 P (A).
Justification : = A A = P () = P (A) + P (A) = 1.
3. P () = 0.
4. Si A B, alors P (A) P (B) (P est une fonction croissante).
5. Si A B, alors P (B/A) = P (B) P (A).

1.2

Probabilit
e conditionnelle

Exemple 1.1 Composition dune famille composee de 2 enfants


= {(G, G), (G, F ), (F, G), (F, F )} 4 eventualites supposees equiprobables.
| {z } | {z } | {z } | {z }
1/4

1/4

1/4

1/4

A = La famille a 2 garcons. P (A) = 1/4


B = La famille a au moins un garcon. P (B) = 3/4
Supposons que lon sache que levenement B est realise, que devient la probabilite de A ?

1.3. EVENEMENTS
INDEPENDANTS

D
efinition 1.4 soient A et B deux evenements tel que P (B) 6= 0. On appelle probabilite
conditionnelle de A sachant B la probabilite que A se realise, sachant que B est dej`
a realise.
Dans la mesure o`
u nous savons que B est realise, il devient le nouvel espace dechantillonnage
remplacant , ce qui conduit `
a la definition suivante :
P (A|B) =

P (A B)
P (B)

P (B|A) =

P (A B)
.
P (A)

On peut ecrire egalement :

On en deduit :
P (A B) = P (B)P (A|B) = P (A)P (B|A).
Syst`
eme complet d
ev
enements : {An }n1 forme un syst`eme complet devenements lorsque
{An }n1 forme une partition de , i.e. :
n 1, An 6=
i,
j 1, i 6= j, Ai Aj =
[

An =
n1

Th
eor`
eme 1.1 (des probabilites totales)
Soit {An }n1 un syst`eme complet devenements. Alors, quelque soit evenement B :
P (B) =

P (B|An )P (An )

n1

Th
eor`
eme 1.2 (de Bayes) Soit {An }n1 un syst`eme complet devenements, et B un evenement
tel que P (B) 6= 0. On a, pour tout i :
P (Ai |B) =

P (Ai B)
P (B|Ai )P (Ai )
P (B|Ai )P (Ai )
=
= X
P (B)
P (B)
P (B|An )P (An )
n1

1.3

Ev
enements ind
ependants

Etant
donnes deux evenements A et B (avec P (B) > 0), la probabilite conditionnelle P (A|B)
apparat comme une evaluation de voir A se realiser compte tenu de linformation B est quant
`a lui realise. Si, au sens du langage courant, on consid`ere que A et B sont independants, on
est raisonnablement amene `
a souhaiter que P (A|B) = P (A). Mais alors, cest que :
P (A B) = P (A) P (B)
D
efinition 1.5 Deux evenements A et B sont dits independants si :
P (A B) = P (A) P (B)

ENEMENTS

PROBABILITE
CONDITIONNELLE ET INDEPENDANCE

4CHAPITRE 1. EV
ET PROBABILITES,
Cons
equences :
Si A et B sont independants, il en est de meme de A et B ; de A et B ; de A et B.
Tout evenement A est independant de levenement certain et de levenement impossible
.
En general, on a P (A|B) 6= P (A) ce qui signifie que A depend de B.
Si les evenements A1 , A2 , ..., Am sont independants alors
P (A1 A2 ... Am ) = P (A1 )P (A2 )...P (Am ).

(1.1)

Si A1 , A2 , ..., Am sont independants alors ils le sont egalement deux `a deux :


P (Aj Ak ) = P (Aj )P (Ak )
pour j 6= k o`
u j, k = 1, 2, ..., m. Cependant, ni lune ni lautre nest en soi-meme suffisante.
La definition de lindependance de A1 , ..., Am demande que (1.1) soit verifie aussi avec
Ai , i = 1, ..., m remplaces par Aci (il sagit de 2m relations !).

1.4. EXERCICES

1.4

Exercices

Exercice 1.1
Soit A et B deux evenements de , P(A)=2/3, P (B) = 1/6, P (AB) = 1/9. Que vaut P (AB) ?
Soit P (A) = 1/3, P (B) = 1/2 et P (A B) = 3/4. Calculez P (A B) et P (Ac B c ).
Si P (A) = 0.9, P (B) = 0.8, montrer que P (A B) 0.7.
Exercice 1.2
Soit D1 et D2 representent desastres dont les probabilites sont P (D1 ) 106 , P (D2 ) 109 .
Que peut-on dire de la probabilite quau moins une des desastres ait lieu ? les deux aient lieu ?
Exercice 1.3
Un composant electronique sert a declencher une alarme si une condition extraordinaire se
presente. Ce composant est fiable a 96%. On envisage de mettre un certain nombre de ces composants en parall`ele pour augmenter la fiabilite du syst`eme dalarme. Combien de composants
doit-on placer en parall`ele de telle sorte que la fiabilite du syst`eme soit dau moins 99.99%
Exercice 1.4
On consid`ere lexperience suivante :
vous participer au jeu televise de Monty Hall, dans lequel vous avez choix de 3
portes dont une cache une voiture et les deux autres une ch`evre. Vous choisissez une
porte, par exemple, porte 1, et le hote de jeu, qui sait o`
u se trouve la voiture,
ouvre une porte derri`ere laquelle est une ch`evre, par exemple, porte 3. Il vous dit
Voulez-vous choisir maintenant la porte 2 ? Avez-vous linteret de changer votre
choix ?
On note par a la porte avec la voiture et par b et c les 2 autres portes. Lespace devenements
de lexperience est
= {a, b, c} {a, b, c}
(le premier est le choix du candidat et le second est celui de lhote).
1. Faites le tableau 3 3 avec des probabilites de tous les issus possibles de lexperience. Vous
devez tenir compte du fait que le candidat ne sais pas que la voiture est derri`ere la porte
a, mais le h
ote le sais et nouvre jamais cette porte. Vous pouvez supposer que le h
ote
choisit arbitrairement la port b ou c quand le joueur choisit a.
2. Considerez le cas de candidat qui ne change pas la porte. Quel est levenement le joueur
gagne, quelle est sa probabilite ?
3. Considerez le cas de candidat qui change la porte. Quel est levenement le joueur gagne
dans ce cas, quelle est sa probabilite ?
Exercice 1.5
Soit A et B deux evenements. Montrer que P (A|B) + P (A|B) = 1 (A et A, forment-ils un
syst`eme complet devenements ?).
Exercice 1.6

ENEMENTS

PROBABILITE
CONDITIONNELLE ET INDEPENDANCE

6CHAPITRE 1. EV
ET PROBABILITES,
Une enquete effectuee aupr`es dun grand nombre detudiants de lUniversite a permis destimer
quil y a une probabilite de : 0.7 pour quun etudiant soit interesse par linformatique, 0.4 pour
quil soit interesse par les mathematiques ; 0.25 pour quil soit interesse par ces deux mati`eres.
Quelle est le probabilite quun etudiant :
soit interesse par linfo et pas par les maths ;
soit interesse par linfo ou par les maths ;
ne soit pas interesse ni par linfo ni par les maths.
Exercice 1.7
Calculer la probabilite que 3 personnes choisies aux hazard soient nees les mois differents. Pouvezvous donner la formule pour n personnes ?
Exercice 1.8
Dans lexperience de Monty Hall (cf 1.4). Soit R levenement le prix est derri`ere la porte vous
avez choisie au depart et G levenement vous gagnez en changeant la porte.
1. Calculer P (G|R) et P (G|Rc ).
2. Calculer P (G) en utilisant la formule des probabilites totales.
Exercice 1.9
Une classe comporte 10 garcons dont la moitie a les yeux marron et 20 filles dont la moitie
a egalement les yeux marron. Calculer la probabilite P quune personne tiree au hasard soit
un garcon ou ait les yeux marrons. Les evenements el`eve est un garcon et el`eve a les yeux
marron sont-ils independants ?
Exercice 1.10
La probabilite pour que lalcootest dun ivrogne soit positif est 0.95. La probabilite pour que
lalcootest dun individu non ivre soit negatif est aussi 0.95. Soit P la probabilite quun francais
soit ivre. Calculer la probabilite qu`
a un francais detre ivre sachant que son alcootest est positif,
ainsi que la probabilite quil ne soit pas ivre sachant que sont alcootest est negatif. Faire le calcul
pour P = 0.01 et P = 0.001.
Exercice 1.11
Soit A et B evenements independants, P (B|A B) = 2/3, P (A|B) = 1/2. Quelle est P (B) ?

Chapitre 2

Variable aleatoire discrete


Une variable reelle dont la valeur depend du resultat dune experience aleatoire est appelee
variable aleatoire (v.a.). Elle est generalement desigee par une lettre majuscule.
Exemple 2.1 Supposons que nous lancions deux fois une pi`ece de monnaie. Lespace dechantillonnage est = {F F, P F, F P, P P }. Soit alors X le nombre de faces possibles. A chaque point
de lespace dechantillonnage, nous pouvons associer une valeur de X (cf tableau). X est une
variable aleatoire.
echantillon
valeurs

FF
2

FP
1

PF
1

PP
0

D
efinition 2.1 on appelle variable aleatoire reelle toute application X : R telle que pour
tout intervalle I de R lensemble {X I} est un evenement de , et poss`ede donc une probabilite
notee P (X I).
D
efinition 2.2 On appelle fonction de repartition de la v.a. X la fonction FX : R [0, 1]
telle que FX (t) = P (X t),
Propri
et
es :
1. FX est croissante, limt FX (t) = 0, limt+ FX (t) = 1.
2. si a < b, P (a < X b) = FX (b) FX (a).
Une v.a. qui peut prendre un nombre fini ou denombrable fini de valeurs est dite variable aleatoire
discr`ete. Si elle peut prendre un nombre infini non denombrable de valeurs, elle est dite variable
aleatoire continue.

2.1

Variables al
eatoires discr`
etes

Soit X une v.a. discr`ete et soient x1 , x2 , x3 , ... ses valeurs possibles, ordonnees par ordre
croissant. On suppose que la probabilite de chacune de ces valeurs est :
P (X = xk ) = f (xk )
pour k = 1, 2, 3, ...
D
efinition 2.3 On definit la fonction de probabilite f (xk ) telle que :
1. f (x) 0

CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE


2.

f (xk ) = 1

o`
u la somme en (2) est prise sur toutes les valeurs possibles de X.
Exemple 2.2 (cf Exemple 2.1) En supposant que la pi`ece nest pas truquee,
P (F F ) = P (F P ) = P (P F ) = P (P P ) =
On ecrit :
P (X = 0) = P (P P ) =

1
4

P (X = 1) = P (P F F P ) = P (P F ) + P (F P ) =
P (X = 2) = P (F F ) =

1
4

1 1
1
+ =
4 4
2

1
4

La fonction de repartition dune v.a. discr`ete X se deduit de la fonction de probabilite, en


remarquant que
X
X
P (X = xk ) =
f (xk ).
FX (t) = P (X t) =
xk t

xk t

Remarque : Soit X une v.a. qui prend des valeurs enti`eres positives. Dans les exercices, on
est parfois amene `
a utiliser les astuces suivantes :
P (X = k) = P (X k) P (X k + 1)
= P (X > k 1) P (X > k)
= P (X k) P (X k 1)
= P (X < k + 1) P (X < k)

P (X k) =

k
X
i=0

2.1.1

P (X = i),

P (X k) =

+
X

P (X = i)

i=k

Exemples de distributions discr`


etes de probabilit
e

On consid`ere des experiences telles que le lancer repetitif de pi`eces ou de des, ou le tirage de boules dans une urne, chaque lancer est dit essai. Au cours de chacun des essais, chaque
evenement particulier (obtention dune face, dun 1, dune boule rouge) est associe `a une probabilite de reussite. Dans certains cas, comme dans le cas du lancer de pi`ece ou de de, cette probabilite
ne va pas varier dessai en essai. Les essais de ce type sont dits essais independants de Bernouilli.
Loi de Bernouilli : realisation dune experience nayant que deux issues possibles, 1=succ`es
et 0=echec. La distribution dune v.a. X prenant les valeurs 1 et 0 avec les probabilites p et
1 p sappelle la loi de Bernoulilli et est notee B(1, p). On note que q = 1 p est la probabilite
dechec.
La probabilite pour que levenement (le succ`es) se realise k fois exactement au cours de n
essais est donnee par la probabilite :
f (x) = P (X = x) = Cnk pk (1 p)nk


`
2.1. VARIABLES ALEATOIRES
DISCRETES

o`
u la variable X est le nombre de succ`es au cours de n essais. Cette fonction de probabilite est
appelee distribution bin
omiale, dans la mesure o`
u, pour k = 0, 1, 2, ..., n, elle correspond aux
termes successifs du developpement du binome :
(q + p)n = q n + Cn1 p1 (1 p)n1 + Cn2 p2 (1 p)n2 + ... + pn =

n
X

Cnx px (1 p)nx .

Loi binomiale est la loi du nombre de succ`es X pendant la realisation de n essais independants
dans le schema de Bernouilli. Elle est notee B(n, p)
Soit la v.a. X represente le nombre dessais de Bernouilli jusqu`a ce que le premier succ`es
(inclus) se realise. Ici, p est la probabilite de succ`es pour un essai : f (x) = P (X = k) = pq k1
pour k = 1, 2, ... (exactement k 1 echecs avant le succ`es au k-`eme essai).
Loi g
eom
etrique est la loi du temps X dattente du premier succ`es dans les realisations
dessais independants du schema de Bernouilli. Elle est notee G(p).
Exemple 2.3 On consid`ere un ensemble de n machines independantes assemblees selon une
certaine configuration pour constituer un syst`eme dont on sinteresse au bon fonctionnement
(pour un certain cahier des charges) pour des periodes dutilisation successives 1, 2, . . . , k, . . .. On
suppose que pour la i-i`eme machine la probabilite de panne lors dune periode donnee est pi et que
de plus les comportements de la dite machine sur les differentes periodes sont independants.
Soit Xi la variable aleatoire definie par le rang de la periode o`
u se produit la premi`ere panne
pour le i-i`eme machine. On a :
P (Xi = k) = pi (1 pi )k1
On dit que la variable aleatoire Xi est de loi geometrique de param`etre pi .
Loi de Poisson Soit une X une v.a. discr`ete, pouvant prendre les valeurs k = 0, 1, 2, ... telles
que la fonction de distribution sexprime :
f (k) = P (X = k) =

k
exp ()
k!

avec > 0 donne. Cette distribution est celle de la loi de Poisson. Elle est notee P().

10

CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE

2.2

Exercices

Exercice 2.1
Soit X une v.a. discr`ete avec dont la fonction de probabilite est
x
f (x)

-1

1
4

1
8

1
8

1
2

1. Soit la v.a. Y = X 2 . Calculer la fonction de probabilite fY de Y .


2. Calculer la fonction de repartition de X et de Y en x = 1, x = 3/4 et x = 3.
Exercice 2.2
Supposons que la fonction de repartition dune v.a. discrete X est donnee par

0, x < 0,

1, 0 x <
3
F (x) =
12 , 21 x <

1,

1
2,
3
4,

x 4.

Determiner la fonction de probabilite de X.


Exercice 2.3
On lance n pieces, dont la probabilite de pile est p, chaque lancee etant independante des
autres. Toute piece tombee sur face est relancee encore une fois. Soit X le nombre total de
piles.
1. Quelle est la loi de X ? Preciser les param`etres de cette loi.
2. Quelle est la fonction de probabilite de X ?
Exercice 2.4
On tire au hasard 3 fois un nombre parmi {1, 2, 3}. Soit Xi le resultat du i-`eme tirage, alors
la fonction de probabilite f (x) de Xi est 13 pour x = 1, 2, 3 et f (x) = 0 pour tout autre x. On
suppose que chaque tirage est independant des autres. Soit
= X1 + X2 + X3
X
3
la moyenne de Xi , i = 1, ..., 3.

1. Donner la fonction de probabilite fX de X.


2. Calculer la probabilite quexactement 2 tirages donnent 1.
Exercice 2.5
Un magasin recoit 1000 ampoules. La chance quune ampoule soit defectueuse est 0.01%. Soit
X le nombre dampoules defectueuses dans la cargaison.
1. De quel type est la loi de X ? Quels sont les param`etres de cette distribution ?
2. Quelle est la probabilite que ny aucune, une, plus de deux ampoules defectueuses.
Exercice 2.6

2.2. EXERCICES

11

Vous avez decide de jouer chaque mois aux 2 loterie differentes, et vous arretez des que vous
gagnez un prix dau moins 1 million deuros dans une (ou meme les deux) loterie. On suppose
que chaque fois vous jouez la probabilite de gagner au moins 1 million est p1 pour la premiere
loterie et p2 pour la seconde. Soit M le nombre de fois vous participez dans ces lotteries jusqu`
a
avoir gagner un prix. Quelle est la loi de M ? quel est son param`etre ?
Exercice 2.7
On lance une piece jusqu`
a ce que pile apparaisse une seconde fois, avec p etant la probabilite
de pile. On suppose lindependance de tous les lances. Soit X le nombre de lances necessaires.
1. Determinez P (X = 2), P (X = 3), P (X = 4).
2. Montrez que P (X = n) = (n 1)p2 (1 p)n2 .
Exercice 2.8
On etudie larrivee des appels dans un central telephonique. On admet que, durant un intervalle
de temps de dix secondes, la probabilite quun appel arrive est p et que celle quaucun ne
survienne de 1p (on neglige la probabilite que plus dun appel ne survienne sur un tel intervalle
de temps). On suppose que les evenements concernant les periodes successives de dix secondes
sont independants. Soit Z la variable aleatoire N dappels recus en une heure. Quelle est la loi
de Z ? Donner une approximation de la probabilite quil y ait quinze appels dans lheure avec
p = 0.05.

12

CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE

Chapitre 3

Variables al
eatoires continues et
simulation
3.1

Variable al
eatoire continue

Dans limmediat nous avons besoin dune variable continue U bien particuli`ere.
Loi uniforme . Une v.a. U est distribuee uniformement sur a u b si sa fonction de
repartition sexprime :

FU (u) = P (U u) =

ua
ba

u<a
au<b
ub

Notons que la derivee fU de FU (on lappelle la densite de FU ) est donnee par


(

fU (x) =

1
ba

axb
ailleurs

(uniforme sur [a, b]).


Remarque : dans le cas discret, lexperience correspondante consiste au tirage dun objet
parmi n, X est le numero de lobjet tire. La loi de distribution uniforme est notee U (a, b).
On note que si X est une v.a. continue, la probabilite que X prenne une valeur particuli`ere
quelconque est generalement nulle. Dans ces conditions, il nest pas possible de definir une
fonction de probabilite comme pour une v.a. discr`ete. Pour pouvoir definir une distribution de
probabilites dans ce cas, on remarque que la probabilite pour que la valeur de X soit comprise
entre deux valeurs differentes est une notion qui a un sens. Lanalogie avec la section 2.1 nous
conduit `
a postuler lexistence dune fonction fX (x) telle que :
1. fX (x) 0
2.

R +

fX (x) = 1

D
efinition 3.1 La probabilite pour que la variable aleatoire continue X soit comprise entre a
et b est donnee par :
Z b

P (a < X < b) =

fX (x)dx.
a

La fonction fX est appelee densite de probabilite definie pour une v.a. continue.

14

CHAPITRE 3. VARIABLES ALEATOIRES


CONTINUES ET SIMULATION

Cons
equence :

la fonction de repartition (f.d.r.) F (x) dune v.a. continue est donnee par :
FX (x) = P (X x) = P ( < X x) =

Z x

fX (u)du,

et fX (x) = FX0 (x).


Loi exponentielle
D
efinition 3.2 Une variable aleatoire X suit la loi exponentielle de param`etre > 0 (on note
X E() si sa f.d.r secrit
(

FX (x) = P (X x) =

0, x < 0,
x 0.

ex ,

En derivant F on obtient la densite de E() :


(

f (x) =

0, x < 0,
ex , x 0.

A noter que dans la literature on utilise souvent la notation E() pour la loi exponentielle de
param`etre = 1 . Ceci peut etre une source de confusion dans ce cas, par exemple, la densite
de la loi secrit
(
0, x < 0,
x
f (x) =
1
, x 0.
e
Loi normale
D
efinition 3.3 Une variable aleatoire X suit la loi normale de param`etres et 2 > 0 (on note
X N (, 2 ) si sa densite de probabilite est
fX (x) =

x 2
1
e( ) , < x < .
2

On appelle N (0, 1) la loi normale standardisee, on note (x) la densite de N (0, 1) :


x2
1
(x) = e 2 , < x < ,
2

et (x) la f.d.r de cette loi. La loi N (0, 1) est symetrique par rapport `a 0 , c.-`a.d. (x) = (x)
et, en consequence, (x) = 1 (x).
Loi de Pareto
D
efinition 3.4 Une variable aleatoire X suit la loi de Pareto de param`etre (on note X
P ar() si sa f.d.r. est
(
0, x < 1,
FX (x) =
1 x , x 1.
En derivant nous avons densite de la loi P ar() :
(

fX (x) =

0, x < 1,
, x 1.
x+1

3.2. SIMULATION

3.2

15

Simulation

Dans les applications on a souvent besoin de generer (construire) de facon artificielle (`


a laide
dun ordinateur, par exemple) des nombres aleatoires X1 , ..., Xn suivant la loi F (on lappelle un

echantillon). Les methodes de simulation permettent dobtenir seulement une valeur pseudoal
eatoire, au lieu dune valeur aleatoire. Cela signifie que les nombres X1 , ..., Xn simules sont
d
eterministes ils sont obtenus par un algorithme deterministe mais les proprietes de la
suite X1 , ..., Xn sont proches de celles dune suite aleatoire i.i.d. de meme loi.

3.2.1

Simulation des variables uniform


ement distribu
ees

Le programme-generateur est disponible dans les nombreux langages de programmation.


Quel est le principe de son fonctionnement ?
On se donne un nombre reel a > 1 et un nombre entier m (dhabitude a et m sont des tr`es
grands nombres). On commence par une valeur z0 fixe. Pour tout 1 i n on definit
zi =

le reste de division de azi1 par m




azi1
= azi1
m,
m

o`
u [] est partie enti`ere. Nous avons toujours 0 zi < m. On definit
zi
azi1
azi1
=

,
m
m
m


Ui =

alors 0 Ui < 1. La suite U1 , ..., Un est consideree comme un echantillon de la loi uniforme
U [0, 1].
Les valeurs suivantes de param`etres sont tr`es repandues et donnent en general satisfaction :
a = 16807(75 ),

m = 2147483647(231 1).

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

Figure 3.1 la f.d.r en escalier dune variable pseudo-aleatoire et la f.d.r. theorique

3.2.2

Simulation des variables dune loi g


en
erale

Etant
donne une variable aleatoire U de loi uniforme, on peut obtenir variable aleatoire X
dune loi generale F () par la m
ethode dinversion. Elle marche bien si on poss`
ede une
expression explicite pour F (). Cette methode est basee sur la proposition suivante :

16

CHAPITRE 3. VARIABLES ALEATOIRES


CONTINUES ET SIMULATION

Proposition 3.1 Soit F une f.d.r. continue et strictement monotone, et soit U une variable
aleatoire uniformement distribuee sur [0, 1]. Alors la v.a.
X = F 1 (U )
a F () comme f.d.r.
Preuve : On note que
F (x) = P (U F (x)) = P (F 1 (U ) x) = P (X x).

Do`
u lalgorithme de simulation suivant : si F (x) est continue est strictement croissante, on
prend
X = F 1 (U ),
o`
u U est un nombre pseudo-aleatoire uniformement distribue sur [0, 1].
Si F nest pas continue ou strictement monotone, il faut modifier la definition de F 1 . On
pose

F 1 (y) = sup{t : F (t) < y}.


Alors,
P (X x) = P (sup{t : F (t) < U } x) = P (U F (x)) = F (x).

Exemple 3.1 Repartition exponentielle :


F (x) = (1 x ) pour x 0.
On calcule F 1 (y) = ln(1 y) pour y (0, 1). X = ln(1 U ) o`
u U U [0, 1].
Exemple 3.2 Loi de Bernoulli :
P (X = 0) = 1 p, 0 < p < 1.

P (X = 1) = p,
On utilise la methode modifiee :

(y) = sup{t : F (t) < y} =

0,
1,

y [0, 1 p],
y (1 p, 1].

Si U est une v.a. de loi uniforme, alors X = F 1 (U ) suit la loi de Bernoulli, on a


(

X=

0,
1,

U [0, 1 p],
U (1 p, 1].

Simulation des variables transform


ees Comment simuler une v.a. Y de loi F ((x )/),
etant donne v.a. X de F () ? On suppose que > 0 et R). Il faut prendre Y = X +
(pourquoi ?).

3.3. EXERCICES

3.3

17

Exercices

Exercice 3.1
Soit X une v.a. continue avec la densite de probabilite

f (x) =

4 , pour 0 x 1,

1
4 , pour 2 x 3,

0, partout ailleurs.

1. Dessinez le graphe de f .
2. Determinez la f.d.r. F de X, dessinez le graphe de F .
Exercice 3.2
Supposons que la fonction de repartition dune v.a. continue X, `a valeurs dans [0, 1] est donnee
par
F (x) = x2 , 0 x 1.
Calculer P

1
2

3
4

Exercice 3.3
La densite de probabilite f dune v.a. X est donnee par

f (x) =

cx + 3, pour 3 x 2,

3 cx, pour 2 x 3,
0, partout ailleurs.

1. Determiner c.
2. Calculer la fonction de repartition de X.
Exercice 3.4
Soit X E(0.2) Calculer P (X > 5).
Exercice 3.5
La note dun etudiant recue `
a un examen est une valeur entre 0 et 1. Letudiant passe son
examen si sa note est au moins 0.55. On modelise cette experience par une v.a. continue N (la
note), dont la densite est donnee par

4x, pour 0 x 12 ,
4 4x, pour 12 x 1,
f (x) =

0, partout ailleurs.
1. Quelle est la probabilite que letudiant echoue ?
2. Quel note il obtiendra avec au moins 50% de chance, autrement dit, quelle est la mediane
de la distribution de notes ?
Exercice 3.6


CHAPITRE 3. VARIABLES ALEATOIRES
CONTINUES ET SIMULATION

18

On consider lexperience de jeu de flechettes, dans laquelle on decrit la distance dune flechette
Y lancee par un joueur au centre du disque par la loi de probabilite avec la f.d.r.

G(y) =

q 0, y < 0,
y
r,

0yr
1, y > r,

r etant le rayon du disque.


1. Esquisser la densite de probabilite g(y) = G0 (y).
2. Une autre personne participe au jeu, pour ce joueur la probabilite que sa flechette frappe
une region et proportionnelle `
a laire de cette region (autrement dit, le point dimpact est
uniformement distribue sur le disque). A votre avis, lequel des 2 joueur est meilleur ?
3. Esquisser la fonction de repartition associee `a une personne qui dans 90% de ses lancees
frappe le disque `
a la distance au centre ne depassant pas 0.1r.
Exercice 3.7
Supposons quon choisit de facon arbitraire un point P dans le carre avec les sommets en (2.1),
(3, 1), (2, 2) et (3, 2). La variable aleatoire A est laire de triangle avec les sommets en (2, 1),
(3, 1) et P .
1. Quelle est la surface A maximale quon peut obtenir ? Quelle est lensemble de points P
pour lesquels A 41 ?
2. Determiner la f.d.r. F de A et sa densite de probabilite.
Exercice 3.8
1. Calculer la mediane de la loi exponentielle E().
2. Calculer la mediane de la loi de Pareto P ar(1).
Exercice 3.9
On consid`ere une v.a. Z N (0, 1).
1. Montrez pourquoi la symetrie de la densite de Z implique que (x) = 1 (x).
2. Calculez P (Z 2).
Exercice 3.10
Une v.a. Y prend les valeurs 1, 3 et 4 avec les probabilites P (Y = 1) = 3/5, P (Y = 3) = 1/5 et
P (Y = 4) = 1/5. Decrivez comment vous allez obtenir Y `a partir dune v.a. U U (0, 1).
Exercice 3.11
Soit U U (0, 1).
1. Expliquez comment obtenir une simulation de des `a 6 faces `a partir de U .
2. Soit Y = [6U + 1], o`
u [a] est la partie enti`ere de a. Quelles sont les valeurs possibles de Y
et leurs probabilites ?
Exercice 3.12

3.3. EXERCICES

19

Dans la modelisation de duree de vie des composants mecaniques on utilise quelquefois des v.a.
de loi de Weibull. Un exemple de loi de cette famille est la loi dont la f.d.r est
(

F (x) =

0, x < 0
x 0.

2
e5x ,

Construire une variable Z avec cette loi `a partir dune v.a. de loi U (0, 1).
Exercice 3.13
La v.a. X suit la loi de Pareto P ar(3), dont la f.d.r. est F (x) = 0 pour x < 1 et F (x) = 1 x3
pour x 1. Decrivez la construction de X `a partir dune v.a. U U (0, 1).

20

CHAPITRE 3. VARIABLES ALEATOIRES


CONTINUES ET SIMULATION

Chapitre 4

Esp
erance, variance,
ecart-type
4.1

Esp
erance (moyenne th
eorique)

D
efinition 4.1 soit X une variable aleatoire discr`ete numerique (i.e. X() R). Si
X

|xk | P (X = xk )

xk X()

converge, on appelle esperance mathematique de X le nombre :


X

E(X) =

xk P (X = xk ).

xk X()

Ou, de mani`ere equivalente, si P (X = xk ) = fX (xk )


E(X) =

fX (x).

xX()

e k
k! ,

Exemple 4.1 Si pour x N, P (X = k) =


Poisson). On calcule E(X) :
E(X) =

X
e k

k=0

k!

=e

avec > 0 fixe (Variable aleatoire de

X
k1
k

=e
=
(k 1)!
k!
k=1
k=0

Remarque : Lorsque toutes les probabilites sont egales (evenements equiprobables), lesperance
mathematique est egale a
` la moyenne arithmetique, et
E(X) =

x1 + x2 + ... + xn
.
n

De facon generale, lesperance de X est encore appelee moyenne de X, notee X ou .


Fonctionnelles de v.a.
Soit X une v.a., alors Y = g(X) est aussi une v.a., telle que
P (Y = y) =

X
x: g(x)=y

P (X = x)

CHAPITRE 4. ESPERANCE,
VARIANCE, ECART-TYPE

22

Soit A une v.a. discr`ete et g une fonction reelle, on a :


X

1. E[g(X)] =

g(x)P (X = x) =

2. do`
u E[X 2 ] =

g(x)fX (x)

xX()

x2 P (X = x) =

x2 fX (x)

xX()

Soit A une v.a. continue de densite de probabilite f (x) et g une fonction reelle, on a :
Z

g(x)f (x)dx

E[g(X)] =

4.2

Variance et
ecart-type

2 ) lesp
D
efinition : On appelle variance de X (et on note Var(X) ou 2 (X) ou X
erance
2
mathematique, si elle existe, de la variable aleatoire [X E(X)] .

Var(X) = E(X 2 ) E(X)2 . En effet,

Propri
et
es :

Var(X) = E([X E(X)]2 )


X

(x E(X))2 P (X = x)

xX()

xX()

x2 P (X = x) 2E(X)

xX()

{z

=E(X 2 )

xP (X = x) +E(X)2

P (X = x)

xX()

{z

=E(X)

{z

=1

= E(X 2 ) E(X)2
D
efinition 4.2 On appelle ecart-type de X (et on note (X) ou X ) la quantite :
(X) =

Var(X).

La variance (ou ecart-type) est une mesure de dispersion (ou de distribution) des valeurs de la
v.a. autour de la moyenne = E(X).
De plus,
(a, b) R2 , E(aX + b) = aE(X) + b
(a, b) R2 , Var(aX + b) = a2 Var(X)
(a, b) R2 , (aX + b) = |a|(X)
Variable centr
ee, r
eduite, centr
ee r
eduite
Une variable aleatoire est dite centree si son esperance est nulle. La variable aleatoire Y
centree associee `
a X est : Y = X E(X).
Une variable aleatoire est dite centree reduite si son esperance est nulle et si sa variance est
X E(X)
egale `a 1. La variable aleatoire Y centree reduite associee `a X est : Y = X =
.
(X)


4.2. VARIANCE ET ECART-TYPE

23

Memo des lois discr`etes


X()
P (X = k)

Loi et Notation
Loi uniforme U(n)

[1, n]

Loi de Bernoulli B(1, p)

{0, 1}

Loi binomiale B(n, p)

[0, n]

1
n
P (X = 1) = p
P (X = 0) = 1p
Cnk pk (1 p)nk

Loi geometrique G(p)

(1 p)k1 p

Loi de Poisson P()

Loi et Notation

X()

Loi uniforme U(a, b)

[a, b]

Loi Exponentielle E()


Loi normale N (, )
Loi de Pareto P ar()

k
k!

Memo des lois continues


f (x)

[0, +[
] , +[
[1, +[

1
1{a x b}
ba
ex 1{x 0}
1
2

exp

x+1

Var(X)

n+1
2

(n 1)2
12

p(1 p)

np
1
p

np(1 p)
1p
p2

E(X)

Var(X)

a+b
2

(b a)2
12

1
2

(x)2
2 2

1{x 1}

E(X)

pour > 1

1
pour > 2

2

CHAPITRE 4. ESPERANCE,
VARIANCE, ECART-TYPE

24

4.3

Exercices

Exercice 4.1
Soit D le de `a 6 faces. Decrivez la loi de D. Calculez son esperance et son ecart-type.
Exercice 4.2
La distribution de la v.a. discr`ete X est donnee par
1
2
2
P (X = 1) = , P (X = 0) = , P (X = 1) = .
5
5
5
1. Calculer E(X).
2. Donner la loi de Y = X 2 et calculer E(Y ) en utilisant la distribution de Y .
3. Calculer E(X 2 ) en utilisant le changement de variables et comparer avec le resultat
prec`edent. Calculer Var(X).
Exercice 4.3
Soit X une v.a. avec E(X) = 2, Var(X) = 3. Que vaut E(X 2 ) ?
Exercice 4.4
Soit X une v.a. avec E(X) = 2, Var(X) = 4. Calculer lesperance et la variance de 3 2X.
Exercice 4.5
Une v.a. Z `a densite f (z) = 3z 2 /19 pour 2 z 3 et f (z) = 0 partout ailleurs. Determiner
E(Z). Avant de fare les calculs, sauriez-vous dire si cette valeur est plus proche de 2 ou de 3 ?
Exercice 4.6
Soit X une v.a. dont la densite est donnee par
(

f (x) =

4x 4x3 , 0 x 1
0, partout ailleurs.

Calculer esperance et la variance de la v.a. Y = 2X + 3.


Exercice 4.7
Soit U U (a, b). Calculer E(U ) et Var(U ).
Exercice 4.8
Soit X P ar().
1. Calculer lesperance de P ar(2).
2. Determiner lesperance de P ar( 12 ).
3. Soit X P ar(). Verifier que E(X) =

pour > 1.

4. Pour quelles valeurs de la variance de la loi P ar() est finie ? Calculer la variance de la
loi de Pareto.
Exercice 4.9

4.3. EXERCICES

25

Montrer que la moyenne des carres est plus grande que le carre de la moyenne, c.-`a-d. E(X 2 )
[E(X)]2 .
Indication : on peut penser utiliser linegalite Var(X) 0.
Exercice 4.10
Supposons quon choisit de facon arbitraire un point P dans le carre avec les sommets en (2.1),
(3, 1), (2, 2) et (3, 2). La variable aleatoire A est laire de triangle avec les sommets en (2, 1),
(3, 1) et P (cf lexercice 3.7). Calculer E(A) et Var(A).
Exercice 4.11
Soit X une v.a. discr`ete qui prend les valeurs a1 , a2 , ... avec les probabilites p1 , p2 , ...
1. Supposons que tous les ai 0 et E(X) = 0. Montrer que P (X = 0) = 1.
2. Supposons que Y une v.a. discr`ete `a valeurs b1 , b2 , ... avec probabilites r1 , r2 , .... Montrer
que Var(Y ) = 0 implique que P (Y = E(Y )) = 1.
Indication : appliquer le resultat precedent avec X = (Y E(Y ))2 .

26

CHAPITRE 4. ESPERANCE,
VARIANCE, ECART-TYPE

Chapitre 5

Calcul
5.1

Fonctions dune variable al


eatoire et changement de variables

Le propos de ce paragraphe est de montrer comment calculer la loi dune fonction dune v.a.

5.1.1

Le cas discret

Soit X une v.a. discr`ete sur {x1 , ..., xn , ...} de fonction de probabilite P (xk ) = P (X = xk ) et
soit (x) une fonction reelle donnee. Nous avons
P (Y = y) = P (X 1 (y)) =

P (xk ),

k: (xk )=y

pour yi {(x1 ), ..., (xn ), ...}.


La technique generale consiste `a utiliser les relations :
FY (y) = P (Y y) = P ((X) y) = P (X 1 (y)).

5.1.2

Cas continue

On suppose que X est une v.a. continue de densite fX et que est une fonction continue
strictement monotone sur lensemble de valeurs de X. Sans perte de generalite on peut supposer
que est croissante. Si et 1 (qui est bien definie dans ce cas) sont derivable, on a pour
Y = (X) et tout b > a :
P (a < Y b) = P (a < (X) b) = P ( 1 (a) < X 1 (b))
Z 1 (b)

1 (a)

Z b

fX (x)dx =

fX ( 1 (y))[ 1 (y)]0 dy

par la formule de changement de variables y = (x). Ainsi,


fY (y) = fX ( 1 (y))[ 1 (y)]0 =

fX ( 1 (y))
| 0 ( 1 (y))|

pour tout y = (x) et 0 sinon. Nous avons ajoute la valeur absolue pour traiter les 2 cas possibles
de fonction croissante et decroissante.

28

CHAPITRE 5. CALCUL

5.2

Fonctions generatrices, fonctions caract


eristiques

On definit pour tout reel t la fonction generatrice de la v.a. X par


(t) = E(e

tX

( P
etxk P (xk ) = si X est une v.a. discrete de fonction de probabilite P ,
) = R xk tx
e

f (x)dx

si X est une v.a. continue de densite f .

Attention : on doit definir proprement le domaine de .


On appelle fonction generatrice des moments du fait que tous le moments dordre n de X,
c.-`a-d. les valeurs Mn = E(X n ), n = 1, 2, ... peuvent etre calculees en derivant n fois en t = 0 :
d
(t) = E(etX ) = E
dt
0

d tX
e
dt

= E(XetX ),

alors 0 (0) = E(X). Lexpression generale de la n-`eme derivee de est


(n)

dn
(t) = n E(etX ) = E
dt

 n
d

tX

dtn

= E(X n etX ), n 1,

qui laisse (n) (0) = E(X n ), n 1. Memo des lois discr`etes


Lois (discr`etes)
Loi uniforme sur {1, ..., n}, U(n)
Loi de Bernoulli B(1, p)
Loi binomiale B(n, p)
Loi geometrique G(p)

Fonction de probabilite P (k)


1
n
P (X = 1) = p
P (X = 0) = 1p
Cnk pk (1 p)nk
(1 p)k1 p
e

Loi de Poisson P()

Fonction generatrice (t)


tn

1)
et (eet 1

pet + 1 p
(pet + 1 p)n
pet
1(1p)et

k
k!

exp (et 1)


Memo des lois continues


Densite f (x)
Fonction generatrice (t)
1
etb eta
Loi uniforme U(a, b)
1{a x b}
t(ba)
ba

x
Loi Exponentielle E()
e
1{x 0}
t , t <
Lois (continues)

Loi normale N (, )

1
2

exp

(x)2
2 2

exp t +

2 t2
2

La fonction
caracteristique (t) dune v.a. continue X est sa fonction generatrice au point it (ici

i = 1) :
Z
(t) = E(eitX ) =

eitx f (x)dx

(definie pour tout t R). Nous avons la formule dinversion


1
f (x) =
2

eitx (t)dt.

Par exemple, la fonction caracteristique de la loi de Pareto P ar() est donnee par :
(t) = (it) (, it),
o`
u (, x) =

R s1 t
e dt est la fonction gamma incomplete.
x t


UTILES
5.3. QUELQUES INEGALIT
ES

5.3

29

Quelques in
egalit
es utiles

In
egalit
e de Markov : soit h une fonction croissante, telle que lesperance de h(X) existe,
alors pour tout a t.q. h(a) > 0,
E(h(X))
P (X a)
.
h(a)
Nous avons comme corollaire linegalite de Tchebychev : soit X est carre-integrable (c.-`
a-d. que
2
lesperance de X est finie), alors
P (|X| a)

E(X 2 )
,
a2

P (|X E(X)| a)

Var(X)
.
a2

In
egalit
e de Jensen : soit g une fonction convexe, X est une v.a telle que lesperance de X
existe, alors
g(E(X)) E(g(X)).

30

CHAPITRE 5. CALCUL

5.4

Exercices

Exercice 5.1
On suppose que la v.a. continue U suit une loi uniforme sur [0, 1].
1. Determiner la f.d.r de la v.a. V = aU + b, avec a > 0.
2. Soit X une v.a. continue et Y = X. Exprimer la f.d.r. de Y en fonction de celle de X.
3. Pouvez-vous donner la f.d.r. de V = aU + b pour un a reel ?
Exercice 5.2

Soit X E(). Ecrire


la f.d.r de la v.a. X. Quelle est la loi de X ?
Exercice 5.3
Soit X une variable aleatoire uniforme sur [0, 1].
1. Calculer la f.d.r. et la densite de Y = X n .
2. Calculer E(X n ), puis verifier ce resultat en faisant appel `a la definition de lesperance
E(Y ).
Exercice 5.4
Soit X une v.a. continue dont la densite est donnee par
(

fX (x) =

3
4 x(2

x), 0 x 2,
0, ailleurs.

1. Donner la f.d.r. de X.

2. Soit Y = X. Quelle est la f.d.r. FY de Y ? Calculer la densite de Y .


Exercice 5.5
Soit X une v.a. continue a valeurs positives avec la densite fX et soit Y = 1/X.
1. Calculer la f.d.r. de Y et verifier que fY (y) =

1
f
y2 X

 
1
y

2. Soit Z = 1/Y . Quelle est la densite de Z ?


3. Soit dans les conditions de cet exercice X une v.a. reelle telle que P (X = 0) = 0. Quelle
est lexpression de la f.d.r. FY de Y ? de la densite fY ?
4. Soit X une v.a. continue de loi de Cauchy, dont la densite est fX (x) =
la loi de Y = 1/X dans ce cas ?

1
.
(1+x2 )

Quelle est

Exercice 5.6
Soit X une v.a. de la loi exponentielle E(1). On pose
1

X
W =
.

Donner la f.d.r. de W , sa densite de probabilite.


Note : La loi de W est souvent utilisee dans la theorie de fiabilite, on lappelle loi de Weibull
W(, ) de param`etres et

5.4. EXERCICES

31

Exercice 5.7
Soit X une v.a. avec la fonction de probabilite suivante :
x
f (x)

0
1
100 10000
1/4 1/4 1/4
1/4

1. Determinez la distribution de Y = X.

p
2. Qui est plus grand : E( X) ou E(X) ?

Indication : commencez par verifier que g(x) = x est convexe.

p
3. Calculez E( X) et E(X) pour verifier votre reponse (et pour voir quelle difference ca
fait).
Exercice 5.8
Soit U U (, 2). Qui est plus grand : E(sin(X)) ou sin(E(X)) ? Calculez les deux esperances
pour contr
oler votre reponse.
Exercice 5.9
Meilleur prediction. On cherche a` donner une prediction a dune v.a. X qui serait optimale dans
le sens de lecart quadratique moyen :
E((X a)2 ) E((X x)2 ) pour tout x R.
Comment choisiriez-vous a ?
Exercice 5.10
A partir du  pole nord  N , le point Q du cercle du diam`etre 1 est projete sur le point t de
la droite comme sur la figure

Figure 5.1 Projection du cercle sur la droite


On suppose que Q est choisi uniformement sur le cercle, ce qui implique exactement que
langle est choisi uniformement sur [ 2 , 2 ] (pouvez-vous justifier ceci ?). Soit X cet angle
uniformement distribue sur [ 2 , 2 ], quelle sera la loi de la projection Z de Q sur la droite ?
Notez que levenement {Z t} est exactement le meme que {X }.
1. Quelle partie du cercle est projetee sur lintervalle [1, [ ?
2. Calculez la f.d.r. et la densite de Z.
Exercice 5.11
Un point est choisi au hasard sur un segment de longueur L. Soit X le rapport entre le plus
petit et le plus grand segment obtenu. Calculer P (X 1/4). Determiner la loi de X.

32

CHAPITRE 5. CALCUL

Exercice 5.12
Calculer la fonction generatrice de la variable aleatoire X B(p).
Calculer la fonction generatrice de la variable aleatoire X G(p).
Exercice 5.13
Soit X, une variable de fonction generatrice . On pose (t) = log((t)). Montrer que 00 (0) =
Var(X).
Exercice 5.14
Un individu jette une pi`ece de monnaie equilibree jusqu`a ce que pile apparaisse pour la premi`ere
fois. Si pile apparat au n-`eme jet, lindividu gagne 2n euros. Soit X, le gain du joueur. Montrer
que E(X) = +. Ce probl`eme porte le nom de paradoxe de St. Petersbourg.
Seriez-vous dispose `
a payer 1 000 000 deuros pour jouer une fois `a ce jeu ? 100 fois ?
Exercice 5.15
1. Un bureau de poste doit etre installe le long dune route de longueur A, A < . Si la
population est uniformement repartie sur [0, A], o`
u doit-on la poste de facon `a minimiser
lesperance de la distance entre le poste et le destinataire ? Autrement dit, on cherche `a
minimiser
E(|X a|)
o`
u X est uniformement distribuee sur [0, A].
2. Pour une distribution F , on dit que m est la mediane de cette distribution si
F (m)

1
1
et 1 F (m) .
2
2

Si la distribution est continue, la mediane est lunique valeur pour laquelle F (m) = 12 . Que
peut-on dire de la valeur de a qui minimise E(|X a|), lorsque X suit une distribution
notee F ?
Exercice 5.16
1. Un produit de saison rapporte un benefice net de b euros par unite vendue mais, inversement, chaque unite invendue `
a la fin de la saison engendre une perte de d euros. On
approxime la loi de la demande X dunites achetes aupr`es dun certain magasin par une
loi continue de probabilite de densite f `a valeurs non negatives. On admet que le magasin
doit avoir constitue tout son stock avant la saison. Quelle doit etre la taille de ce stock si
lon veut maximiser le resultat net moyen de loperation ?
Indication : si on designe par s la taille du stock et par rs (X) le revenu net de loperation.
cest-`a-dire le benefice, on a
(

rs (X) =

bX (s X)d, si X s
bs, si X > s.

2. Supposons maintenant que le magasin decrit ci-dessus encoure un co


ut additionnel c pour
chaque unite de demande non satisfaite. 1 Calculer lesperance de profit si le stock est de
s unites et determiner la valeur de s qui maximise ce profit.
1. Ceci est frequemment appele un co
ut en  goodwill  car le magasin perd un peu de la confiance des clients
dont la demande nest pas satisfaite.

Chapitre 6

Vecteurs al
eatoires : loi conjointe et
ind
ependance
6.1
6.1.1

Definitions des distribution jointes


Fonction de r
epartition conjointe

Il est souvent necessaire de considerer des evenements relatifs `a deux ou meme `a plus de
deux variables. Pour traiter de tels probl`emes on definit une fonction F de repartition jointe.
D
efinition 6.1 Pour toute paire de v.a. X et Y , definie sur le meme espace devenements ,
on definie la fonction de repartition conjointe FX,Y (x, y) = F (x, y) par
F (x, y) = P (X x, Y y), < x, y < .

La fonction de repartition de X peut etre deduite de la fdr joint de X et de Y :




FX (x) = P (X x) = P (X x, Y < ) = P
=

lim {X x, Y y}

lim P (X x, Y < y) = lim F (x, y) = F (x, ).

marginale
D
efinition 6.2 Les fonctions de repartition FX et FY sont dites fonction de repartition marginales.
La probabilite de tous les evenements relatifs `a X et Y peut etre calculee `a partir de F (x, y),
e.g. :
P (X > a, Y > b) = 1 P ({X > a, Y > b}) = 1 P ({X > a} {Y > b})
= 1 P ({X a} {Y b})
= 1 [P (X a) + P (Y b) P (X a, Y b)]
= 1 FX (a) FY (b) + F (a, b).

6.1.2

Loi discrete jointe

Dans le cas o`
u X et Y sont deux variables discr`etes, il est commode de definir la loi de
probabilite conjointe de X et Y :
P (x, y) = P (X = x, Y = y).

(6.1)

34

CHAPITRE 6. VECTEURS ALEATOIRES


: LOI CONJOINTE ET INDEPENDANCE

La loi de probabilite marginale de X sen deduit ainsi :


X

PX (x) = P (X = x) =

P (x, y).

y: P (x,y)>0

De facon similaire
X

PY (y) =

P (x, y).

(6.2)

x: P (x,y)>0

D
efinition 6.3 Soit X et Y deux v.a. discretes `
a valeurs {xi }, i = 1, ... et {yj }, j = 1, ...
Pour y {yj } on appelle la loi conditionnelle de X sachant Y = y la famille de nombres
P (X = xi |Y = y), i = 1, ...
Dapr`es la definition, si P (Y = y) > 0 on a
P (X = x|Y = y) =

P (X = x, Y = y)
P (Y = y)

(sinon, on peut poser, par exemple, P (X = x|Y = y) = P (X = x)). Nous avons


X

P (X = xi |Y = y) =

X P (X = xi , Y = y)

P (Y = y)

X
1
P (X = xi , Y = y) = 1
P (Y = y) i

par (6.2), et donc P (X = |Y = y) est une loi de probabilite.

6.1.3

Densit
e conjointe

D
efinition 6.4 Les variables X et Y sont dites conjointement continues sil existe une fonction
f de deux arguments reels ayant pour tout sous-ensemble C du plan la propriete suivante :
P ((X, Y ) C) =

Z Z

f (x, y)dxdy

(6.3)

(x,y)C

La fonction f est appelee densite conjointe de X et Y.


Si on note par A et B deux ensembles de nombres reels, en definissant C = {(x, y) : x A, y
B}, on obtient gr
ace `
a (6.3) :
P (X A, Y B) =

Z Z

f (x, y)dxdy.
B

Comme
F (x, y) = P (X x, Y y) =

Z b Z a

f (x, y)dxdy.

il suffi de deriver pour obtenir


f (x, y) =

2 F (x, y)
.
xy

Les densites marginales de X et Y sont donnees par


Z

fX (x) =

f (x, y)dy, fY (y) =

f (x, y)dx

(6.4)

6.2. DISTRIBUTION CONJOINTE DE PLUSIEURS VARIABLES

35

Soit (X, Y ) un couple de v.a. possedant la densite jointe fX,Y (x, y), on note fX (x) et fY (y)
les densites marginales respectives de X et de Y . Pour definir la densite conditionnelle de X
sachant Y = y on ecrira :
P (X [x, x + dx]|Y [y, y + dy]) =

P (X [x, x + dx], Y [y, y + dy])


P (Y [y, y + dy])

=
=

Notons que lorsque fY (y) > 0, comme fY (y) =


densite de probabilite sur R.

fX,Y (x, y)dx,

la fonction

fX,Y (x, y)dxdy


fY (y)dy
fX,Y (x, y)
dx.
fY (y)
fX,Y (x,y)
fY (y)

est une

D
efinition 6.5 Pour y R , on appelle densite conditionnelle de X sachant Y = y la densite
fX|Y (x|y) donnee par la formule
( f (x,y)
X,Y
fY (y)

fX|Y (x|y) =

6.2

fX (x)

si fY (y) > 0,
sinon.

Distribution conjointe de plusieurs variables

D
efinition 6.6 La fonction de repartition conjointe F du vecteur aleatoire X n = (X1 , ..., Xn )
(on suppose les v.a. X1 , ..., Xn definies sur le meme espace devenements) est donnee par
F (x1 , ..., xn ) = P (X1 x1 , X2 x2 , ..., Xn xn ).

Dans le cas des v.a. X1 , ..., Xn discr`etes, la loi conjointe peut etre aussi caracterisee par la
probabilite conjointe (cf. (6.1)) :
P (x1 , ..., xn ) = P (X1 = x1 , ..., Xn = xn ).
Par ailleurs, les n v.a. seront dites conjointement continues sil existe une fonction f de n
arguments, appellee densite conjointe de X1 , ..., Xn telle que pour tout C Rn (cf (6.4)) :
P ((X1 , ..., Xn ) C) =

...

f (x1 , ..., xn )dx1 ...dxn .


(x1 ,...,xn )C

On definie de facon transparente les notions de loi marginale et conditionnelle dans ce cas.

6.3
6.3.1

Variables al
eatoires ind
ependantes
Definitions, crit`
eres dind
ependance

D
efinition 6.7 Deux variables aleatoires X et Y sont dites independantes si, pour tout choix
dune paire densembles A et B de reels, on a
P (X A, Y B) = P (X A)P (Y B).

(6.5)

On notera XY .
En dautres termes, X et Y sont independantes si, quels que soient A et B, les evenements
{X A} et {Y B} sont independants.

36

CHAPITRE 6. VECTEURS ALEATOIRES


: LOI CONJOINTE ET INDEPENDANCE

On peut montrer que (6.5) est vraie si et seulement si pour tout couple (x, y) de reels
P (X x, Y y) = P (X x)P (Y y),
ce qui revient a ecrire que X et Y sont independantes si
F (x, y) = FX (x)FY (y).
Lorsque X et Y sont discr`etes, la condition (6.5) est equivalente `a
P (x, y) = PX (x)PY (y)
pour tous x et y. Lorsque X et Y sont des variables conjointement continues, le crit`ere dindependance
sera
f (x, y) = fX (x)fY (y) pour tout x et tout y.
Intuitivement parlant. on pourra donc dire que X et Y sont independantes si le fait de connatre
la valeur de lune ninflue pas sur la distribution de lautre.
On verifie immediatement que 2 v.a. discr`etes sont independantes ssi la loi conditionnelle de
X sachant Y = y ne depend pas de y. En effet, la necessite etant evidente, supposons que pour
tous x, y admissible P (X = x|Y = y) = (x). Si on fixe x, en multipliant par P (Y = y) et en
faisant la somme sur y on obtient P (X = x) = (x), ainsi
P (X = x, Y = y) = P (X = x|Y = y)P (Y = y) = (x)P (Y = y) = P (X = x)P (Y = y).
La meme condition reste valable pour les v.a. continues (on conduit la preuve de la meme
facon en remplacant les sommes par les integrales).
Des variables qui ne sont pas independantes sont dites dependantes.

6.3.2

Somme des variables al


eatoires ind
ependantes, convolution

Soit X et Y deux v.a. independantes. La distribution de la somme Z = X + Y est donnee


par la convolution de celles de X et Y : nous avons dans le cas des v.a. discr`etes a valeurs dans
Z:

PZ (k) = P (X + Y = k) =

PX (j)PY (k j);

j=

et dans le cas des v.a. continues :


Z

fZ (z) =

6.3.3

fX (x)fY (z x)dx.

(6.6)

Propagation dind
ependance

Une question importante concerne la preservation de lindependance par les transformations


des variables independantes. Par exemple, soit I =]a, b], et X et Y deux v.a. independantes. On
note U = 1{X I} et V = 1{Y I}. On ecrit
P (U = 0, Y = 1) = P (X
/ I, Y I) = P (X
/ I)P (Y I) = P (U = 0)P (V = 1),
et on obtient par un raisonnement similaire pour tout u, v :
P (U = u, V = v) = P (U = u)P (V = v).
Nous avons la r`egle generale suivante :
soit X1 , ..., Xn v.a. independantes. Soit pour tout gi : R R, et Yi = gi (Xi ),
i = 1, ..., n. Alors Y1 , ..., Yn sont independants.

6.4. EXERCICES

6.4

37

Exercices

Exercice 6.1
Les probabilites P (X = a, Y = b) de v.a. discr`etes X et Y sont donnees dans le tableau suivant :

1. Determiner les distributions marginales de X et Y , c.-`a-d. les probabilites P (X = a) et


P (Y = b) pour a, b = 1, ..., 4, la loi conditionnelle de X sachant Y = 2.
2. Donner
(a) P (X = Y ), P (X + Y = 5), P (XY = 6|Y = 2), P (X = 3)
(b) P (1 < X 3, 1 < Y 3)
(c) P ((X, Y ) {1, 4} {1, 4})
Exercice 6.2
La loi jointe de v.a. discr`etes X et Y est donnee dans le tableau suivant :

Completez le tableau. X et Y sont-ils independants ?


Exercice 6.3
Les probabilites marginales de v.a. X et Y sont donnees dans le tableau ci-dessous :

On sait en plus que pour tout x, y = 1, ..., 5 la probabilite P (X = x, Y = y) est soit 1/14 ou
0. Determiner la loi jointe de X et Y .
Exercice 6.4

38

CHAPITRE 6. VECTEURS ALEATOIRES


: LOI CONJOINTE ET INDEPENDANCE

On jette deux des equilibres. Trouver la loi de probabilite conjointe de X et Y dans les cas
suivants :
1. X est la plus grande des deux valeurs obtenues et Y en est la somme ;
2. X est la valeur obtenue avec le premier de et Y est la plus grande des deux valeurs ;
3. X et Y sont respectivement la plus petite et la plus grande des deux valeurs obtenues.
Exercice 6.5
Soit X et Y deux v.a. independantes de loi de Bernoulli B( 21 ). Soit U = X + Y et V = |X Y |.
1. Donner la loi jointe et les lois marginales de U et V , la loi de U sachant V = 0 et V = 1.
2. U et V sont-ils independants ?
Exercice 6.6
Le proprietaire dun magasin de televisions evalue que 25% des clients entrant dans son magasin
ach`etent un appareil de television LCD, 15% ach`etent un appareil plasma et 60% dentre eux
font juste du l`eche-vitrine. Si cinq clients entrent dans son magasin un jour donne, quelle est la
probabilite quil vende exactement 2 appareils LCD et 1 poste plasma ce jour-l`a ?
Exercice 6.7
Le nombre de personnes qui entrent dans un magasin durant une heure donnee est une variable
aleatoire de Poisson de param`etre = 10. Determiner la probabilite conditionnelle quau plus
3 hommes entrent dans ce magasin, etant donne que 10 femmes y sont entrees durant cette
heure-l`a. Quelles hypoth`eses faites-vous ?
Exercice 6.8
Si X est une variable discrete distribuee suivant la loi de Poisson de param`etre , calculer
P (X = 1|X 1).
Dans une ville de 200000 personnes, un voleur a laisse une empreinte digitale de type . La
police arrete un suspect dont les empreintes digitales sont de type . Sachant que la probabilite
pour quune personne ait des empreintes de ce type est 5.106 , est-il raisonnable de condamner
le suspect sur la foi de ce seul indice ?
Exercice 6.9
Supposons quun point soit uniformement choisi dans un carre de surface unite, ayant les sommets (0, 0), (0, 1), (1, 0) et (1, 1). Soit X et Y les coordonnees du point choisi.
1. Trouver les distributions marginales de X et de Y ;
2. X et Y sont-ils des variables independantes ?
3. Quen est-il si densite de X et Y est donnee par :
(

f (x, y) =

2 si 0 x y, 0 y 1,
0 sinon.

Exercice 6.10
Soit la distribution jointe de X et Y donnee par
(

F (x, y) =

1 e2x ey + e(2x+y) si x > 0, y > 0,


0 sinon.

6.4. EXERCICES

39

1. Determiner la distribution marginale de X et Y .


2. Calculer la densite conjointe de X et Y .
3. Calculer les densites marginales de X et Y , la densite conditionnelle de X sachant Y = y.
4. X et Y sont-ils independants ?
Exercice 6.11
Considerons la fonction de densite conjointe de X et Y donnee par :
xy
6
), 0 x 1, 0 y 2.
f (x, y) = (x2 +
7
2
1. Verifier que cest bien l`
a une fonction de densite conjointe.
2. Determiner la fonction de densite de X, la densite conditionnelle fY |X (y|x).


3. Trouver P Y > 12 |X <

1
2

Exercice 6.12
La fonction de densite de X et Y est donnee par :
f (x, y) = e(x+y) , 0 x < , 0 y <
Trouver :
1. P (X < Y ) ;
2. P (X < a).
Exercice 6.13
Deux points sont choisis sur un segment de longueur L, de mani`ere `a ce quils soient de part
et dautre du milieu du segment. En dautres termes, les deux points X et Y sont des variables
aleatoires independantes telles que X soit uniformement distribue sur [0, L/2[ et Y soit uniformement distribue sur [L/2, L]. Trouver la probabilite que la distance entre les deux points
soit plus grande que L/3.
Exercice 6.14
Soit U1 et U2 deux v.a. independantes, toutes deux distribuees uniformement sur [0, a]. Soit
V = min{U1 , U2 } et Z = max{U1 , U2 }. Montrer que la f.d.r. conjointe F de V et Z est donnee
par
t2 (t s)2
pour 0 s t a.
F (s, t) = P (V s, Z t) =
a2
Indication : notez que V s et Z t arrive exactement quand U1 t et U2 t toutes les deux,
mais pas quand s < U1 t et s < U2 t toutes les deux.
Exercice 6.15
Si X1 et X2 sont des variables aleatoires exponentielles independantes avec param`etres respectifs
l et 2 , trouver la distribution de Z = X1 /X2 . Calculer aussi P (X1 < X2 ).

40

CHAPITRE 6. VECTEURS ALEATOIRES


: LOI CONJOINTE ET INDEPENDANCE

Chapitre 7

Covariance et corr
elation
7.1

Esp
erance de fonction de plusieurs variables

Il existe un equivalent bidimensionnel au resultat du paragraphe 4.1, aux termes duquel on


peut ecrire, si X et Y sont deux variables aleatoires et g une fonction de deux variables :
E(g(X, Y )) =

XX
y

g(x, y)P (x, y)

dans le cas o`
u X et Y sont discr`etes de fonction de probabilite conjointe P (, ), et
Z Z

g(x, y)f (x, y)dxdy

E(g(X, Y )) =

dans celui o`
u X et Y sont continues de densite conjointe f (, ). En appliquant ce resultat au
cas quand g est une somme de variables nous obtenons :
E(X + Y ) = E(X) + E(Y ).
Plus generalement, si E(Xi ) sont finies pour tout i = 1, ..., n,
E(X1 + ... + Xn ) = E(X1 ) + ... + E(Xn ).
Dans le cas quand a) soit Xi 0 pour tout i 1, ou b)
E

n
X

Xi

i=1

i=1 E(|Xi |)

< nous avons aussi

E(Xi ).

i=1

Nous avons les proprietes suivante de lesperance :


1. Linearite : si E(X) et E(Y ) existent, alors E(aX + bY ) = aE(X) + bE(Y ) pour tous reels
a et b ;
2. Croissance : si X et Y sont deux v.a. telle que P (X Y ) = 1 alors E(X) E(Y ).

7.2
7.2.1

Covariance, variance de sommes


Covariance

Soit X, Y deux v.a. independantes. Nous avons dans le cas des v.a. conjointement continues :
Z Z

E(g(X)h(Y )) =

g(x)h(y)f (x, y)dxdy



CHAPITRE 7. COVARIANCE ET CORRELATION

42

Z Z

=

Z

g(x)h(y)fX (x)fY (y)dxdy


Z

g(x)fX (x)dx

h(y)fY (y)dy

= E(g(X))E(h(Y ))
et le developpement est similaire dans le cas discret.
D
efinition 7.1 La covariance de deux variables aleatoires quelconques X et Y est notee Cov(X.Y )
el est definie par lexpression :
Cov(X, Y ) = E ((X E(X)) (Y E(Y ))) .

Le developpement du membre de droite donne


Cov(X, Y ) = E(XY E(X)Y XE(Y ) + E(Y )E(X))
(esperance de somme) = E(XY ) E(X)E(Y ) E(X)E(Y ) + E(X)E(Y ) = E(XY ) E(X)E(Y ).
Remarque : si X et Y sont independants, a fortiriori, Cov(X, Y ) = 0. Le reciproque nest
pas forcement vrai.
Le resultat suivant, qui concerne la covariance, est souvent utilise.

Cov

n
X

Xi ,

m
X

Yi =

Cov(Xi , Yj ).

i=1 j=1

j=1

i=1

m
n X
X

La demonstration en est laissee `


a titre dexercice

7.2.2

Variance de sommes

Nous avons


Var(X + Y ) = E [X + Y E(X + Y )]2 = E [X + Y E(X) E(Y )]2




= E [(X EX) + (Y EY )]2

= E (X E(X))2 + (Y E(Y ))2 + 2(X E(X))(Y E(Y ))

= E((X E(X))2 ) + E((Y E(Y ))2 ) + 2E ((X E(X))(Y E(Y )))


= Var(X) + Var(Y ) + 2Cov(X, Y ).
On developpe un argument similaire pour etablir
Var

n
X

Xi

i=1

n
X

Var(Xi ) + 2

i=1

n X
n
X

Cov(X, Y ),

i=1 j>i

et dans le cas de v.a. Xi independantes deux `


a deux
Var

n
X
i=1

Xi

n
X
i=1

Var(Xi ).


7.3. CORRELATION

7.3

43

Corr
elation

D
efinition 7.2 La correlation entre deux variables aleatoires X et Y est note (X, Y ) et est
definie ainsi, pour autant que Var(X), Var(Y ) soit non nul :
(X, Y ) p

Cov(X, Y )
Cov(X, Y )
=
.
X Y
Var(X)Var(Y )

Inegalite de Cauchy : nous avons pour toutes v.a. U et V :


E(U V )2 E(U 2 )E(V 2 ),
avec legalite si et seulement si U et V sont lies lineairement : il existe R tel que U = V .
A laide de linegalite de Cauchy on verifie que (X, Y ) = 1 si et seulement si pour certains
a et b reels X = aY + b.
On dit que X et Y sont non-correles (et on note X Y ) si (X, Y ) = 0.
On dit que X et Y sont correles positivement si > 0, et X et Y sont correles negativement
si < 0.

7.4

Esp
erance conditionnelle

Nous commencons par la definition suivante :


D
efinition 7.3 Soient X et Y deux variables aleatoires discr`etes a valeurs {xi } et {yi } respectivement et f est telle que f (X, Y ) est sommable. On appelle esperance conditionnelle de
f (X, Y ) sachant Y et on note E(f (X, Y )|Y ) la variable aleatoire discrete
E(f (X, Y )|Y ) = g(Y ) o`
u y {yi }, g(y) =

f (xi , y)P (X = xi |Y = y).

xi

On appelle la valeur reelle g(y) esperance conditionnelle de f (X, Y ) sachant Y = y.


Lorsque X est tel que E(X) existe, pour le choix f (x, y) = x on obtient le cas important
suivant :
X
E(X|Y ) = g(Y ) o`
u y {yi } g(y) =
xi P (X = xi |Y = y).
xi

On appelle E(X|Y ) esperance conditionnelle de X sachant Y .


Autrement dit, lesperance conditionnelle de X sachant Y = y nest rien dautre que la
moyenne theorique de la loi conditionnelle de X sachant Y = y.
De la meme facon on definit lesperance conditionnelle pour les v.a. continues :
D
efinition 7.4 Soit f : R2 R telle que Ef (X, Y ) existe. On appelle esperance conditionnelle
de f (X, Y ) sachant Y et on note E(f (X, Y )|Y ) la variable aleatoire
E(f (X, Y )|Y ) = g(Y )o`
u y R, g(y) =

f (x, y)fX|Y (x|y)dx.

Proposition 7.1 On suppose que E(f (X, Y )) existe. Alors pour toute fonction reelle telle
que E(f (X, Y )(Y )) existe on a
E(E(f (X, Y )|Y )(Y )) = E(f (X, Y )(Y )).
En particulier, E(E(f (X, Y )|Y )) = E(f (X, Y )) (pour (y) 1).


CHAPITRE 7. COVARIANCE ET CORRELATION

44

En effet, dans le cas de v.a. discr`etes, nous avons


E(E(f (X, Y )|Y )(Y )) =

(yi )g(yi )P (Y = yi )

yi

"
X X
yi

f (xi , yi )P (X = xi |Y = yi ) P (Y = yi )

xi

(yi )f (xi , yi )P (X = xi , Y = yi ) = E(f (X, Y )g(Y )).

xi ,yi

Corollaire 7.1 Si E([f (X, Y )]2 ) existe, alors


Var(g(Y )) = Var(E(f (X, Y )|Y )) V ar(f (X, Y )).

En effet, dans le cas de v.a. discr`etes, par linegalite de Cauchy (c.-`a-d. [


P
et comme xi P (X = xi |Y = y) = 1,
E(f (X, Y )|Y = y) =

ai bi ]2

P 2P 2
a
b )
i

f (xi , y)P (X = xi |Y = y)

xi

!2

[f (x, y)P

1/2

(X = xi |Y = y)]P

1/2

(X = xi |Y = y)

xi

"
X

f 2 (x, y)P (X = xi |Y = y)

xi

P (X = xi |Y = y) = E(f 2 (X, Y )|Y = y).

xi

Ainsi E(f (X, Y )|Y )2 E(f 2 (X, Y )|Y ). Comme, par la proposition ci-dessus, E(E(f 2 (X, Y )|Y )) =
E(f 2 (X, Y )), on deduit que (cf la propriete de croissance de lesperance)
E(f (X, Y )|Y )2 ) E(f 2 (X, Y )).
On conclut en soustrayant (E(E(f (X, Y )|Y )))2 = (E(f (X, Y )))2 `a cette inegalite.
La propriete la plus importante de lesperance conditionnelle est resumee dans la proposition
suivante :
Proposition 7.2 (Propri
et
e de meilleure prediction) Supposons que E(f 2 (X, Y )) existe
et que g(Y ) = E(f (X, Y )|Y ). Alors
E([f (X, Y ) g(Y )]2 ) = E([f (X|Y ) E(f (X, Y )|Y )]2 ) E([f (X, Y ) h(Y )]2 ),
pour toute fonction (mesurable) h sur R.
Autrement dit, g(Y ) = E(f (X, Y )|Y ) est la meilleure prediction de f (X, Y ) sachant Y . Pour
f (x, y) = x nous avons un cas particulier (cf exercice 5.9) :
E([X E(X|Y )]2 ) E([X h(Y )]2 ),
pour toute fonction h, et la v.a. E(X|Y ) st la meilleure prediction de X sachant Y .
Par ailleurs, nous avons la decomposition
Var(X) = E([X E(X)]2 ) = E([X E(X|Y ) + E(X|Y ) +

E(X)
| {z }

=E(E(X|Y ))
2

= E([X E(X|Y )] ) + E([E(X|Y ) E(E(X|Y ))] )


= E([X E(X|Y )]2 ) + Var(E(X|Y )) E([X E(X|Y )]2 ).

]2 )

7.5. FONCTIONS GENERATRICES

7.5

45

Fonctions generatrices

On se rappelle (cf le paragraphe 5.2) que la fonction generatrice X dune v.a. X est definie
par
X (t) = E(etX ).
Un outil tr`es efficace est celui de fonction generatrice (cf le paragraphe 5.2) :
D
efinition 7.5 Fonction generatrice dun vecteur aleatoire X = (X1 , ..., Xn ) (ou fonction
generatrice conjointe X est definie pour t = (t1 , ..., tn ) par
TX

X (t) = E(et

),

o`
u tT X = ni=1 ti Xi . Les fonctions generatrices individuelles peuvent etre calculees facilement :
Xi (t) = E(etXi ) = X (t0 ), ou t0 = (0, ...0, t, 0, ..., 0) (avec t en i-`eme position).
P

La donne de X determine de facon univoque la loi du vecteur X.


Nous avons la caracterisation importante :
n v.a. X1 , ..., Xn seront independantes si et seulement si
X (t) = X1 ,...,Xn (t1 , ..., tn ) = X1 (t1 )...Xn (tn ).
D
efinition 7.6 Fonction caracteristique dun vecteur aleatoire X = (X1 , ..., Xn ) X est definie
pour t = (t1 , ..., tn ) par
T
X (t) = E(eit X ),
o`
u tT X =

Pn

i=1 ti Xi .

Comme dans le case dune fonction generatrice, les fonctions caracteristiques individuelles sont
donnees par : Xi (t) = E(eitXi ) = X (it0 ), ou t0 = (0, ...0, t, 0, ..., 0) (avec t en i-`eme position).
Il est claire que la fonction caracteristique X poss`ede les meme proprietes que la fonction
generatrice X de X, avec un avantage considerable elle est definie pour tout t Rn .
Si lintegration dans (6.6) peut etre difficile, le calcul de la fonction generatrice (ou la fonction
caracteristique) de la somme X + Y est tr`es simple : pour XY ,
X+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX )E(etY ) = X (t)Y (t).
De meme,
X+Y (t) = E(eit(X+Y ) ) = E(eitX )E(eitY ) = X (t)Y (t).

7.6

Exercices

Exercice 7.1
Soit X et Y deux v.a. et r, s, t et u des valeurs reelles. Montrer `a partir de la definition de la
covariance que
1. Cov(X + s, Y + u) = Cov(X, Y ),
2. Cov(rX, tY ) = rtCov(X, Y ),
3. Cov(rX + s, rY + u) = rtCov(X, Y ),
Exercice 7.2


CHAPITRE 7. COVARIANCE ET CORRELATION

46

Soit X et Y des v.a. discr`etes `


a valeurs dans {c 1, c, c + 1}. La loi jointe et les marginales sont
donnees dans la table suivante :

1. Soit c = 0. Calculer lesperance et la covariance de X et Y .


2. Montrer que X et Y sont non-correles, quelque soit la valeur de c.
3. X et Y sont-ils independants ?
Exercice 7.3
On se rappelle la relation entre degres Celsius et degres Fahrenheit :
9
TF = TC + 32.
5
Soit X et Y les temperatures moyenne en degres de Celsius `a Paris et `a Grenoble. On suppose
que Cov(X, Y ) = 3 et (X, Y ) = 0.8. On note par T et S les memes temperatures en degres
Fahrenheit. Donner Cov(T, S) et (T, S).
Exercice 7.4
Soit X et Y deux v.a..
1. Exprimer Cov(X, X + Y ) en termes de Var(x) et Cov(X, Y ).
2. X et X + Y sont-ils non-correles, positivement ou negativement correles, ou tout peut
arriver ?
Exercice 7.5
Demontrer
1. Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z),
2. Cov

P

n
i=1 Xi ,

Pn

j=1 Yj =

Pn

i=1

Pn

j=1 Cov(Xi , Yj ).

Exercice 7.6
Montrer que si Var(Xi ) = 2 et Cov(Xi , Xj ) = pour tous 1 i, j n, alors
Var(X1 + ... + Xn ) = n 2 + n(n 1).

Exercice 7.7

7.6. EXERCICES

47

Soit X et Y v.a. positives et independants de densites


1
1
fX (x) = xex/2 et fY (y) = yey/2 .
4
4
Determiner la densite de Z = X + Y .
Exercice 7.8
Soient X1 , X2 , ..., Xn des v.a. independantes et identiquement distribuees desperance et de
= 1 Pn Xi . Montrer que
variance 2 . On pose X
i=1
n
2

= et Var(X)
= ,
1. E(X)
n

Pn
2

(Xi X) = (n 1) 2 .
2. E
i=1

Exercice 7.9
Soit X le nombre de 1 et Y le nombre de 2 apparaissant lors de n jets dun de equilibre. Calculer
Cov(X, Y ).
Avant de faire le calcul, sauriez-vous dire si Cov(X, Y ) ou Cov(X, Y ) .
Indication Utiliser pour cela la relation 2) de lexercice 7.5.
Exercice 7.10
Un de est jete 2 fois. Soit X la somme des resultats et soit Y la difference entre le premier et le
second resultat. Calculer Cov(X, Y ).
Exercice 7.11
Les variables aleatoires X et Y ont une densite conjointe donnee par
(

f (x, y) =

2x

2 e x , si 0 x < , 0 y x,
0 sinon

Ca1culer Cov(X, Y ).
Exercice 7.12
Un groupe de 20 personnes. compose de 10 hommes et de 10 femmes est reparti aleatoirement
en 10 couples. Calculer lesperance et la variance du nombre de couples mixtes. Supposons
maintenant que ce groupe de 20 personnes soit en fait compose de 10 couples maries. Calculer
lesperance et la variance du nombre de couples maries qui seront reunis par le hasard.
Exercice 7.13
Soit X et Y deux variables aleatoires exponentielles de param`etre independantes et S = X +Y .
Determiner la loi conditionnelle de X sachant S = s et en deduire E(X|S).
Exercice 7.14
Soit X et Y deux variables aleatoires independantes distribuees respectivement suivant les lois
de Poisson de param`etre > 0 et de param`etre > 0. On note S = X + Y .
1. Determiner la loi de S.
2. Pour tout s N determiner la loi conditionnelle de X sachant S = s.
3. Donner E(X|S).


CHAPITRE 7. COVARIANCE ET CORRELATION

48
Exercice 7.15

Soient X, Y1 et Y2 les variables aleatoires independantes, Y1 et Y2 sont normales N (0, 1), et


Y1 + XY2
Z=
.
1 + X2
Utiliser la loi conditionnelle P (Z < u|X = x) pour montrer que Z N (0, 1).
Exercice 7.16
On jette un des n fois. Calculer la fonction generatrice de la somme Xn des resultats. Deriver
cette fonction pour obtenir lesperance et la variance de cette somme.
Exercice 7.17
Additivit
e de la loi normale. Verifier le resultat suivant :
soient X1 et X2 des v.a. normales independantes de param`etres (1 , 12 ) et (2 , 22 ).
La variable X = X1 + X2 est alors normale de param`etres = 1 + 2 , 2 = 12 + 22 .
Indication : calculez la fonction generatrice
Soit X et Y v.a. independantes, X N (2, 5) et Y N (5, 9). On definie Z = 3X 2Y + 1.
1. Trouver E(Z) et Var(Z).
2. Quelle est la loi de Z ?

Chapitre 8

Convergence et th
eor`
emes limites
Les theor`emes limites constituent les resultats theoriques les plus importants des probabilites.
Parmi eux, les principaux sont repertories sous deux denominations : loi des grands nombres
dune part, et theor`emes centraux limites dautre part. On saccorde generalement `a les considerer
comme des lois des grands nombres sils enoncent des conditions sous lesquelles la moyenne dune
suite de variables aleatoires converge (dans un sens `a definir) vers leur esperance commune. Les
theor`emes centraux limites par contre determinent sous quelles hypotheses la somme dun grand
nombre de variables aleatoires est de distribution approximativement normale.

8.1
8.1.1

Convergence en probabilit
e, loi de grands nombres

Enonc
e de la loi faible des grands nombres

Th
eor`
eme 8.1 (Loi faible des grands nombres) Soient X1 , X2 ... une suite de v.a. independantes
et equidistribuees. On suppose que X1 (et donc toutes les Xi )admet lesperance E(X1 ) = .
Alors pour tout  > 0
P



!
n
1 X



Xi >  0 lorsque n .

n

i=1

Preuve : Nous demontrerons le theor`eme en admettant une hypoth`ese supplementaire, `


a savoir
n = 1 Pn Xi . Dans ce
que les variables considerees ont une variance 2 commune finie. Soit X
i=1
n
n ) = et Var(X
n ) = 2 (cf Exercice 7.8), il resulte de linegalite de Tchebychev
cas, comme E(X
n
que pour tout  > 0,
2
n | > ) 0 quand n
P (|X
n2
ce qui e1ablit le resultat.

8.1.2

Convergence en probabilit
e

D
efinition 8.1 On dit que la suite de v.a. Xn , n = 1, 2, ... converge vers la v.a. Y en probabilite
P
et on le note Xn Y si pour tout  > 0
P (|Xn Y | > ) 0 lorsque n .


`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES

50

Si Xn converge vers Y en probabilite, alors pour toute grande valeur de n, disons n , Xn est
probablement tr`es voisine de Y . Attention, elle nassure pas cependant que Xn devra rester dans
un voisinage etroit de Y pour toutes les valeurs de n superieures `a n . Il est donc possible que
des larges ecarts entre Xn et Y peuvent se produire pour une infinite valeurs de n > n (infinite
dont la probabilite collective est tr`es faible cependant).
Exemple 8.1 Soit Xn = xn , n = 1, 2, ... une suite
P
Xn converge, disons vers x, alors Xn x.

deterministe  de nombres reels. Alors si

En effet, la convergence (deterministe) de Xn vers x implique que pour tout  > 0 il existe
n < tel que pour tout n n |Xn x| , et, evidemment, P (|Xn x| > ) = 0 pour tout
n n .
Exemple 8.2 Soit Xn N (0, n1 ). Nous avons

P (|Xn | > ) = P (|x n| >  n) = ( n) 0 lorsque n .


P

Ainsi Xn 0 dans ce cas.

8.1.3

Loi forte des grands nombres

La loi forte des grands nombres est sans doute le resultat le plus cel`ebre en theorie des probabilites.
Th
eor`
eme 8.2 (Loi forte des grands nombres) Soient X1 , X2 , ... une suite de v.a. independantes
de meme loi, desperance commune finie. Alors, avec probabilite 1
n

1X
Xi quand n ,
n i=1
en dautres termes
P


n = = 1.
lim X

n de Xi , i = 1, ..., n converge vers avec probabilite 1 ou encore


Dans ce cas on dit que la moyenne X
converge presque s
urement, et on note
n p.s.
X
Ce type de convergence est  plus fort  que la convergence en probabilite : on admet quil existe pour
tout  > 0 une valeur n () (qui est peut-etre aleatoire) finie avec probabilite 1, telle que pour tout
n | . Autrement dit,  excursions  de X
n loin de qui autorise la loi faible de grands
n n , |X
nombres, sont interdites par la loi forte.

8.2

Th
eor`
eme central limite

Le theor`eme central limite est lun des plus remarquables resultats de la theorie des probabilites. En gros, il etablit que la somme dun grand nombre de variables aleatoires independantes
suit une distribution approximativement normale. Il fournit donc non seulement une methode
simple pour le calcul approximatif de probabilites liees `a des sommes de variables aleatoires,
mais il explique egalement ce fait empirique remarquable que bien des phenom`enes naturels
admettent une distribution  en cloche , cest-`a-dire de type normal.


`
8.2. THEOR
EME
CENTRAL LIMITE

8.2.1

51

Th
eor`
eme central limite pour des v.a. ind
ependantes

La cle de la demonstration du theor`eme central limite est le resultat suivant danalyse, donne
sans demonstration.
Th
eor`
eme 8.3 Soient F1 , F2 , ... une suite de fonctions de repartition dont les fonctions generatrices
sont notees n , n 1. Soit F une fonction de repartition avec la fonction generatrice correspondante . Si n (t) (t) pour tour t, alors Fn (x) F (x) pour toutes les valeurs de x pour
lesquelles F est continue.
2

Dans le cas particulier dune f.d.r. F normale standardisee, on sait que (t) = et /2 . Du theor`eme
2
8.3, il resulte que si n (t) et /2 lorsque n , alors Fn (x) (x) lorsque n .
Nous allons maintenant donner la version la plus simple du theor`eme central limite.
Th
eor`
eme 8.4 (Th
eor`
eme central limite) Soient X1 , X2 , ... une Suite de v.a. i.i.d, desperance
2
, de variance . Alors la distribution de
n
(Xi )
1 X
Zn =
n i=1

tend vers la distribution normale lorsque n , ce qui veut dire que


1
P (Zn z) (z) =
2

2 /2

et

dt quand n .

Preuve : Nous allons demontrer le theor`eme en faisant une hypoth`ese supplementaire : on


admettra que E|X1 |3 < .
Admettons pour linstant que = 0 et 2 = 1. Nous allons demontrer le theor`eme en faisant
lhypoth`ese que la fonction generatrice des moments commune des Xi , notee , existe et est

finie. La fonction generatrice des moments i de Xi / n sera


tXi
i (t) = E exp
n


et par consequent celle de Zn =

Pn

i=1

Xi

Zn (t) =



= (t/ n),

sera
n
Y

n

i = (t/ n) .

i=1

Posons `(t) = ln (t), et remarquons que


`(0) = ln(1) = 0,

0 (0)
`0 (0) =
= = 0,
(0)
1
00
(0)(0) [0 (0)]2
`00 (0) =
= E(X 2 ) [E(X)]2 = Var(X) = 1,
[(0)]2
000 (0)[(0)]2 300 (0)0 (0)(0) + 2[0 (0)]3
`000 (0) =
[(0)]3
= E(X 3 ) 3E(X 2 )E(X) + 2E(X)3 = E(X 3 ).


`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES

52

Notez que grace au theor`eme 8.3 pour demontrer le theor`eme, il nous faut etablir que [(t/ n)]n

2
et /2 , ou, ce qui est equivalent, que n`(t/ n) t2 /2 lorsque n . Pour cela on utilisera le
developpement de Taylor `
a lordre 2 de :
`(t) = `(0) + `0 (0)t + `00 (0)

t2
t2
+ O(t3 ) =
+ O(t3 ),
2
2

ce que nous permet decrire :


"

t2
lim n`(t/ n) = lim n
+O
n
n
2n

"

lim

t2
+O
2

t3
n3/2

t3

!#

!#

t2
.
2

Le theor`eme central limite est donc demontre pour le cas o`


u = 0 et 2 = 1. Dans le cas general,
on consid`ere les variables standardisees Yi := (Xi )/ auxquelles sapplique la demonstration
ci-dessus, puisque E(Yi ) = 0 et Var(Yi ) = 1 ; le resultat est ainsi etabli en toutes circonstances.

8.2.2

Versions plus g
en
erales du th
eor`
eme central limite

Il est possible de demontrer des versions du theor`eme central limite o`


u les Xi sont encore
independantes mais plus necessairement identiquement distribuees. Lune de ces versions, qui
nest dailleurs pas la plus generale, est donnee plus bas.
Th
eor`
eme 8.5 Soit X1 , X2 , ... une suite de v.a. independantes desperances i et de variances
2
i , i = 1, 2, .... Si de plus
(i) les valeurs E(Xi3 ), i = 1, 2, ... sont uniformement bornees,
(ii)

2
i=1 i

= ,
Alors la distribution de

Pn
(Xi i )
qP
Zn = i=1
n
2
i=1 i

tend vers la distribution normale lorsque n , ce qui veut dire que


P (Zn z) (z) quand n .

La demonstration de ce resultat est laissee en exercice.

8.2.3

Convergence en loi

Da le cas ci-dessus on dit que la suite de v.a. Zn converge vers Z N (0, 1) en loi, ou en
D
distribution, ou encore que Zn converge vers Z faiblement, et on note Zn Z.
P
On verifie aisement que si Xn X (suite de Xn converge vers X en probabilite) alors
D
Xn X (Xn converge vers X en loi) aussi. Le reciproque nest pas toujours vrai. Par contre,
si Xn converge en loi vers une valeur reelle a, nous avons FXn (t) 1{t a} (notez que la
fonction de repartition dune v.a. qui est egale `a a avec probabilite 1 est exactement 1{t a})
et, evidemment, P (Xn < a ) 0 et P (Xn > a + ) 0 quand n , et on conclut que
P
Xn a.


`
8.2. THEOR
EME
CENTRAL LIMITE

53

1 Loi normale : fonction de rpartition


, la table ci-dessous renvoie la valeur  de la fonction de rpartition  de la
Pour une valeur
loi normale centre rduite au point .
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
00
11
111111111111111111111
000000000000000000000
00
11
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
F(u)

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9

0.00
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.9641
0.9713
0.9772
0.9821
0.9861
0.9893
0.9918
0.9938
0.9953
0.9965
0.9974
0.9981

0.01
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9049
0.9207
0.9345
0.9463
0.9564
0.9649
0.9719
0.9778
0.9826
0.9864
0.9896
0.9920
0.9940
0.9955
0.9966
0.9975
0.9982

0.02
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.9656
0.9726
0.9783
0.9830
0.9868
0.9898
0.9922
0.9941
0.9956
0.9967
0.9976
0.9982

Table pour les grandes valeurs de






3.0
0.99865
3.5
0.999767
4.0
0.999968
4.5
0.999997

0.03
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0.9788
0.9834
0.9871
0.9901
0.9925
0.9943
0.9957
0.9968
0.9977
0.9983

0.04
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0.9591
0.9671
0.9738
0.9793
0.9838
0.9875
0.9904
0.9927
0.9945
0.9959
0.9969
0.9977
0.9984

0.05
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
0.8289
0.8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0.9599
0.9678
0.9744
0.9798
0.9842
0.9878
0.9906
0.9929
0.9946
0.9960
0.9970
0.9978
0.9984

0.06
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
0.8315
0.8554
0.8770
0.8962
0.9131
0.9279
0.9406
0.9515
0.9608
0.9686
0.9750
0.9803
0.9846
0.9881
0.9909
0.9931
0.9948
0.9961
0.9971
0.9979
0.9985

0.07
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.9693
0.9756
0.9808
0.9850
0.9884
0.9911
0.9932
0.9949
0.9962
0.9972
0.9979
0.9985

:
3.1
0.999032
3.6
0.999841
4.1
0.999979
4.6
0.999998

3.2
0.999313
3.7
0.999892
4.2
0.999987
4.7
0.999999

3.3
0.999517
3.8
0.999928
4.3
0.999991
4.8
0.999999

3.4
0.999663
3.9
0.999952
4.4
0.999995
4.9
1

0.08
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9429
0.9535
0.9625
0.9699
0.9761
0.9812
0.9854
0.9887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986

0.09
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
0.9706
0.9767
0.9817
0.9857
0.9890
0.9916
0.9936
0.9952
0.9964
0.9974
0.9981
0.9986


`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES

54

2 Loi normale : quantiles




Pour une valeur  , la table ci-dessous renvoie la valeur


de la loi normale centre rduite au point  .



de la fonction quantile

00000000000
11111111111
11111111111
00000000000
00000000000
11111111111
10
00000000000
11111111111
10
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111

F (1)

0.000
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.10
0.11
0.12
0.13
0.14
0.15
0.16
0.17
0.18
0.19
0.20
0.21
0.22
0.23
0.24
0.25
0.26
0.27
0.28
0.29
0.30
0.31
0.32
0.33
0.34
0.35
0.36
0.37
0.38
0.39
0.40
0.41
0.42
0.43
0.44
0.45
0.46
0.47
0.48
0.49

2.3263
2.0537
1.8808
1.7507
1.6449
1.5548
1.4758
1.4051
1.3408
1.2816
1.2265
1.1750
1.1264
1.0803
1.0364
0.9945
0.9542
0.9154
0.8779
0.8416
0.8064
0.7722
0.7388
0.7063
0.6745
0.6433
0.6128
0.5828
0.5534
0.5244
0.4959
0.4677
0.4399
0.4125
0.3853
0.3585
0.3319
0.3055
0.2793
0.2533
0.2275
0.2019
0.1764
0.1510
0.1257
0.1004
0.0753
0.0502
0.0251

0.001
3.0902
2.2904
2.0335
1.8663
1.7392
1.6352
1.5464
1.4684
1.3984
1.3346
1.2759
1.2212
1.1700
1.1217
1.0758
1.0322
0.9904
0.9502
0.9116
0.8742
0.8381
0.8030
0.7688
0.7356
0.7031
0.6713
0.6403
0.6098
0.5799
0.5505
0.5215
0.4930
0.4649
0.4372
0.4097
0.3826
0.3558
0.3292
0.3029
0.2767
0.2508
0.2250
0.1993
0.1738
0.1484
0.1231
0.0979
0.0728
0.0476
0.0226

0.002
2.8782
2.2571
2.0141
1.8522
1.7279
1.6258
1.5382
1.4611
1.3917
1.3285
1.2702
1.2160
1.1650
1.1170
1.0714
1.0279
0.9863
0.9463
0.9078
0.8705
0.8345
0.7995
0.7655
0.7323
0.6999
0.6682
0.6372
0.6068
0.5769
0.5476
0.5187
0.4902
0.4621
0.4344
0.4070
0.3799
0.3531
0.3266
0.3002
0.2741
0.2482
0.2224
0.1968
0.1713
0.1459
0.1206
0.0954
0.0702
0.0451
0.0201

0.003
2.7478
2.2262
1.9954
1.8384
1.7169
1.6164
1.5301
1.4538
1.3852
1.3225
1.2646
1.2107
1.1601
1.1123
1.0669
1.0237
0.9822
0.9424
0.9040
0.8669
0.8310
0.7961
0.7621
0.7290
0.6967
0.6651
0.6341
0.6038
0.5740
0.5446
0.5158
0.4874
0.4593
0.4316
0.4043
0.3772
0.3505
0.3239
0.2976
0.2715
0.2456
0.2198
0.1942
0.1687
0.1434
0.1181
0.0929
0.0677
0.0426
0.0175

0.004
2.6521
2.1973
1.9774
1.8250
1.7060
1.6072
1.5220
1.4466
1.3787
1.3165
1.2591
1.2055
1.1552
1.1077
1.0625
1.0194
0.9782
0.9385
0.9002
0.8633
0.8274
0.7926
0.7588
0.7257
0.6935
0.6620
0.6311
0.6008
0.5710
0.5417
0.5129
0.4845
0.4565
0.4289
0.4016
0.3745
0.3478
0.3213
0.2950
0.2689
0.2430
0.2173
0.1917
0.1662
0.1408
0.1156
0.0904
0.0652
0.0401
0.0150

0.005
2.5758
2.1701
1.9600
1.8119
1.6954
1.5982
1.5141
1.4395
1.3722
1.3106
1.2536
1.2004
1.1503
1.1031
1.0581
1.0152
0.9741
0.9346
0.8965
0.8596
0.8239
0.7892
0.7554
0.7225
0.6903
0.6588
0.6280
0.5978
0.5681
0.5388
0.5101
0.4817
0.4538
0.4261
0.3989
0.3719
0.3451
0.3186
0.2924
0.2663
0.2404
0.2147
0.1891
0.1637
0.1383
0.1130
0.0878
0.0627
0.0376
0.0125

0.006
2.5121
2.1444
1.9431
1.7991
1.6849
1.5893
1.5063
1.4325
1.3658
1.3047
1.2481
1.1952
1.1455
1.0985
1.0537
1.0110
0.9701
0.9307
0.8927
0.8560
0.8204
0.7858
0.7521
0.7192
0.6871
0.6557
0.6250
0.5948
0.5651
0.5359
0.5072
0.4789
0.4510
0.4234
0.3961
0.3692
0.3425
0.3160
0.2898
0.2637
0.2378
0.2121
0.1866
0.1611
0.1358
0.1105
0.0853
0.0602
0.0351
0.0100

0.007
2.4573
2.1201
1.9268
1.7866
1.6747
1.5805
1.4985
1.4255
1.3595
1.2988
1.2426
1.1901
1.1407
1.0939
1.0494
1.0069
0.9661
0.9269
0.8890
0.8524
0.8169
0.7824
0.7488
0.7160
0.6840
0.6526
0.6219
0.5918
0.5622
0.5330
0.5044
0.4761
0.4482
0.4207
0.3934
0.3665
0.3398
0.3134
0.2871
0.2611
0.2353
0.2096
0.1840
0.1586
0.1332
0.1080
0.0828
0.0577
0.0326
0.0075

0.008
2.4089
2.0969
1.9110
1.7744
1.6646
1.5718
1.4909
1.4187
1.3532
1.2930
1.2372
1.1850
1.1359
1.0893
1.0450
1.0027
0.9621
0.9230
0.8853
0.8488
0.8134
0.7790
0.7454
0.7128
0.6808
0.6495
0.6189
0.5888
0.5592
0.5302
0.5015
0.4733
0.4454
0.4179
0.3907
0.3638
0.3372
0.3107
0.2845
0.2585
0.2327
0.2070
0.1815
0.1560
0.1307
0.1055
0.0803
0.0552
0.0301
0.0050

0.009
2.3656
2.0749
1.8957
1.7624
1.6546
1.5632
1.4833
1.4118
1.3469
1.2873
1.2319
1.1800
1.1311
1.0848
1.0407
0.9986
0.9581
0.9192
0.8816
0.8452
0.8099
0.7756
0.7421
0.7095
0.6776
0.6464
0.6158
0.5858
0.5563
0.5273
0.4987
0.4705
0.4427
0.4152
0.3880
0.3611
0.3345
0.3081
0.2819
0.2559
0.2301
0.2045
0.1789
0.1535
0.1282
0.1030
0.0778
0.0527
0.0276
0.0025

8.3. EXERCICES

8.3

55

Exercices

Exercice 8.1
Un restaurant servant des repas uniquement sur reservation, dispose de 50 places. La probabilite
quune personne ayant reserve ne vienne pas est 1/5. On note N le nombre de repas servis un
jour donne. On utilisera lapproximation normale pour N .
1. Si le patron accepte 50 reservations, quelle est la probabilite quil serve plus de 45 repas ?
2. Sil accepte 55 reservations, quelle est la probabilite quil se retrouve dans une situation
embarrassante ?
Exercice 8.2
On evalue `a 0.4 la probabilite quune personne en age detre vaccinee contre la grippe demande
effectivement `
a letre. Sur une population de 150000 personnes en age detre vaccinees, soit N
le nombre de personnes qui demanderont `a letre.
1. Quel mod`ele proposez-vous pour N ?
2. Si on prepare 60500 vaccins, quelle est la probabilite quil ny en ait pas suffisamment
3. Calculer le nombre m de vaccins quil faudrait prevoir pour que la probabilite den manquer
soit egale `
a 0.1.
Exercice 8.3
Soient Xi , i = l, ..., 10 des variables aleatoires
ependantes
uniformes sur lintervalle (0, 1).

Pind
10

Evaluer approximativement la probabilite P


i=1 Xi > 6 .
Exercice 8.4
Nous avons 100 composants que nous allons employer les uns apr`es les autres. Cela veut dire
que le composant 1 sera dabord utilise, puis lorsquil tombera en panne. il sera remplace par le
composant 2, qui sera lui-meme remplace apr`es defaillance par le composant 3, et ainsi de suite.
1. Si la duree de vie du composant i est distribuee de facon exponentielle avec esperance
10 + i/10, i = 1, ..., 100, estimer la probabilite que la duree de vie totale de lensemble des
composants depasse 1 200.
2. Refaites le meme exercice lorsque la distribution de la duree de vie des composants est
uniforme sur lintervalle (0, 20 + 5i ), i = 1, ..., 100.
Exercice 8.5
Plusieurs personnes pensent que la fluctuation journali`ere du prix de laction dune societe
donnee, cotee en bourse, est une variable aleatoire de moyenne 0 et de variance 2 . Cela veut
dire que. si Y represente le prix de laction lors du n-`eme jour,
Yn = Yn1 + Xn = Y0 +

n
X

Xi , n 1,

i=1

o`
u X1 , X2 , ... sont des variables aleatoires independantes identiquement distribuees desperance
0 et de variance 2
Supposons que le prix de laction soit aujourdhui de 100. Si 2 = 1, que peut-on dire de la
probabilite que le prix de laction soit compris entre 80 et 120 dans cent jours ?


`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES

56
Exercice 8.6

Supposons quun de non pipe soit jete 100 fois. Soit Xi la valeur obtenue au i-`eme jet. Calculer
une approximation pour :
!
100
Y

Xi k 100 , 1 k 6.

i=1

Exercice 8.7
On suppose quil y a une probabilite egale `a 0.1 detre controle lorsquon prend le tramway. Mr
A. fait 700 voyages par an. On utilisera lapproximation normale pour le nombre de controles.
1. Quelle est la probabilite que Mr A. soit controle entre 60 et 80 fois dans lannee ?
2. Mr A. est en fait un fraudeur et voyage toujours sans ticket. Sachant que le prix dun
ticket est de 1 euro, quelle amende minimale la regie de transports devrait elle fixer pour
que le fraudeur ait, sur une periode dune annee, une probabilite superieure `a 0.75 detre
perdant ?
Exercice 8.8
Soit X1 , X2 , ... une suite de variables aleatoires independantes. Supposer que E(Xi ) = 0, que
Var(Xi ) = i2 et que
n
1 X
lim 2
i2 = 0.
n n
i=1
1. Prouver que, pour tout  > 0,
P



!
n
1 X



Xi >  0 quand n .

n

i=1

2. Utiliser cc resultat pour prouver que si Yi , i = 1, 2, ... sont des variables aleatoires independantes
de Bernoulli, alors pour tout  > 0,
P



!
n
1 X



Xi p(n) >  0 quand n .

n

i=1

P
o`
u E(Yi ) = pi et p(n) = n1 ni=1 pi .

Exercice 8.9
Une pi`ece de monnaie equilibree est jetee 1000 fois. Si les 100 premiers jets donnent tous des
piles. quelle proportion de piles peut-on sattendre `a obtenir lors des 900 derniers jets ? Faites
un commentaire sur lenonce  la loi forte des grands nombres noie une anomalie dans la masse
mais ne la compense pas .
Exercice 8.10
Soit X1 , X2 , ... v.a. i.i.d. de fonction de repartition F sur R. Pour x R on consid`ere les v.a.
Yi = 1{Xi x}, i = 1, 2, ... et
n
n
1X
1X
Fn (x) =
Yi =
1{Xi x}
n i=1
n i=1

qui est la proportion de Xi inferieures `


a x.

8.3. EXERCICES
1. Les v.a. Yi , i 1, sont-elle independantes ? de meme loi ? Determiner la loi de Y1 . Quelle
est lesperance et la variance de cette loi ?
2. Quelle est la loi des v.a. nFn (x) ?
P
3. Utiliser la loi faible de grands nombres pour montrer que Fn (x) F (x) lorsque n .

4. Utiliser le theor`eme central limite pour prouver que la suite n(Fn (x) F (x)) converge
en loi vers une v.a. normale, determiner la moyenne et la variance de la loi limite.

57

58

`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES

Chapitre 9

Loi normale multivari


ee
9.1

Vecteurs al
eatoires (rappel)

u 1 , ..., p sont des variables aleatoires univariees.


Soit X = ... un vecteur aleatoire 1 , o`
p
La fonction de repartition de vecteur aleatoire X est
F (t) = P (1 t1 , ..., p tp ),

t = (t1 , ..., tp )T Rp .

Si F (t) est derivable par rapport a t, la densite de X (la densite jointe de 1 , ..., p ) existe et est
egale `a la derivee mixte
p F (t)
f (t) = f (t1 , ..., tp ) =
.
t1 , ..., tp
Dans ce cas

Z tp

Z t1

...

F (t) =

9.1.1

f (u1 , ..., up )du1 ...dup .

Propri
et
es de densit
e dune distribution multivari
ee

Nous avons : f (t) 0,


...
f (t1 , ..., tp )dt1 ...dtp = 1. La densit
e marginale de
1 , ..., k , k < p est (on adopte le symbole f () comme notation generique pour les densites)

f (t1 , ..., tk ) =

...

f (t1 , ..., tp )dtk+1 ...dtp .

Nous avons par le theoreme de changement de variable du cours danalyse :


Si X = AY + b o`
u Y est un vecteur aleatoire sur Rp avec la densite fY et A est
une matrice p p inversible, alors
fX (u) = fY (A1 (u b)) Det(A1 ) =

fY (A1 (u b))
.
| Det(A)|

(9.1)

Ind
ependance. Supposons que deux vecteurs aleatoires X1 et X2 ont une densite conjointe
f (x1 , x2 ). Ils sont independants ssi
f (x1 , x2 ) = f1 (x1 )f2 (x2 ),
o`
u f1 et f2 sont des densites de probabilite. Comme dans le cas de deux variables aleatoires,
lindependance est preservee par des transformations mesurables des vecteurs X1 et X2 .
1. Par convention, le vecteur X Rp1 est un vecteur colonne.

59


CHAPITRE 9. LOI NORMALE MULTIVARIEE

60

9.2

Matrice de covariance dun vecteur al


eatoire

Le vecteur = (1 , ..., p )T Rp est la moyenne du vecteur aleatoire X = (1 , ..., p )T si


Z

j = E(j ) =

...

tj f (t1 , ..., tp )dt1 ...dtp , j = 1, ..., p

(on suppose, bien evidemment, que les integrales ci-dessus existent), on ecrit alors = E(X).
Exactement comme dans le cas reel, nous avons pour toute matrice A Rqp et b Rq ,
E(AX + b) = AE(X) + b = A + b.
Matrice V (X) de covariance du vecteur aleatoire X est donnee par

V (X) = E((X )(X )T ) = (ij )


(on note que dans ce cas ij nest pas forcement positive), une matrice p p, o`
u
ij

= E((i i )(j j )) = Cov(i , j )


Z

...

(ti i )(tj j )f (t1 , ..., tp )dt1 ...dtp , i, j = 1, ..., p

Comme ij = ji , V (X) est une matrice symetrique. On peut definir egalement la matrice de
covariance des vecteurs aleatoires X (p 1) et Y (q 1) :
C(X, Y ) = E((X E(X))(Y E(Y ))T ), C Rpq .
La matrice de covariance poss`ede les proprietes suivantes :
1o . V (X) = E(XX T ) T , o`
u = E(X).
o
p
T
2 . Pour tout a R , Var(a X) = aT V (X)a.
Preuve : Notons que par linearite de lesperance,


Var(aT X) = E((aT X E(aT X))2 ) = E (aT (X E(X))2 = E aT (X )(X )T a




= aT E (X )(X )T a = aT V (X)a.

Comme Var(aT X) 0, ceci implique que la matrice V (X) est definie-positive. Donc nous
avons
3o . V (X) 0.
4o . Soit A une matrice p q. Alors V (AX + b) = AV (X)AT .
Preuve : Designons Y = AX + b, alors par linearite de lesperance,
= E(Y ) = E(AX + b) = A + b et Y E(Y ) = A(X ).
Maintenant, nous avons :
V (Y ) = E(A(X )(X )T A) = AV (X)AT (linearite de nouveau).

5o .
6o .
7o .
8o .

C(X, X) = V (X). Dans ce cas C = C T 0 (matrice positive).


C(X, Y ) = C(Y, X)T .
C(X1 + X2 , Y ) = C(X1 , Y ) + C(X2 , Y ).
Si X et Y sont deux p-vecteurs aleatoires,

V (X + Y ) = V (X) + C(X, Y ) + C(Y, X) + V (Y ) = V (X) + C(X, Y ) + C(X, Y )T + V (Y ).


9o . Si XY , alors C(X, Y ) = 0 (matrice nulle) (limplication inverse nest pas vraie). Ceci se
demontre comme dans le cas de covariance des v.a. univariees.

9.3. RAPPEL DES PROPRIETES


DES MATRICES SYMETRIQUES
La matrice de corr
elation

61

P de X est donnee par P = (ij ), 1 i, j p avec

ij =

ij

ii jj

Cov(Xi , Xj )
=q
.
Var(Xi )Var(Xj )

On remarque que les elements diagonaux ii = 1, i = 1, ..., p.

9.3
9.3.1

Rappel des propri


etes des matrices sym
etriques
Decomposition en valeurs propres

La matrice A p p, A = (aij ), i, j = 1, ..., p est symetrique si aij = aji , i, j = 1, ..., p.


La matrice p p est dite orthogonale si
1 = T (ou bien T = T = I)
(o`
u I est une matrice identite p p). C.-`a.-d. que les colonnes j de sont des vecteur orthogonaux de longueur 1 ; de meme pour les lignes i de . Bien evidemment, | Det()| = 1. Nous
avons le th
eor`
eme de d
ecomposition spectrale (de Jordan) :
pp
Soit A R
une matrice symetrique. Alors il existe une matrice orthogonale et la
matrice diagonale

1 0 ... 0

... ...
= Diag(i ) =
,
0 ... 0 p
telles que
T

A = =

p
X

i i iT ,

(9.2)

i=1

o`
u i sont les vecteurs propres orthonormes de A : 2
iT j = ij i, j = 1, ..., p,
= (1 , ..., p ).

Remarques.
1) Meme si les valeurs propres dune matrice symetrique peuvent etre multiples, tous les vecteurs
propres dune telle matrice sont differents.
2) On suppose dans la suite que les valeurs propres i , i = 1, ..., p sont ordonnees :
1 2 ... p .
On dit que 1 est le premier vecteur propre de A, c.-`a.-d. le vecteur propre correspondant
`a la valeur propre maximale ; 2 est le deuxi`eme vecteur propre, et ainsi de suite.
Si toutes les valeurs propres i , i = 1, ..., p sont non-negatives, on appelle la matrice A
semi-definie positive (et definie positive si i > 0).
2. ici ij est lindice de Kronecker : ij = 1 si i = j, sinon ij = 0.


CHAPITRE 9. LOI NORMALE MULTIVARIEE

62

9.3.2

Projecteurs.

Matrice P symetrique telle que


P 2 = P (matrice idempotente)
sappelle matrice de projection (ou projecteur, tout simplement).
Toutes les valeurs propres de P sont 0 ou 1. Rang(P ) est le nombre de valeurs propres = 1.
Autrement dit, il existe une matrice orthogonale telle que
T

P =

I 0
0 0

o`
u I est une matrice identite Rang(P ) Rang(P ).
En effet, soit v un vecteur propre de P , alors P v = v, o`
u est une valeur propre de P .
Comme P 2 = P ,
(2 )v = (P P )v = (P 2 P )v = 0.
Ceci equivaut `
a dire que = 1 si P v 6= 0.

9.4

La loi Np (0, I)

Loi normale sur R :

on rappele que la loi normale sur R N (, 2 ) est la loi de densite


f (x) =

(x )2
1
exp(
).
2 2
2

Ici est la moyenne et 2 est la variance. La fonction generatrice de la loi normale N (, 2 ) est
(t) = exp(t +

2 t2
),
2

en particulier, pour N (0, 1) on a (t) = et /2 . La loi Np (0, I) est la loi du vecteur aleatoire
X = (1 , ..., p )T o`
u i , i = 1, ..., p sont des variables aleatoires i.i.d. de loi N (0, 1).
Propri
et
es de Np (0, I) :
1o . La moyenne et la matrice de covariance de X sont : E(X) = 0, V (X) = I.
2o . La loi Np (0, I) est absolument continue de densite
f (u) =

p
Y

(ui ) = (2)p/2

i=1

p
Y

1
1
exp( u2i ) = (2)p/2 exp( uT u),
2
2
i=1

o`
u u = (u1 , ..., up )T et (t) = 12 et /2 est la densite de N (0, 1).
3o . La fonction generatrice de Np (0, I) est, par definition,

aT X

X (a) = E e
=

p
Y
j=1

o`
u a = (a1 , ..., ap )T Rp .

=E


E eaj j =

p
Y

j=1
p
Y

eaj j

2
1
eaj /2 = exp( aT a),
2
j=1


9.5. LOI NORMALE MULTIVARIEE

9.5

63

Loi normale multivari


ee

D
efinition 9.1 Le vecteur aleatoire X suit une loi normale sur Rp si et seulement sil existe
une matrice p p A et un vecteur Rp tels que
X = AY + , o`
u Y Np (0, I).

Propri
et
es :
o
1 . E(X) = car E(Y ) = 0.
2o . V (X) = AV (Y )AT = AAT . On designe = AAT .
3o . La fonction generatrice


TX

E eb

X (a) = E ea
= ea

TY

T + 1 bT b
2

= ea

T (AY

= E ea


+)

(avec b = AT a)
T + 1 aT a
2

= ea

(9.3)

Cette derniere propriete peut servir de caracterisation de la loi normale : en effet, est la fonction
generatrice dune loi normale si et seulement si il existe Rp et une matrice symetrique positive
Rpp tels que
T + 1 aT a
2

(a) = ea

a Rp .

(9.4)

Dans ce cas est la moyenne et est la matrice de covariance de la loi normale en question.
En consequence, toute loi normale dans Rp est enti`erement definie par sa moyenne et sa
matrice de covariance. Ceci explique la notation :
X N (, )
pour le vecteur aleatoire X de loi normale avec la moyenne et la matrice de covariance =
T 0.
Si la loi normale N (, ) est non-degeneree, autrement dit, si la matrice de covariance
lest, on verifie facilement grace `
a (9.1) que X est un vecteur aleatoire de densite
f (t) =

9.6

1
(2)p/2

1
exp (t )T 1 (t ) .
2
Det()


Propri
et
es de la loi normale multivari
ee

On consid`ere ici X Np (, ), o`
u Rp et Rpp est une matrice symetrique, 0.
Les proprietes suivantes sont des consequences des resultats de la section precedente :
(N1) Soit > 0, alors le vecteur aleatoire Y = 1/2 (X ) satisfait
Y Np (0, I).
(N2) Les projections aT X de X pour tout a Rp sont des variables aleatoires normales
univariees :
aT X N (aT , aT a).
En particulier, les densites marginales de la loi Np (, ) sont normales univariees. Le
reciproque nest pas vrai !


CHAPITRE 9. LOI NORMALE MULTIVARIEE

64

(N3) Toute transformation lineaire dun vecteur normal est un vecteur normal : si Y = AX + c
o`
u A Rqp et c Rq sont une matrice et un vecteur fixes (non-aleatoires), alors
Y Nq (A + c, AAT ).
(N4) Soit 2 > 0. La loi de X Np (0, 2 I) est invariante par rapport aux transformations
orthogonales : si est une matrice orthogonale, alors X Np (0, 2 I). (La preuve est
evidente : il suffit dutiliser (N3) avec A = .)
(N5) Tout sous-ensemble de composantes dun vecteur normal p-varie est un vecteur normal :
soit X = (X1T , X2T )T , ou X1 Rk et X2 Rpk , alors X1 et X2 sont des vecteurs normaux
(k- et p k-varie respectivement).
Il suffit que lon utilise (N3) avec c = 0 et A Rkp , A = (Ik , 0) ou Ik est une matrice k k
identite. On en deduit que X1 est normal. Pour X2 on prend A R(pk)p = (0, Ipk ).
(N6) Deux vecteur normaux en couple sont independants si et seulement sils sont noncorreles.
!
X
La necessite etant evidente, il suffit de verifier la suffisance : soit Z =
, o`
u X Rp
Y
et Y Rq , Z un vecteur normal dans Rq+p et C(X, Y ) = 0 (la matrice de covariance entre
X et Y ). Pour montrer que X
ependants il suffit de montrer que la fonction
! et Y sont ind
a
generatrice Z (u), u =
, a Rp et b Rq , peut etre decomposee comme
b
Z (u) = X (a)Y (b).
Verifirons ceci. Nous avons
E(Z) =

E(X)
E(Y )

V (Z) =

V (X) C(X, Y )
C(Y, X)
V (Y )

V (X)
0
0
V (Y )

o`
u V (X) Rpp et V (Y ) Rqq sont des matrices de covariance de X et de Y . La
fonction generatrice Z (u) de Z est donc
!#

"

1
a
Z (u) = Z (a, b) = exp (a E(X) + b E(Y )) + (aT , bT )V (Z)
b
2




1
1
= exp aT E(X) + aT V (X)a exp bT E(Y ) + bT V (Y )b = X (a)Y (b).
2
2
T

pour tout u =

9.6.1

a
b

G
eometrie de la distribution normale multivari
ee

Soit > 0. La densite de Np (, ) est constante sur les surfaces


EC = {x : (x )T 1 (x ) = C 2 },
On appelle ces ensembles les contours de la distribution (lignes/surfaces de niveau). Dans
notre cas particulier, EC sont des ellipsodes quon appelle les ellipsodes de concentration.

9.7. LOIS DERIV


EES
DE LA LOI NORMALE

65

3
3

2
1

2
2

=0.75

3
3

Figure 9.1 Ellipsodes de concentration : (1 , 2 ) N (0, ()).

9.7

9.7.1

Lois d
eriv
ees de la loi normale

Loi 2 de Pearson

Cest la loi de la somme


Y = 12 + ... + p2 ,
o`
u 1 , ..., p sont des variables aleatoires i.i.d. de loi N (0, 1). On ecrit alors Y 2p et on dit que
Y suit la loi chi-deux `
a p d
egr`
es de libert
e. La densite de la loi 2p est
f2p (y) = C(p)y p/21 ey/2 I{0 < y < },
o`
u

1

C(p) = 2p/2 (p/2)

et () est la fonction gamma :


Z

(x) =

ux1 eu/2 du,

x > 0.

On a E(Y ) = p, Var(Y ) = 2p si Y 2p .
p=1
p=2
p=3
p=6

0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0

Figure 9.2 Densite de loi de chi-deux pour les differentes valeurs de p

(9.5)


CHAPITRE 9. LOI NORMALE MULTIVARIEE

66

9.7.2

Loi de Fisher-Snedecor

Soit U 2p , V 2q , deux v.a. independantes. La loi de Fisher-Snedecor `


a d
egr`
es de
libert
e p et q est la loi de
U/p
Y =
.
V /q
On ecrit donc Y Fp,q . La densite de Fp,q est
fFp,q (y) = C(p, q)

y p/21
(q + py)

p+q
2

I{0 < y < },

(9.6)

o`
u
C(p, q) =

pp/2 q q/2
(p)(q)
, avec B(p, q) =
.
B(p/2, q/2)
(p + q)

On peut montrer que cette densite approche la densite f2p dans la limite quand q .
1
F(10,4)
F(10,10)
F(10,100)

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

10

Figure 9.3 Densite de loi de Fisher-Snedecor

9.7.3

Loi t de Student (W. Gosset)

Soit N (0, 1), 2q deux v.a. independantes. La loi de Student `


a q d
egr`
es de
libert
e est celle de variable aleatoire

Y =q .

On ecrit donc Y tq . La densite de tq est


ftq (y) = C(q)(1 + y 2 /q)(q+1)/2 ,

y R,

(9.7)

o`
u
C(q) =

1
.
qB(1/2, q/2)

On note que t1 est la loi de Cauchy et tq tend vers N (0, 1) quand q . On remarque que la
loi tq est symetrique. Les queues de tq sont plus lourdes que celles de loi normale standardisee.


`
9.8. THEOR
EME
DE COCHRAN

67

0.4
N(0,1)
t4
0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
5

Figure 9.4 Densite de loi t4 de Student et de la loi normale

9.8

Th
eor`
eme de Cochran

Nous avons le resultat suivant, tr`es utile en statistique :


Th
eor`
eme 9.1 Soit X Np (0, I) et soit A1 , ..., AJ , J < p, matrices p p telles que
(1) A2j = Aj ,
(2) Aj est symetrique, Rang(Aj ) = nj ,
(3) Aj Ak = 0 pour j 6= k et

PJ

j=1 nj

p. 3) .

Alors,
(i) les vecteurs Aj X sont independants de loi Np (0, Aj ), j = 1, ..., J, respectivement ;
(ii) Les variables aleatoires |Aj X|2 , j = 1, ..., J sont independantes de loi 2nj , j = 1, ..., J.
Preuve :
(i)

Notons que E(Aj X) = 0 et


V (Aj X) = Aj V (X)ATj = Aj ATj = A2j = Aj .

Puis, Ak X et Aj X sont de loi jointe normale. Mais


C(Ak X, Aj X) = E(Ak XX T ATj ) = Ak V (X)ATj = Ak ATj = Ak Aj = 0
pour j 6= k. Par la propriete (N6) de la loi normale, ceci implique que Ak X et Aj X sont
independants pour k 6= j.
(ii)

Comme Aj est un projecteur, il existe une matrice orthogonale telle que


T

Aj =

Ij
0

0
0

la matrice diagonale de valeurs propres de Aj . Comme Aj est de rang nj , on a Rang(Ij ) = nj ,


et donc
n
|Aj X|2 = X T ATj Aj X = X T Aj X = (X T T )(X) = Y T Y =

j
X

i=1

3.

Certaines versions de ce resultat supposent aussi que A1 + ... + AJ = I.

i2 ,

68

CHAPITRE 9. LOI NORMALE MULTIVARIEE

ou Y = (1 , ..., p )T est un vecteur normal, Y = X Np (0, I) (par la propriete (N4) de


la loi normale). Do`
u on conclut |Aj X|2 2nj . Par la conservation de lindependance par
transformations mesurables, |Aj X|2 et |Ak X|2 sont independantes pour j 6= k.

9.9. EXERCICES

9.9

69

Exercices

Exercice 9.1
Soit la densite jointe des v.a. X et Y
f (x, y) =

1 x2 y 2
e 2 e 2 [1 + xyI{1 x, y 1}],
2

Quelle est la loi de X, de Y ?


Exercice 9.2
Soit (X, Y ) un vecteur aleatoire de densite
f (x, y) = C exp(x2 + xy y 2 /2).
1. Montrer que (X, Y ) est un vecteur aleatoire gaussien. Calculer lesperance, la matrice de
covariance et la fonction generatrice de (X, Y ). Determiner le coefficient XY de correlation
de X et Y .
2. Determiner la loi de X, de Y , de 2X Y .
3. Monter que X et Y X sont des variables aleatoires independantes et de meme loi.
Exercice 9.3
Soit X une v.a. de loi N (0, 1) et Z une v.a. prenant les valeurs 1 ou 1 avec la probabilite 21 .
On suppose X et Z independantes. On pose Y = ZX.
1. Montrer que Y suit la loi N (0, 1).
2. Calculer la covariance et la correlation de X et Y .
3. Calculer P (X + Y = 0).
4. Le vecteur (X, Y ) est-il un vecteur aleatoire normal ?
Exercice 9.4
Parmi les matrices suivantes, lesquelles peuvent etre la matrice de covariance dun vecteur
aleatoire X R ?
1 2
2 1

1 1/2
1/2 1

1 1/2
1/2 1

1 1/2
1/3 1

Dans la suite, on notera les matrices repondant `a la question, et on supposera que X est de
loi N2 (0, ).
1. Calculer, pour chaque matrice , les valeurs propres (1 , 2 ) et les vecteurs propres associes (v1 , v2 ).
2. Donner la loi jointe de v1T X et v2T X.


CHAPITRE 9. LOI NORMALE MULTIVARIEE

70
Exercice 9.5

Soit et v.a. independantes de loi U [0, 1]. Alors les v.a.


X=

2 ln cos(2),

Y =

2 ln sin(2)

sont telle que Z = (X, Y )T N2 (0, I).


Indication : soit (X, Y ) N2 (0, I). Passer en coordonnees polaires.
Exercice 9.6
Soit Z = (Z1 , Z2 , Z3 )T un vecteur aleatoire normal, admettant une densite f telle que :
6z12 + 6z22 + 8z32 + 4z1 z2
1
exp

f (z1 , z2 , z3 ) =
32
4(2)3/2

Soient X et Y les vecteurs aleatoires definis par :

X=

2
0
0
1

2 2
2 5
4 10
2 4

et Y =

1 1 1
1 0 0

Z.

1. Le vecteur (X, Y ) de dimension 6, est-il gaussien ? Le vecteur X a-t-il une densite ? Le


vecteur Y a-t-il une densite ?
2. Les vecteurs X et Y sont-ils independants ?
3. Determiner les lois des composantes de Z.
Exercice 9.7
Soit (X, Y, Z)T un vecteur aleatoire gaussien de
est

= 1
1

moyenne nulle et dont la matrice de covariance

1 1

2 1 .
1 2

1. On pose U = X + Y + Z, V = X Y + Z, W = X + Y Z. Determiner la loi du vecteur


aleatoire (U, V, W )T .
2. Determiner la densite de la variable T = U 2 + V 2 + W 2 .
Exercice 9.8
Soit un vecteur (X, Y ) gaussien N2 (, ) de moyenne et de matrice de covariance :
=

0
2

, =

4 1
1 8

1. Donner la loi de X + 4Y .
2. Donner la loi jointe des variables Y 2X et X + 4Y .
Exercice 9.9

9.9. EXERCICES

71

Soit X un vecteur aleatoire normal de dimension n, centre, de matrice de covariance . Quelle


est la loi de la v.a. X T 1 X ?
Exercice 9.10
La taille H des hommes dans un population P est modelisee par une loi de Gauss N (172, 49)
(unite : le cm). Dans ce mod`ele :
1. Quelle est la probabilite pour quun homme ait une taille inferieure `a 160cm ?
2. On admet quil y a environ 15 millions dhommes dans P ; donner une estimation du
nombre dhommes de plus de 200cm.
3. Quelle est la probabilite pour que 10 hommes rencontres au hasard aient tous leur taille
dans lintervalle [168,188]cm ?
La taille H 0 des femmes de P est modelisee par une loi de Gauss N (162, 49) (unite : le
cm).
4. Quelle est la probabilite pour quun homme choisi au hasard soit plus grand quune femme
choisie au hasard ?
On modelise la taille des elements dun couple (H, H 0 ) par un vecteur normal o`
u le coefficient de correlation entre la taille de la femme et la taille de lhomme est 0.4 (respectivement 0.4).
5. Calculer la probabilite p (respectivement, p0 ) que dans un couple lhomme soit plus grand
que la femme (avant de faire le calcul, pouvez-vous dire dans quel ordre seront ranges p et
p0 ?).
Exercice 9.11
Soit X1 , ..., Xn des variables aleatoires i.i.d.. On note
n
n
n
X
X
1X
= 1
2= 1
2.
X
Xi , s2 =
(Xi X)
X2 X
n i=1
n i=1
n i=1 i

moyenne empirique et s2 variance empirique de X1 , ..., Xn .


On appelle X
1. Verifier que pour tout c reel,
n
n
1X
1X
2 + (X
c)2 = s2 + (X
c)2 .
(Xi c)2 =
(Xi X)
n i=1
n i=1

Quelle est linterpretation geometrique de ce resultat ?


2. Montrer que 4
= E(X1 ) = , Var(X)
=
E(X)

Var(X1 )
2
=
,
n
n

E(s2 ) =

n1 2

(on suppose, bien evidement, que Var(X) existe).


3. Soit X1 , ..., Xn des variables aleatoires i.i.d. de loi normale, c.-`a.-d. X1 N (, 2 ). Verifier
que
s2 .
(a) X
N (, 2 /n).
(b) X
4. Cf lexercice 7.8


CHAPITRE 9. LOI NORMALE MULTIVARIEE

72
(c)

ns2

2n1 .

4. Montrer que la variable aleatoire


t=

n1


X
s

est distribuee selon la loi de Student tn1 `a n 1 degr`es de liberte.

Das könnte Ihnen auch gefallen