Beruflich Dokumente
Kultur Dokumente
enements et probabilit
Ev
es,
probabilit
e conditionnelle et
ind
ependance
On cherche ici `
a proposer un cadre mathematique dans lequel on puisse parler sans ambiguite
de la probabilite quun evenement A donne se realise lors du deroulement de lexperience E `
a
resultat aleatoire ou de la probabilite quune variable X dont la valeur depend du resultat de E
prenne sa valeur dans un domaine donne.
1.1
Notions de base
D
efinition 1.1 est lensemble de toutes les eventualites, ou resultats possibles dune experience
aleatoire E. On lappelle espace dechantillonnage ou ensemble fondamental.
D
efinition 1.2 un evenement A est un ensemble deventualites possedant la meme propriete. Il
est donc represente par un sous-ensemble A de . Si le resultat dune experience est un element
de A, on dit que levenement A a ete realise.
Lensemble vide est appele evenement impossible, puisquaucun element de ne peut
etre realise.
Lensemble des cas possibles est appele evenement certain.
Un evenement ne comportant quun seul resultat possible est appele evenement elementaire.
Levenement A complementaire de A dans , est appele evenement contraire de A.
Etant
donnes deux evenements A et B, on definit :
A B la conjonction des evenements A et B, realise si A et B sont tous les deux realises.
Si AB = , on dit que les evenements A et B sont incompatibles ou disjoints (ou encore,
mutuellement exclusifs).
A B, realise si A, ou B, ou (A et B) sont realises.
A B, realise si A est realise, mais pas B.
Op
erations sur les
ev
enements Soient trois evenements A, B, C :
A=A
A (B C) = (A B) C = A B C
A (B C) = (A B) C = A B C
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
ENEMENTS
PROBABILITE
CONDITIONNELLE ET INDEPENDANCE
2CHAPITRE 1. EV
ET PROBABILITES,
AB =AB
AB =AB
D
efinition 1.3 On appelle probabilite une application P de lensemble devenements sur [0, 1]
telle que :
1. P () = 1
2. Pour toute suite {An }n1 devenements de deux a
` deux incompatibles (i.e. 2 `
a 2 disjoints : Ai Aj = si i 6= j), alors :
An =
P (An )
n1
n1
Consequences :
A de , 0 P (A) 1
Si A B = , alors P (A B) = P (A) + P (B)
Si A1 , A2 , ..., An sont des evenements elementaires et i Ai = , alors
P (A1 ) + P (A2 ) + ... + P (An ) = 1
Si tous les evenements elementaires sont equiprobables, cest-`a-dire, si P (Ak ) =
k = 1, 2, ..., n, alors, si A est constitue de m evenements elementaires de ce type,
P (A) =
1
n
pour
m
card(A)
=
n
card()
Propri
et
es
el
ementaires :
1. P (A B) = P (A) + P (B) P (A B).
Justification : A B = (A B) B = P (A B) = P (A B) + P (B), et
A = (A B) (A B) = P (A) = P (A B) + P (A B)
2. P (A) = 1 P (A).
Justification : = A A = P () = P (A) + P (A) = 1.
3. P () = 0.
4. Si A B, alors P (A) P (B) (P est une fonction croissante).
5. Si A B, alors P (B/A) = P (B) P (A).
1.2
Probabilit
e conditionnelle
1/4
1/4
1/4
1.3. EVENEMENTS
INDEPENDANTS
D
efinition 1.4 soient A et B deux evenements tel que P (B) 6= 0. On appelle probabilite
conditionnelle de A sachant B la probabilite que A se realise, sachant que B est dej`
a realise.
Dans la mesure o`
u nous savons que B est realise, il devient le nouvel espace dechantillonnage
remplacant , ce qui conduit `
a la definition suivante :
P (A|B) =
P (A B)
P (B)
P (B|A) =
P (A B)
.
P (A)
On en deduit :
P (A B) = P (B)P (A|B) = P (A)P (B|A).
Syst`
eme complet d
ev
enements : {An }n1 forme un syst`eme complet devenements lorsque
{An }n1 forme une partition de , i.e. :
n 1, An 6=
i,
j 1, i 6= j, Ai Aj =
[
An =
n1
Th
eor`
eme 1.1 (des probabilites totales)
Soit {An }n1 un syst`eme complet devenements. Alors, quelque soit evenement B :
P (B) =
P (B|An )P (An )
n1
Th
eor`
eme 1.2 (de Bayes) Soit {An }n1 un syst`eme complet devenements, et B un evenement
tel que P (B) 6= 0. On a, pour tout i :
P (Ai |B) =
P (Ai B)
P (B|Ai )P (Ai )
P (B|Ai )P (Ai )
=
= X
P (B)
P (B)
P (B|An )P (An )
n1
1.3
Ev
enements ind
ependants
Etant
donnes deux evenements A et B (avec P (B) > 0), la probabilite conditionnelle P (A|B)
apparat comme une evaluation de voir A se realiser compte tenu de linformation B est quant
`a lui realise. Si, au sens du langage courant, on consid`ere que A et B sont independants, on
est raisonnablement amene `
a souhaiter que P (A|B) = P (A). Mais alors, cest que :
P (A B) = P (A) P (B)
D
efinition 1.5 Deux evenements A et B sont dits independants si :
P (A B) = P (A) P (B)
ENEMENTS
PROBABILITE
CONDITIONNELLE ET INDEPENDANCE
4CHAPITRE 1. EV
ET PROBABILITES,
Cons
equences :
Si A et B sont independants, il en est de meme de A et B ; de A et B ; de A et B.
Tout evenement A est independant de levenement certain et de levenement impossible
.
En general, on a P (A|B) 6= P (A) ce qui signifie que A depend de B.
Si les evenements A1 , A2 , ..., Am sont independants alors
P (A1 A2 ... Am ) = P (A1 )P (A2 )...P (Am ).
(1.1)
1.4. EXERCICES
1.4
Exercices
Exercice 1.1
Soit A et B deux evenements de , P(A)=2/3, P (B) = 1/6, P (AB) = 1/9. Que vaut P (AB) ?
Soit P (A) = 1/3, P (B) = 1/2 et P (A B) = 3/4. Calculez P (A B) et P (Ac B c ).
Si P (A) = 0.9, P (B) = 0.8, montrer que P (A B) 0.7.
Exercice 1.2
Soit D1 et D2 representent desastres dont les probabilites sont P (D1 ) 106 , P (D2 ) 109 .
Que peut-on dire de la probabilite quau moins une des desastres ait lieu ? les deux aient lieu ?
Exercice 1.3
Un composant electronique sert a declencher une alarme si une condition extraordinaire se
presente. Ce composant est fiable a 96%. On envisage de mettre un certain nombre de ces composants en parall`ele pour augmenter la fiabilite du syst`eme dalarme. Combien de composants
doit-on placer en parall`ele de telle sorte que la fiabilite du syst`eme soit dau moins 99.99%
Exercice 1.4
On consid`ere lexperience suivante :
vous participer au jeu televise de Monty Hall, dans lequel vous avez choix de 3
portes dont une cache une voiture et les deux autres une ch`evre. Vous choisissez une
porte, par exemple, porte 1, et le hote de jeu, qui sait o`
u se trouve la voiture,
ouvre une porte derri`ere laquelle est une ch`evre, par exemple, porte 3. Il vous dit
Voulez-vous choisir maintenant la porte 2 ? Avez-vous linteret de changer votre
choix ?
On note par a la porte avec la voiture et par b et c les 2 autres portes. Lespace devenements
de lexperience est
= {a, b, c} {a, b, c}
(le premier est le choix du candidat et le second est celui de lhote).
1. Faites le tableau 3 3 avec des probabilites de tous les issus possibles de lexperience. Vous
devez tenir compte du fait que le candidat ne sais pas que la voiture est derri`ere la porte
a, mais le h
ote le sais et nouvre jamais cette porte. Vous pouvez supposer que le h
ote
choisit arbitrairement la port b ou c quand le joueur choisit a.
2. Considerez le cas de candidat qui ne change pas la porte. Quel est levenement le joueur
gagne, quelle est sa probabilite ?
3. Considerez le cas de candidat qui change la porte. Quel est levenement le joueur gagne
dans ce cas, quelle est sa probabilite ?
Exercice 1.5
Soit A et B deux evenements. Montrer que P (A|B) + P (A|B) = 1 (A et A, forment-ils un
syst`eme complet devenements ?).
Exercice 1.6
ENEMENTS
PROBABILITE
CONDITIONNELLE ET INDEPENDANCE
6CHAPITRE 1. EV
ET PROBABILITES,
Une enquete effectuee aupr`es dun grand nombre detudiants de lUniversite a permis destimer
quil y a une probabilite de : 0.7 pour quun etudiant soit interesse par linformatique, 0.4 pour
quil soit interesse par les mathematiques ; 0.25 pour quil soit interesse par ces deux mati`eres.
Quelle est le probabilite quun etudiant :
soit interesse par linfo et pas par les maths ;
soit interesse par linfo ou par les maths ;
ne soit pas interesse ni par linfo ni par les maths.
Exercice 1.7
Calculer la probabilite que 3 personnes choisies aux hazard soient nees les mois differents. Pouvezvous donner la formule pour n personnes ?
Exercice 1.8
Dans lexperience de Monty Hall (cf 1.4). Soit R levenement le prix est derri`ere la porte vous
avez choisie au depart et G levenement vous gagnez en changeant la porte.
1. Calculer P (G|R) et P (G|Rc ).
2. Calculer P (G) en utilisant la formule des probabilites totales.
Exercice 1.9
Une classe comporte 10 garcons dont la moitie a les yeux marron et 20 filles dont la moitie
a egalement les yeux marron. Calculer la probabilite P quune personne tiree au hasard soit
un garcon ou ait les yeux marrons. Les evenements el`eve est un garcon et el`eve a les yeux
marron sont-ils independants ?
Exercice 1.10
La probabilite pour que lalcootest dun ivrogne soit positif est 0.95. La probabilite pour que
lalcootest dun individu non ivre soit negatif est aussi 0.95. Soit P la probabilite quun francais
soit ivre. Calculer la probabilite qu`
a un francais detre ivre sachant que son alcootest est positif,
ainsi que la probabilite quil ne soit pas ivre sachant que sont alcootest est negatif. Faire le calcul
pour P = 0.01 et P = 0.001.
Exercice 1.11
Soit A et B evenements independants, P (B|A B) = 2/3, P (A|B) = 1/2. Quelle est P (B) ?
Chapitre 2
FF
2
FP
1
PF
1
PP
0
D
efinition 2.1 on appelle variable aleatoire reelle toute application X : R telle que pour
tout intervalle I de R lensemble {X I} est un evenement de , et poss`ede donc une probabilite
notee P (X I).
D
efinition 2.2 On appelle fonction de repartition de la v.a. X la fonction FX : R [0, 1]
telle que FX (t) = P (X t),
Propri
et
es :
1. FX est croissante, limt FX (t) = 0, limt+ FX (t) = 1.
2. si a < b, P (a < X b) = FX (b) FX (a).
Une v.a. qui peut prendre un nombre fini ou denombrable fini de valeurs est dite variable aleatoire
discr`ete. Si elle peut prendre un nombre infini non denombrable de valeurs, elle est dite variable
aleatoire continue.
2.1
Variables al
eatoires discr`
etes
Soit X une v.a. discr`ete et soient x1 , x2 , x3 , ... ses valeurs possibles, ordonnees par ordre
croissant. On suppose que la probabilite de chacune de ces valeurs est :
P (X = xk ) = f (xk )
pour k = 1, 2, 3, ...
D
efinition 2.3 On definit la fonction de probabilite f (xk ) telle que :
1. f (x) 0
f (xk ) = 1
o`
u la somme en (2) est prise sur toutes les valeurs possibles de X.
Exemple 2.2 (cf Exemple 2.1) En supposant que la pi`ece nest pas truquee,
P (F F ) = P (F P ) = P (P F ) = P (P P ) =
On ecrit :
P (X = 0) = P (P P ) =
1
4
P (X = 1) = P (P F F P ) = P (P F ) + P (F P ) =
P (X = 2) = P (F F ) =
1
4
1 1
1
+ =
4 4
2
1
4
xk t
Remarque : Soit X une v.a. qui prend des valeurs enti`eres positives. Dans les exercices, on
est parfois amene `
a utiliser les astuces suivantes :
P (X = k) = P (X k) P (X k + 1)
= P (X > k 1) P (X > k)
= P (X k) P (X k 1)
= P (X < k + 1) P (X < k)
P (X k) =
k
X
i=0
2.1.1
P (X = i),
P (X k) =
+
X
P (X = i)
i=k
On consid`ere des experiences telles que le lancer repetitif de pi`eces ou de des, ou le tirage de boules dans une urne, chaque lancer est dit essai. Au cours de chacun des essais, chaque
evenement particulier (obtention dune face, dun 1, dune boule rouge) est associe `a une probabilite de reussite. Dans certains cas, comme dans le cas du lancer de pi`ece ou de de, cette probabilite
ne va pas varier dessai en essai. Les essais de ce type sont dits essais independants de Bernouilli.
Loi de Bernouilli : realisation dune experience nayant que deux issues possibles, 1=succ`es
et 0=echec. La distribution dune v.a. X prenant les valeurs 1 et 0 avec les probabilites p et
1 p sappelle la loi de Bernoulilli et est notee B(1, p). On note que q = 1 p est la probabilite
dechec.
La probabilite pour que levenement (le succ`es) se realise k fois exactement au cours de n
essais est donnee par la probabilite :
f (x) = P (X = x) = Cnk pk (1 p)nk
`
2.1. VARIABLES ALEATOIRES
DISCRETES
o`
u la variable X est le nombre de succ`es au cours de n essais. Cette fonction de probabilite est
appelee distribution bin
omiale, dans la mesure o`
u, pour k = 0, 1, 2, ..., n, elle correspond aux
termes successifs du developpement du binome :
(q + p)n = q n + Cn1 p1 (1 p)n1 + Cn2 p2 (1 p)n2 + ... + pn =
n
X
Cnx px (1 p)nx .
Loi binomiale est la loi du nombre de succ`es X pendant la realisation de n essais independants
dans le schema de Bernouilli. Elle est notee B(n, p)
Soit la v.a. X represente le nombre dessais de Bernouilli jusqu`a ce que le premier succ`es
(inclus) se realise. Ici, p est la probabilite de succ`es pour un essai : f (x) = P (X = k) = pq k1
pour k = 1, 2, ... (exactement k 1 echecs avant le succ`es au k-`eme essai).
Loi g
eom
etrique est la loi du temps X dattente du premier succ`es dans les realisations
dessais independants du schema de Bernouilli. Elle est notee G(p).
Exemple 2.3 On consid`ere un ensemble de n machines independantes assemblees selon une
certaine configuration pour constituer un syst`eme dont on sinteresse au bon fonctionnement
(pour un certain cahier des charges) pour des periodes dutilisation successives 1, 2, . . . , k, . . .. On
suppose que pour la i-i`eme machine la probabilite de panne lors dune periode donnee est pi et que
de plus les comportements de la dite machine sur les differentes periodes sont independants.
Soit Xi la variable aleatoire definie par le rang de la periode o`
u se produit la premi`ere panne
pour le i-i`eme machine. On a :
P (Xi = k) = pi (1 pi )k1
On dit que la variable aleatoire Xi est de loi geometrique de param`etre pi .
Loi de Poisson Soit une X une v.a. discr`ete, pouvant prendre les valeurs k = 0, 1, 2, ... telles
que la fonction de distribution sexprime :
f (k) = P (X = k) =
k
exp ()
k!
avec > 0 donne. Cette distribution est celle de la loi de Poisson. Elle est notee P().
10
2.2
Exercices
Exercice 2.1
Soit X une v.a. discr`ete avec dont la fonction de probabilite est
x
f (x)
-1
1
4
1
8
1
8
1
2
0, x < 0,
1, 0 x <
3
F (x) =
12 , 21 x <
1,
1
2,
3
4,
x 4.
2.2. EXERCICES
11
Vous avez decide de jouer chaque mois aux 2 loterie differentes, et vous arretez des que vous
gagnez un prix dau moins 1 million deuros dans une (ou meme les deux) loterie. On suppose
que chaque fois vous jouez la probabilite de gagner au moins 1 million est p1 pour la premiere
loterie et p2 pour la seconde. Soit M le nombre de fois vous participez dans ces lotteries jusqu`
a
avoir gagner un prix. Quelle est la loi de M ? quel est son param`etre ?
Exercice 2.7
On lance une piece jusqu`
a ce que pile apparaisse une seconde fois, avec p etant la probabilite
de pile. On suppose lindependance de tous les lances. Soit X le nombre de lances necessaires.
1. Determinez P (X = 2), P (X = 3), P (X = 4).
2. Montrez que P (X = n) = (n 1)p2 (1 p)n2 .
Exercice 2.8
On etudie larrivee des appels dans un central telephonique. On admet que, durant un intervalle
de temps de dix secondes, la probabilite quun appel arrive est p et que celle quaucun ne
survienne de 1p (on neglige la probabilite que plus dun appel ne survienne sur un tel intervalle
de temps). On suppose que les evenements concernant les periodes successives de dix secondes
sont independants. Soit Z la variable aleatoire N dappels recus en une heure. Quelle est la loi
de Z ? Donner une approximation de la probabilite quil y ait quinze appels dans lheure avec
p = 0.05.
12
Chapitre 3
Variables al
eatoires continues et
simulation
3.1
Variable al
eatoire continue
Dans limmediat nous avons besoin dune variable continue U bien particuli`ere.
Loi uniforme . Une v.a. U est distribuee uniformement sur a u b si sa fonction de
repartition sexprime :
FU (u) = P (U u) =
ua
ba
u<a
au<b
ub
fU (x) =
1
ba
axb
ailleurs
R +
fX (x) = 1
D
efinition 3.1 La probabilite pour que la variable aleatoire continue X soit comprise entre a
et b est donnee par :
Z b
P (a < X < b) =
fX (x)dx.
a
La fonction fX est appelee densite de probabilite definie pour une v.a. continue.
14
Cons
equence :
la fonction de repartition (f.d.r.) F (x) dune v.a. continue est donnee par :
FX (x) = P (X x) = P ( < X x) =
Z x
fX (u)du,
FX (x) = P (X x) =
0, x < 0,
x 0.
ex ,
f (x) =
0, x < 0,
ex , x 0.
A noter que dans la literature on utilise souvent la notation E() pour la loi exponentielle de
param`etre = 1 . Ceci peut etre une source de confusion dans ce cas, par exemple, la densite
de la loi secrit
(
0, x < 0,
x
f (x) =
1
, x 0.
e
Loi normale
D
efinition 3.3 Une variable aleatoire X suit la loi normale de param`etres et 2 > 0 (on note
X N (, 2 ) si sa densite de probabilite est
fX (x) =
x 2
1
e( ) , < x < .
2
et (x) la f.d.r de cette loi. La loi N (0, 1) est symetrique par rapport `a 0 , c.-`a.d. (x) = (x)
et, en consequence, (x) = 1 (x).
Loi de Pareto
D
efinition 3.4 Une variable aleatoire X suit la loi de Pareto de param`etre (on note X
P ar() si sa f.d.r. est
(
0, x < 1,
FX (x) =
1 x , x 1.
En derivant nous avons densite de la loi P ar() :
(
fX (x) =
0, x < 1,
, x 1.
x+1
3.2. SIMULATION
3.2
15
Simulation
echantillon). Les methodes de simulation permettent dobtenir seulement une valeur pseudoal
eatoire, au lieu dune valeur aleatoire. Cela signifie que les nombres X1 , ..., Xn simules sont
d
eterministes ils sont obtenus par un algorithme deterministe mais les proprietes de la
suite X1 , ..., Xn sont proches de celles dune suite aleatoire i.i.d. de meme loi.
3.2.1
o`
u [] est partie enti`ere. Nous avons toujours 0 zi < m. On definit
zi
azi1
azi1
=
,
m
m
m
Ui =
alors 0 Ui < 1. La suite U1 , ..., Un est consideree comme un echantillon de la loi uniforme
U [0, 1].
Les valeurs suivantes de param`etres sont tr`es repandues et donnent en general satisfaction :
a = 16807(75 ),
m = 2147483647(231 1).
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
3.2.2
Etant
donne une variable aleatoire U de loi uniforme, on peut obtenir variable aleatoire X
dune loi generale F () par la m
ethode dinversion. Elle marche bien si on poss`
ede une
expression explicite pour F (). Cette methode est basee sur la proposition suivante :
16
Proposition 3.1 Soit F une f.d.r. continue et strictement monotone, et soit U une variable
aleatoire uniformement distribuee sur [0, 1]. Alors la v.a.
X = F 1 (U )
a F () comme f.d.r.
Preuve : On note que
F (x) = P (U F (x)) = P (F 1 (U ) x) = P (X x).
Do`
u lalgorithme de simulation suivant : si F (x) est continue est strictement croissante, on
prend
X = F 1 (U ),
o`
u U est un nombre pseudo-aleatoire uniformement distribue sur [0, 1].
Si F nest pas continue ou strictement monotone, il faut modifier la definition de F 1 . On
pose
P (X = 1) = p,
On utilise la methode modifiee :
0,
1,
y [0, 1 p],
y (1 p, 1].
X=
0,
1,
U [0, 1 p],
U (1 p, 1].
3.3. EXERCICES
3.3
17
Exercices
Exercice 3.1
Soit X une v.a. continue avec la densite de probabilite
f (x) =
4 , pour 0 x 1,
1
4 , pour 2 x 3,
0, partout ailleurs.
1. Dessinez le graphe de f .
2. Determinez la f.d.r. F de X, dessinez le graphe de F .
Exercice 3.2
Supposons que la fonction de repartition dune v.a. continue X, `a valeurs dans [0, 1] est donnee
par
F (x) = x2 , 0 x 1.
Calculer P
1
2
3
4
Exercice 3.3
La densite de probabilite f dune v.a. X est donnee par
f (x) =
cx + 3, pour 3 x 2,
3 cx, pour 2 x 3,
0, partout ailleurs.
1. Determiner c.
2. Calculer la fonction de repartition de X.
Exercice 3.4
Soit X E(0.2) Calculer P (X > 5).
Exercice 3.5
La note dun etudiant recue `
a un examen est une valeur entre 0 et 1. Letudiant passe son
examen si sa note est au moins 0.55. On modelise cette experience par une v.a. continue N (la
note), dont la densite est donnee par
4x, pour 0 x 12 ,
4 4x, pour 12 x 1,
f (x) =
0, partout ailleurs.
1. Quelle est la probabilite que letudiant echoue ?
2. Quel note il obtiendra avec au moins 50% de chance, autrement dit, quelle est la mediane
de la distribution de notes ?
Exercice 3.6
CHAPITRE 3. VARIABLES ALEATOIRES
CONTINUES ET SIMULATION
18
On consider lexperience de jeu de flechettes, dans laquelle on decrit la distance dune flechette
Y lancee par un joueur au centre du disque par la loi de probabilite avec la f.d.r.
G(y) =
q 0, y < 0,
y
r,
0yr
1, y > r,
3.3. EXERCICES
19
Dans la modelisation de duree de vie des composants mecaniques on utilise quelquefois des v.a.
de loi de Weibull. Un exemple de loi de cette famille est la loi dont la f.d.r est
(
F (x) =
0, x < 0
x 0.
2
e5x ,
Construire une variable Z avec cette loi `a partir dune v.a. de loi U (0, 1).
Exercice 3.13
La v.a. X suit la loi de Pareto P ar(3), dont la f.d.r. est F (x) = 0 pour x < 1 et F (x) = 1 x3
pour x 1. Decrivez la construction de X `a partir dune v.a. U U (0, 1).
20
Chapitre 4
Esp
erance, variance,
ecart-type
4.1
Esp
erance (moyenne th
eorique)
D
efinition 4.1 soit X une variable aleatoire discr`ete numerique (i.e. X() R). Si
X
|xk | P (X = xk )
xk X()
E(X) =
xk P (X = xk ).
xk X()
fX (x).
xX()
e k
k! ,
X
e k
k=0
k!
=e
X
k1
k
=e
=
(k 1)!
k!
k=1
k=0
Remarque : Lorsque toutes les probabilites sont egales (evenements equiprobables), lesperance
mathematique est egale a
` la moyenne arithmetique, et
E(X) =
x1 + x2 + ... + xn
.
n
X
x: g(x)=y
P (X = x)
CHAPITRE 4. ESPERANCE,
VARIANCE, ECART-TYPE
22
1. E[g(X)] =
g(x)P (X = x) =
2. do`
u E[X 2 ] =
g(x)fX (x)
xX()
x2 P (X = x) =
x2 fX (x)
xX()
Soit A une v.a. continue de densite de probabilite f (x) et g une fonction reelle, on a :
Z
g(x)f (x)dx
E[g(X)] =
4.2
Variance et
ecart-type
2 ) lesp
D
efinition : On appelle variance de X (et on note Var(X) ou 2 (X) ou X
erance
2
mathematique, si elle existe, de la variable aleatoire [X E(X)] .
Propri
et
es :
(x E(X))2 P (X = x)
xX()
xX()
x2 P (X = x) 2E(X)
xX()
{z
=E(X 2 )
xP (X = x) +E(X)2
P (X = x)
xX()
{z
=E(X)
{z
=1
= E(X 2 ) E(X)2
D
efinition 4.2 On appelle ecart-type de X (et on note (X) ou X ) la quantite :
(X) =
Var(X).
La variance (ou ecart-type) est une mesure de dispersion (ou de distribution) des valeurs de la
v.a. autour de la moyenne = E(X).
De plus,
(a, b) R2 , E(aX + b) = aE(X) + b
(a, b) R2 , Var(aX + b) = a2 Var(X)
(a, b) R2 , (aX + b) = |a|(X)
Variable centr
ee, r
eduite, centr
ee r
eduite
Une variable aleatoire est dite centree si son esperance est nulle. La variable aleatoire Y
centree associee `
a X est : Y = X E(X).
Une variable aleatoire est dite centree reduite si son esperance est nulle et si sa variance est
X E(X)
egale `a 1. La variable aleatoire Y centree reduite associee `a X est : Y = X =
.
(X)
4.2. VARIANCE ET ECART-TYPE
23
Loi et Notation
Loi uniforme U(n)
[1, n]
{0, 1}
[0, n]
1
n
P (X = 1) = p
P (X = 0) = 1p
Cnk pk (1 p)nk
(1 p)k1 p
Loi et Notation
X()
[a, b]
k
k!
[0, +[
] , +[
[1, +[
1
1{a x b}
ba
ex 1{x 0}
1
2
exp
x+1
Var(X)
n+1
2
(n 1)2
12
p(1 p)
np
1
p
np(1 p)
1p
p2
E(X)
Var(X)
a+b
2
(b a)2
12
1
2
(x)2
2 2
1{x 1}
E(X)
pour > 1
1
pour > 2
2
CHAPITRE 4. ESPERANCE,
VARIANCE, ECART-TYPE
24
4.3
Exercices
Exercice 4.1
Soit D le de `a 6 faces. Decrivez la loi de D. Calculez son esperance et son ecart-type.
Exercice 4.2
La distribution de la v.a. discr`ete X est donnee par
1
2
2
P (X = 1) = , P (X = 0) = , P (X = 1) = .
5
5
5
1. Calculer E(X).
2. Donner la loi de Y = X 2 et calculer E(Y ) en utilisant la distribution de Y .
3. Calculer E(X 2 ) en utilisant le changement de variables et comparer avec le resultat
prec`edent. Calculer Var(X).
Exercice 4.3
Soit X une v.a. avec E(X) = 2, Var(X) = 3. Que vaut E(X 2 ) ?
Exercice 4.4
Soit X une v.a. avec E(X) = 2, Var(X) = 4. Calculer lesperance et la variance de 3 2X.
Exercice 4.5
Une v.a. Z `a densite f (z) = 3z 2 /19 pour 2 z 3 et f (z) = 0 partout ailleurs. Determiner
E(Z). Avant de fare les calculs, sauriez-vous dire si cette valeur est plus proche de 2 ou de 3 ?
Exercice 4.6
Soit X une v.a. dont la densite est donnee par
(
f (x) =
4x 4x3 , 0 x 1
0, partout ailleurs.
pour > 1.
4. Pour quelles valeurs de la variance de la loi P ar() est finie ? Calculer la variance de la
loi de Pareto.
Exercice 4.9
4.3. EXERCICES
25
Montrer que la moyenne des carres est plus grande que le carre de la moyenne, c.-`a-d. E(X 2 )
[E(X)]2 .
Indication : on peut penser utiliser linegalite Var(X) 0.
Exercice 4.10
Supposons quon choisit de facon arbitraire un point P dans le carre avec les sommets en (2.1),
(3, 1), (2, 2) et (3, 2). La variable aleatoire A est laire de triangle avec les sommets en (2, 1),
(3, 1) et P (cf lexercice 3.7). Calculer E(A) et Var(A).
Exercice 4.11
Soit X une v.a. discr`ete qui prend les valeurs a1 , a2 , ... avec les probabilites p1 , p2 , ...
1. Supposons que tous les ai 0 et E(X) = 0. Montrer que P (X = 0) = 1.
2. Supposons que Y une v.a. discr`ete `a valeurs b1 , b2 , ... avec probabilites r1 , r2 , .... Montrer
que Var(Y ) = 0 implique que P (Y = E(Y )) = 1.
Indication : appliquer le resultat precedent avec X = (Y E(Y ))2 .
26
CHAPITRE 4. ESPERANCE,
VARIANCE, ECART-TYPE
Chapitre 5
Calcul
5.1
Le propos de ce paragraphe est de montrer comment calculer la loi dune fonction dune v.a.
5.1.1
Le cas discret
Soit X une v.a. discr`ete sur {x1 , ..., xn , ...} de fonction de probabilite P (xk ) = P (X = xk ) et
soit (x) une fonction reelle donnee. Nous avons
P (Y = y) = P (X 1 (y)) =
P (xk ),
k: (xk )=y
5.1.2
Cas continue
On suppose que X est une v.a. continue de densite fX et que est une fonction continue
strictement monotone sur lensemble de valeurs de X. Sans perte de generalite on peut supposer
que est croissante. Si et 1 (qui est bien definie dans ce cas) sont derivable, on a pour
Y = (X) et tout b > a :
P (a < Y b) = P (a < (X) b) = P ( 1 (a) < X 1 (b))
Z 1 (b)
1 (a)
Z b
fX (x)dx =
fX ( 1 (y))[ 1 (y)]0 dy
fX ( 1 (y))
| 0 ( 1 (y))|
pour tout y = (x) et 0 sinon. Nous avons ajoute la valeur absolue pour traiter les 2 cas possibles
de fonction croissante et decroissante.
28
CHAPITRE 5. CALCUL
5.2
tX
( P
etxk P (xk ) = si X est une v.a. discrete de fonction de probabilite P ,
) = R xk tx
e
f (x)dx
d tX
e
dt
= E(XetX ),
dn
(t) = n E(etX ) = E
dt
n
d
tX
dtn
= E(X n etX ), n 1,
1)
et (eet 1
pet + 1 p
(pet + 1 p)n
pet
1(1p)et
k
k!
exp (et 1)
x
Loi Exponentielle E()
e
1{x 0}
t , t <
Lois (continues)
Loi normale N (, )
1
2
exp
(x)2
2 2
exp t +
2 t2
2
La fonction
caracteristique (t) dune v.a. continue X est sa fonction generatrice au point it (ici
i = 1) :
Z
(t) = E(eitX ) =
eitx f (x)dx
eitx (t)dt.
Par exemple, la fonction caracteristique de la loi de Pareto P ar() est donnee par :
(t) = (it) (, it),
o`
u (, x) =
R s1 t
e dt est la fonction gamma incomplete.
x t
UTILES
5.3. QUELQUES INEGALIT
ES
5.3
29
Quelques in
egalit
es utiles
In
egalit
e de Markov : soit h une fonction croissante, telle que lesperance de h(X) existe,
alors pour tout a t.q. h(a) > 0,
E(h(X))
P (X a)
.
h(a)
Nous avons comme corollaire linegalite de Tchebychev : soit X est carre-integrable (c.-`
a-d. que
2
lesperance de X est finie), alors
P (|X| a)
E(X 2 )
,
a2
P (|X E(X)| a)
Var(X)
.
a2
In
egalit
e de Jensen : soit g une fonction convexe, X est une v.a telle que lesperance de X
existe, alors
g(E(X)) E(g(X)).
30
CHAPITRE 5. CALCUL
5.4
Exercices
Exercice 5.1
On suppose que la v.a. continue U suit une loi uniforme sur [0, 1].
1. Determiner la f.d.r de la v.a. V = aU + b, avec a > 0.
2. Soit X une v.a. continue et Y = X. Exprimer la f.d.r. de Y en fonction de celle de X.
3. Pouvez-vous donner la f.d.r. de V = aU + b pour un a reel ?
Exercice 5.2
fX (x) =
3
4 x(2
x), 0 x 2,
0, ailleurs.
1. Donner la f.d.r. de X.
1
f
y2 X
1
y
1
.
(1+x2 )
Quelle est
Exercice 5.6
Soit X une v.a. de la loi exponentielle E(1). On pose
1
X
W =
.
5.4. EXERCICES
31
Exercice 5.7
Soit X une v.a. avec la fonction de probabilite suivante :
x
f (x)
0
1
100 10000
1/4 1/4 1/4
1/4
1. Determinez la distribution de Y = X.
p
2. Qui est plus grand : E( X) ou E(X) ?
p
3. Calculez E( X) et E(X) pour verifier votre reponse (et pour voir quelle difference ca
fait).
Exercice 5.8
Soit U U (, 2). Qui est plus grand : E(sin(X)) ou sin(E(X)) ? Calculez les deux esperances
pour contr
oler votre reponse.
Exercice 5.9
Meilleur prediction. On cherche a` donner une prediction a dune v.a. X qui serait optimale dans
le sens de lecart quadratique moyen :
E((X a)2 ) E((X x)2 ) pour tout x R.
Comment choisiriez-vous a ?
Exercice 5.10
A partir du pole nord N , le point Q du cercle du diam`etre 1 est projete sur le point t de
la droite comme sur la figure
32
CHAPITRE 5. CALCUL
Exercice 5.12
Calculer la fonction generatrice de la variable aleatoire X B(p).
Calculer la fonction generatrice de la variable aleatoire X G(p).
Exercice 5.13
Soit X, une variable de fonction generatrice . On pose (t) = log((t)). Montrer que 00 (0) =
Var(X).
Exercice 5.14
Un individu jette une pi`ece de monnaie equilibree jusqu`a ce que pile apparaisse pour la premi`ere
fois. Si pile apparat au n-`eme jet, lindividu gagne 2n euros. Soit X, le gain du joueur. Montrer
que E(X) = +. Ce probl`eme porte le nom de paradoxe de St. Petersbourg.
Seriez-vous dispose `
a payer 1 000 000 deuros pour jouer une fois `a ce jeu ? 100 fois ?
Exercice 5.15
1. Un bureau de poste doit etre installe le long dune route de longueur A, A < . Si la
population est uniformement repartie sur [0, A], o`
u doit-on la poste de facon `a minimiser
lesperance de la distance entre le poste et le destinataire ? Autrement dit, on cherche `a
minimiser
E(|X a|)
o`
u X est uniformement distribuee sur [0, A].
2. Pour une distribution F , on dit que m est la mediane de cette distribution si
F (m)
1
1
et 1 F (m) .
2
2
Si la distribution est continue, la mediane est lunique valeur pour laquelle F (m) = 12 . Que
peut-on dire de la valeur de a qui minimise E(|X a|), lorsque X suit une distribution
notee F ?
Exercice 5.16
1. Un produit de saison rapporte un benefice net de b euros par unite vendue mais, inversement, chaque unite invendue `
a la fin de la saison engendre une perte de d euros. On
approxime la loi de la demande X dunites achetes aupr`es dun certain magasin par une
loi continue de probabilite de densite f `a valeurs non negatives. On admet que le magasin
doit avoir constitue tout son stock avant la saison. Quelle doit etre la taille de ce stock si
lon veut maximiser le resultat net moyen de loperation ?
Indication : si on designe par s la taille du stock et par rs (X) le revenu net de loperation.
cest-`a-dire le benefice, on a
(
rs (X) =
bX (s X)d, si X s
bs, si X > s.
Chapitre 6
Vecteurs al
eatoires : loi conjointe et
ind
ependance
6.1
6.1.1
Il est souvent necessaire de considerer des evenements relatifs `a deux ou meme `a plus de
deux variables. Pour traiter de tels probl`emes on definit une fonction F de repartition jointe.
D
efinition 6.1 Pour toute paire de v.a. X et Y , definie sur le meme espace devenements ,
on definie la fonction de repartition conjointe FX,Y (x, y) = F (x, y) par
F (x, y) = P (X x, Y y), < x, y < .
FX (x) = P (X x) = P (X x, Y < ) = P
=
lim {X x, Y y}
marginale
D
efinition 6.2 Les fonctions de repartition FX et FY sont dites fonction de repartition marginales.
La probabilite de tous les evenements relatifs `a X et Y peut etre calculee `a partir de F (x, y),
e.g. :
P (X > a, Y > b) = 1 P ({X > a, Y > b}) = 1 P ({X > a} {Y > b})
= 1 P ({X a} {Y b})
= 1 [P (X a) + P (Y b) P (X a, Y b)]
= 1 FX (a) FY (b) + F (a, b).
6.1.2
Dans le cas o`
u X et Y sont deux variables discr`etes, il est commode de definir la loi de
probabilite conjointe de X et Y :
P (x, y) = P (X = x, Y = y).
(6.1)
34
PX (x) = P (X = x) =
P (x, y).
y: P (x,y)>0
De facon similaire
X
PY (y) =
P (x, y).
(6.2)
x: P (x,y)>0
D
efinition 6.3 Soit X et Y deux v.a. discretes `
a valeurs {xi }, i = 1, ... et {yj }, j = 1, ...
Pour y {yj } on appelle la loi conditionnelle de X sachant Y = y la famille de nombres
P (X = xi |Y = y), i = 1, ...
Dapr`es la definition, si P (Y = y) > 0 on a
P (X = x|Y = y) =
P (X = x, Y = y)
P (Y = y)
P (X = xi |Y = y) =
X P (X = xi , Y = y)
P (Y = y)
X
1
P (X = xi , Y = y) = 1
P (Y = y) i
6.1.3
Densit
e conjointe
D
efinition 6.4 Les variables X et Y sont dites conjointement continues sil existe une fonction
f de deux arguments reels ayant pour tout sous-ensemble C du plan la propriete suivante :
P ((X, Y ) C) =
Z Z
f (x, y)dxdy
(6.3)
(x,y)C
Z Z
f (x, y)dxdy.
B
Comme
F (x, y) = P (X x, Y y) =
Z b Z a
f (x, y)dxdy.
2 F (x, y)
.
xy
fX (x) =
f (x, y)dx
(6.4)
35
Soit (X, Y ) un couple de v.a. possedant la densite jointe fX,Y (x, y), on note fX (x) et fY (y)
les densites marginales respectives de X et de Y . Pour definir la densite conditionnelle de X
sachant Y = y on ecrira :
P (X [x, x + dx]|Y [y, y + dy]) =
=
=
la fonction
est une
D
efinition 6.5 Pour y R , on appelle densite conditionnelle de X sachant Y = y la densite
fX|Y (x|y) donnee par la formule
( f (x,y)
X,Y
fY (y)
fX|Y (x|y) =
6.2
fX (x)
si fY (y) > 0,
sinon.
D
efinition 6.6 La fonction de repartition conjointe F du vecteur aleatoire X n = (X1 , ..., Xn )
(on suppose les v.a. X1 , ..., Xn definies sur le meme espace devenements) est donnee par
F (x1 , ..., xn ) = P (X1 x1 , X2 x2 , ..., Xn xn ).
Dans le cas des v.a. X1 , ..., Xn discr`etes, la loi conjointe peut etre aussi caracterisee par la
probabilite conjointe (cf. (6.1)) :
P (x1 , ..., xn ) = P (X1 = x1 , ..., Xn = xn ).
Par ailleurs, les n v.a. seront dites conjointement continues sil existe une fonction f de n
arguments, appellee densite conjointe de X1 , ..., Xn telle que pour tout C Rn (cf (6.4)) :
P ((X1 , ..., Xn ) C) =
...
On definie de facon transparente les notions de loi marginale et conditionnelle dans ce cas.
6.3
6.3.1
Variables al
eatoires ind
ependantes
Definitions, crit`
eres dind
ependance
D
efinition 6.7 Deux variables aleatoires X et Y sont dites independantes si, pour tout choix
dune paire densembles A et B de reels, on a
P (X A, Y B) = P (X A)P (Y B).
(6.5)
On notera XY .
En dautres termes, X et Y sont independantes si, quels que soient A et B, les evenements
{X A} et {Y B} sont independants.
36
On peut montrer que (6.5) est vraie si et seulement si pour tout couple (x, y) de reels
P (X x, Y y) = P (X x)P (Y y),
ce qui revient a ecrire que X et Y sont independantes si
F (x, y) = FX (x)FY (y).
Lorsque X et Y sont discr`etes, la condition (6.5) est equivalente `a
P (x, y) = PX (x)PY (y)
pour tous x et y. Lorsque X et Y sont des variables conjointement continues, le crit`ere dindependance
sera
f (x, y) = fX (x)fY (y) pour tout x et tout y.
Intuitivement parlant. on pourra donc dire que X et Y sont independantes si le fait de connatre
la valeur de lune ninflue pas sur la distribution de lautre.
On verifie immediatement que 2 v.a. discr`etes sont independantes ssi la loi conditionnelle de
X sachant Y = y ne depend pas de y. En effet, la necessite etant evidente, supposons que pour
tous x, y admissible P (X = x|Y = y) = (x). Si on fixe x, en multipliant par P (Y = y) et en
faisant la somme sur y on obtient P (X = x) = (x), ainsi
P (X = x, Y = y) = P (X = x|Y = y)P (Y = y) = (x)P (Y = y) = P (X = x)P (Y = y).
La meme condition reste valable pour les v.a. continues (on conduit la preuve de la meme
facon en remplacant les sommes par les integrales).
Des variables qui ne sont pas independantes sont dites dependantes.
6.3.2
PZ (k) = P (X + Y = k) =
PX (j)PY (k j);
j=
fZ (z) =
6.3.3
fX (x)fY (z x)dx.
(6.6)
Propagation dind
ependance
6.4. EXERCICES
6.4
37
Exercices
Exercice 6.1
Les probabilites P (X = a, Y = b) de v.a. discr`etes X et Y sont donnees dans le tableau suivant :
On sait en plus que pour tout x, y = 1, ..., 5 la probabilite P (X = x, Y = y) est soit 1/14 ou
0. Determiner la loi jointe de X et Y .
Exercice 6.4
38
On jette deux des equilibres. Trouver la loi de probabilite conjointe de X et Y dans les cas
suivants :
1. X est la plus grande des deux valeurs obtenues et Y en est la somme ;
2. X est la valeur obtenue avec le premier de et Y est la plus grande des deux valeurs ;
3. X et Y sont respectivement la plus petite et la plus grande des deux valeurs obtenues.
Exercice 6.5
Soit X et Y deux v.a. independantes de loi de Bernoulli B( 21 ). Soit U = X + Y et V = |X Y |.
1. Donner la loi jointe et les lois marginales de U et V , la loi de U sachant V = 0 et V = 1.
2. U et V sont-ils independants ?
Exercice 6.6
Le proprietaire dun magasin de televisions evalue que 25% des clients entrant dans son magasin
ach`etent un appareil de television LCD, 15% ach`etent un appareil plasma et 60% dentre eux
font juste du l`eche-vitrine. Si cinq clients entrent dans son magasin un jour donne, quelle est la
probabilite quil vende exactement 2 appareils LCD et 1 poste plasma ce jour-l`a ?
Exercice 6.7
Le nombre de personnes qui entrent dans un magasin durant une heure donnee est une variable
aleatoire de Poisson de param`etre = 10. Determiner la probabilite conditionnelle quau plus
3 hommes entrent dans ce magasin, etant donne que 10 femmes y sont entrees durant cette
heure-l`a. Quelles hypoth`eses faites-vous ?
Exercice 6.8
Si X est une variable discrete distribuee suivant la loi de Poisson de param`etre , calculer
P (X = 1|X 1).
Dans une ville de 200000 personnes, un voleur a laisse une empreinte digitale de type . La
police arrete un suspect dont les empreintes digitales sont de type . Sachant que la probabilite
pour quune personne ait des empreintes de ce type est 5.106 , est-il raisonnable de condamner
le suspect sur la foi de ce seul indice ?
Exercice 6.9
Supposons quun point soit uniformement choisi dans un carre de surface unite, ayant les sommets (0, 0), (0, 1), (1, 0) et (1, 1). Soit X et Y les coordonnees du point choisi.
1. Trouver les distributions marginales de X et de Y ;
2. X et Y sont-ils des variables independantes ?
3. Quen est-il si densite de X et Y est donnee par :
(
f (x, y) =
2 si 0 x y, 0 y 1,
0 sinon.
Exercice 6.10
Soit la distribution jointe de X et Y donnee par
(
F (x, y) =
6.4. EXERCICES
39
1
2
Exercice 6.12
La fonction de densite de X et Y est donnee par :
f (x, y) = e(x+y) , 0 x < , 0 y <
Trouver :
1. P (X < Y ) ;
2. P (X < a).
Exercice 6.13
Deux points sont choisis sur un segment de longueur L, de mani`ere `a ce quils soient de part
et dautre du milieu du segment. En dautres termes, les deux points X et Y sont des variables
aleatoires independantes telles que X soit uniformement distribue sur [0, L/2[ et Y soit uniformement distribue sur [L/2, L]. Trouver la probabilite que la distance entre les deux points
soit plus grande que L/3.
Exercice 6.14
Soit U1 et U2 deux v.a. independantes, toutes deux distribuees uniformement sur [0, a]. Soit
V = min{U1 , U2 } et Z = max{U1 , U2 }. Montrer que la f.d.r. conjointe F de V et Z est donnee
par
t2 (t s)2
pour 0 s t a.
F (s, t) = P (V s, Z t) =
a2
Indication : notez que V s et Z t arrive exactement quand U1 t et U2 t toutes les deux,
mais pas quand s < U1 t et s < U2 t toutes les deux.
Exercice 6.15
Si X1 et X2 sont des variables aleatoires exponentielles independantes avec param`etres respectifs
l et 2 , trouver la distribution de Z = X1 /X2 . Calculer aussi P (X1 < X2 ).
40
Chapitre 7
Covariance et corr
elation
7.1
Esp
erance de fonction de plusieurs variables
XX
y
dans le cas o`
u X et Y sont discr`etes de fonction de probabilite conjointe P (, ), et
Z Z
E(g(X, Y )) =
dans celui o`
u X et Y sont continues de densite conjointe f (, ). En appliquant ce resultat au
cas quand g est une somme de variables nous obtenons :
E(X + Y ) = E(X) + E(Y ).
Plus generalement, si E(Xi ) sont finies pour tout i = 1, ..., n,
E(X1 + ... + Xn ) = E(X1 ) + ... + E(Xn ).
Dans le cas quand a) soit Xi 0 pour tout i 1, ou b)
E
n
X
Xi
i=1
i=1 E(|Xi |)
E(Xi ).
i=1
7.2
7.2.1
Soit X, Y deux v.a. independantes. Nous avons dans le cas des v.a. conjointement continues :
Z Z
E(g(X)h(Y )) =
CHAPITRE 7. COVARIANCE ET CORRELATION
42
Z Z
=
Z
g(x)fX (x)dx
h(y)fY (y)dy
= E(g(X))E(h(Y ))
et le developpement est similaire dans le cas discret.
D
efinition 7.1 La covariance de deux variables aleatoires quelconques X et Y est notee Cov(X.Y )
el est definie par lexpression :
Cov(X, Y ) = E ((X E(X)) (Y E(Y ))) .
Cov
n
X
Xi ,
m
X
Yi =
Cov(Xi , Yj ).
i=1 j=1
j=1
i=1
m
n X
X
7.2.2
Variance de sommes
Nous avons
n
X
Xi
i=1
n
X
Var(Xi ) + 2
i=1
n X
n
X
Cov(X, Y ),
i=1 j>i
n
X
i=1
Xi
n
X
i=1
Var(Xi ).
7.3. CORRELATION
7.3
43
Corr
elation
D
efinition 7.2 La correlation entre deux variables aleatoires X et Y est note (X, Y ) et est
definie ainsi, pour autant que Var(X), Var(Y ) soit non nul :
(X, Y ) p
Cov(X, Y )
Cov(X, Y )
=
.
X Y
Var(X)Var(Y )
7.4
Esp
erance conditionnelle
xi
Proposition 7.1 On suppose que E(f (X, Y )) existe. Alors pour toute fonction reelle telle
que E(f (X, Y )(Y )) existe on a
E(E(f (X, Y )|Y )(Y )) = E(f (X, Y )(Y )).
En particulier, E(E(f (X, Y )|Y )) = E(f (X, Y )) (pour (y) 1).
CHAPITRE 7. COVARIANCE ET CORRELATION
44
(yi )g(yi )P (Y = yi )
yi
"
X X
yi
f (xi , yi )P (X = xi |Y = yi ) P (Y = yi )
xi
xi ,yi
ai bi ]2
P 2P 2
a
b )
i
f (xi , y)P (X = xi |Y = y)
xi
!2
[f (x, y)P
1/2
(X = xi |Y = y)]P
1/2
(X = xi |Y = y)
xi
"
X
f 2 (x, y)P (X = xi |Y = y)
xi
xi
Ainsi E(f (X, Y )|Y )2 E(f 2 (X, Y )|Y ). Comme, par la proposition ci-dessus, E(E(f 2 (X, Y )|Y )) =
E(f 2 (X, Y )), on deduit que (cf la propriete de croissance de lesperance)
E(f (X, Y )|Y )2 ) E(f 2 (X, Y )).
On conclut en soustrayant (E(E(f (X, Y )|Y )))2 = (E(f (X, Y )))2 `a cette inegalite.
La propriete la plus importante de lesperance conditionnelle est resumee dans la proposition
suivante :
Proposition 7.2 (Propri
et
e de meilleure prediction) Supposons que E(f 2 (X, Y )) existe
et que g(Y ) = E(f (X, Y )|Y ). Alors
E([f (X, Y ) g(Y )]2 ) = E([f (X|Y ) E(f (X, Y )|Y )]2 ) E([f (X, Y ) h(Y )]2 ),
pour toute fonction (mesurable) h sur R.
Autrement dit, g(Y ) = E(f (X, Y )|Y ) est la meilleure prediction de f (X, Y ) sachant Y . Pour
f (x, y) = x nous avons un cas particulier (cf exercice 5.9) :
E([X E(X|Y )]2 ) E([X h(Y )]2 ),
pour toute fonction h, et la v.a. E(X|Y ) st la meilleure prediction de X sachant Y .
Par ailleurs, nous avons la decomposition
Var(X) = E([X E(X)]2 ) = E([X E(X|Y ) + E(X|Y ) +
E(X)
| {z }
=E(E(X|Y ))
2
]2 )
7.5
45
Fonctions generatrices
On se rappelle (cf le paragraphe 5.2) que la fonction generatrice X dune v.a. X est definie
par
X (t) = E(etX ).
Un outil tr`es efficace est celui de fonction generatrice (cf le paragraphe 5.2) :
D
efinition 7.5 Fonction generatrice dun vecteur aleatoire X = (X1 , ..., Xn ) (ou fonction
generatrice conjointe X est definie pour t = (t1 , ..., tn ) par
TX
X (t) = E(et
),
o`
u tT X = ni=1 ti Xi . Les fonctions generatrices individuelles peuvent etre calculees facilement :
Xi (t) = E(etXi ) = X (t0 ), ou t0 = (0, ...0, t, 0, ..., 0) (avec t en i-`eme position).
P
Pn
i=1 ti Xi .
Comme dans le case dune fonction generatrice, les fonctions caracteristiques individuelles sont
donnees par : Xi (t) = E(eitXi ) = X (it0 ), ou t0 = (0, ...0, t, 0, ..., 0) (avec t en i-`eme position).
Il est claire que la fonction caracteristique X poss`ede les meme proprietes que la fonction
generatrice X de X, avec un avantage considerable elle est definie pour tout t Rn .
Si lintegration dans (6.6) peut etre difficile, le calcul de la fonction generatrice (ou la fonction
caracteristique) de la somme X + Y est tr`es simple : pour XY ,
X+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX )E(etY ) = X (t)Y (t).
De meme,
X+Y (t) = E(eit(X+Y ) ) = E(eitX )E(eitY ) = X (t)Y (t).
7.6
Exercices
Exercice 7.1
Soit X et Y deux v.a. et r, s, t et u des valeurs reelles. Montrer `a partir de la definition de la
covariance que
1. Cov(X + s, Y + u) = Cov(X, Y ),
2. Cov(rX, tY ) = rtCov(X, Y ),
3. Cov(rX + s, rY + u) = rtCov(X, Y ),
Exercice 7.2
CHAPITRE 7. COVARIANCE ET CORRELATION
46
P
n
i=1 Xi ,
Pn
j=1 Yj =
Pn
i=1
Pn
j=1 Cov(Xi , Yj ).
Exercice 7.6
Montrer que si Var(Xi ) = 2 et Cov(Xi , Xj ) = pour tous 1 i, j n, alors
Var(X1 + ... + Xn ) = n 2 + n(n 1).
Exercice 7.7
7.6. EXERCICES
47
= et Var(X)
= ,
1. E(X)
n
Pn
2
(Xi X) = (n 1) 2 .
2. E
i=1
Exercice 7.9
Soit X le nombre de 1 et Y le nombre de 2 apparaissant lors de n jets dun de equilibre. Calculer
Cov(X, Y ).
Avant de faire le calcul, sauriez-vous dire si Cov(X, Y ) ou Cov(X, Y ) .
Indication Utiliser pour cela la relation 2) de lexercice 7.5.
Exercice 7.10
Un de est jete 2 fois. Soit X la somme des resultats et soit Y la difference entre le premier et le
second resultat. Calculer Cov(X, Y ).
Exercice 7.11
Les variables aleatoires X et Y ont une densite conjointe donnee par
(
f (x, y) =
2x
2 e x , si 0 x < , 0 y x,
0 sinon
Ca1culer Cov(X, Y ).
Exercice 7.12
Un groupe de 20 personnes. compose de 10 hommes et de 10 femmes est reparti aleatoirement
en 10 couples. Calculer lesperance et la variance du nombre de couples mixtes. Supposons
maintenant que ce groupe de 20 personnes soit en fait compose de 10 couples maries. Calculer
lesperance et la variance du nombre de couples maries qui seront reunis par le hasard.
Exercice 7.13
Soit X et Y deux variables aleatoires exponentielles de param`etre independantes et S = X +Y .
Determiner la loi conditionnelle de X sachant S = s et en deduire E(X|S).
Exercice 7.14
Soit X et Y deux variables aleatoires independantes distribuees respectivement suivant les lois
de Poisson de param`etre > 0 et de param`etre > 0. On note S = X + Y .
1. Determiner la loi de S.
2. Pour tout s N determiner la loi conditionnelle de X sachant S = s.
3. Donner E(X|S).
CHAPITRE 7. COVARIANCE ET CORRELATION
48
Exercice 7.15
Chapitre 8
Convergence et th
eor`
emes limites
Les theor`emes limites constituent les resultats theoriques les plus importants des probabilites.
Parmi eux, les principaux sont repertories sous deux denominations : loi des grands nombres
dune part, et theor`emes centraux limites dautre part. On saccorde generalement `a les considerer
comme des lois des grands nombres sils enoncent des conditions sous lesquelles la moyenne dune
suite de variables aleatoires converge (dans un sens `a definir) vers leur esperance commune. Les
theor`emes centraux limites par contre determinent sous quelles hypotheses la somme dun grand
nombre de variables aleatoires est de distribution approximativement normale.
8.1
8.1.1
Convergence en probabilit
e, loi de grands nombres
Enonc
e de la loi faible des grands nombres
Th
eor`
eme 8.1 (Loi faible des grands nombres) Soient X1 , X2 ... une suite de v.a. independantes
et equidistribuees. On suppose que X1 (et donc toutes les Xi )admet lesperance E(X1 ) = .
Alors pour tout > 0
P
!
n
1 X
Xi > 0 lorsque n .
n
i=1
8.1.2
Convergence en probabilit
e
D
efinition 8.1 On dit que la suite de v.a. Xn , n = 1, 2, ... converge vers la v.a. Y en probabilite
P
et on le note Xn Y si pour tout > 0
P (|Xn Y | > ) 0 lorsque n .
`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES
50
Si Xn converge vers Y en probabilite, alors pour toute grande valeur de n, disons n , Xn est
probablement tr`es voisine de Y . Attention, elle nassure pas cependant que Xn devra rester dans
un voisinage etroit de Y pour toutes les valeurs de n superieures `a n . Il est donc possible que
des larges ecarts entre Xn et Y peuvent se produire pour une infinite valeurs de n > n (infinite
dont la probabilite collective est tr`es faible cependant).
Exemple 8.1 Soit Xn = xn , n = 1, 2, ... une suite
P
Xn converge, disons vers x, alors Xn x.
En effet, la convergence (deterministe) de Xn vers x implique que pour tout > 0 il existe
n < tel que pour tout n n |Xn x| , et, evidemment, P (|Xn x| > ) = 0 pour tout
n n .
Exemple 8.2 Soit Xn N (0, n1 ). Nous avons
8.1.3
La loi forte des grands nombres est sans doute le resultat le plus cel`ebre en theorie des probabilites.
Th
eor`
eme 8.2 (Loi forte des grands nombres) Soient X1 , X2 , ... une suite de v.a. independantes
de meme loi, desperance commune finie. Alors, avec probabilite 1
n
1X
Xi quand n ,
n i=1
en dautres termes
P
n = = 1.
lim X
8.2
Th
eor`
eme central limite
Le theor`eme central limite est lun des plus remarquables resultats de la theorie des probabilites. En gros, il etablit que la somme dun grand nombre de variables aleatoires independantes
suit une distribution approximativement normale. Il fournit donc non seulement une methode
simple pour le calcul approximatif de probabilites liees `a des sommes de variables aleatoires,
mais il explique egalement ce fait empirique remarquable que bien des phenom`enes naturels
admettent une distribution en cloche , cest-`a-dire de type normal.
`
8.2. THEOR
EME
CENTRAL LIMITE
8.2.1
51
Th
eor`
eme central limite pour des v.a. ind
ependantes
La cle de la demonstration du theor`eme central limite est le resultat suivant danalyse, donne
sans demonstration.
Th
eor`
eme 8.3 Soient F1 , F2 , ... une suite de fonctions de repartition dont les fonctions generatrices
sont notees n , n 1. Soit F une fonction de repartition avec la fonction generatrice correspondante . Si n (t) (t) pour tour t, alors Fn (x) F (x) pour toutes les valeurs de x pour
lesquelles F est continue.
2
Dans le cas particulier dune f.d.r. F normale standardisee, on sait que (t) = et /2 . Du theor`eme
2
8.3, il resulte que si n (t) et /2 lorsque n , alors Fn (x) (x) lorsque n .
Nous allons maintenant donner la version la plus simple du theor`eme central limite.
Th
eor`
eme 8.4 (Th
eor`
eme central limite) Soient X1 , X2 , ... une Suite de v.a. i.i.d, desperance
2
, de variance . Alors la distribution de
n
(Xi )
1 X
Zn =
n i=1
2 /2
et
dt quand n .
Pn
i=1
Xi
Zn (t) =
= (t/ n),
sera
n
Y
n
i = (t/ n) .
i=1
0 (0)
`0 (0) =
= = 0,
(0)
1
00
(0)(0) [0 (0)]2
`00 (0) =
= E(X 2 ) [E(X)]2 = Var(X) = 1,
[(0)]2
000 (0)[(0)]2 300 (0)0 (0)(0) + 2[0 (0)]3
`000 (0) =
[(0)]3
= E(X 3 ) 3E(X 2 )E(X) + 2E(X)3 = E(X 3 ).
`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES
52
Notez que grace au theor`eme 8.3 pour demontrer le theor`eme, il nous faut etablir que [(t/ n)]n
2
et /2 , ou, ce qui est equivalent, que n`(t/ n) t2 /2 lorsque n . Pour cela on utilisera le
developpement de Taylor `
a lordre 2 de :
`(t) = `(0) + `0 (0)t + `00 (0)
t2
t2
+ O(t3 ) =
+ O(t3 ),
2
2
t2
lim n`(t/ n) = lim n
+O
n
n
2n
"
lim
t2
+O
2
t3
n3/2
t3
!#
!#
t2
.
2
8.2.2
Versions plus g
en
erales du th
eor`
eme central limite
2
i=1 i
= ,
Alors la distribution de
Pn
(Xi i )
qP
Zn = i=1
n
2
i=1 i
8.2.3
Convergence en loi
Da le cas ci-dessus on dit que la suite de v.a. Zn converge vers Z N (0, 1) en loi, ou en
D
distribution, ou encore que Zn converge vers Z faiblement, et on note Zn Z.
P
On verifie aisement que si Xn X (suite de Xn converge vers X en probabilite) alors
D
Xn X (Xn converge vers X en loi) aussi. Le reciproque nest pas toujours vrai. Par contre,
si Xn converge en loi vers une valeur reelle a, nous avons FXn (t) 1{t a} (notez que la
fonction de repartition dune v.a. qui est egale `a a avec probabilite 1 est exactement 1{t a})
et, evidemment, P (Xn < a ) 0 et P (Xn > a + ) 0 quand n , et on conclut que
P
Xn a.
`
8.2. THEOR
EME
CENTRAL LIMITE
53
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
0.00
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.9641
0.9713
0.9772
0.9821
0.9861
0.9893
0.9918
0.9938
0.9953
0.9965
0.9974
0.9981
0.01
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9049
0.9207
0.9345
0.9463
0.9564
0.9649
0.9719
0.9778
0.9826
0.9864
0.9896
0.9920
0.9940
0.9955
0.9966
0.9975
0.9982
0.02
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.9656
0.9726
0.9783
0.9830
0.9868
0.9898
0.9922
0.9941
0.9956
0.9967
0.9976
0.9982
3.0
0.99865
3.5
0.999767
4.0
0.999968
4.5
0.999997
0.03
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0.9788
0.9834
0.9871
0.9901
0.9925
0.9943
0.9957
0.9968
0.9977
0.9983
0.04
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0.9591
0.9671
0.9738
0.9793
0.9838
0.9875
0.9904
0.9927
0.9945
0.9959
0.9969
0.9977
0.9984
0.05
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
0.8289
0.8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0.9599
0.9678
0.9744
0.9798
0.9842
0.9878
0.9906
0.9929
0.9946
0.9960
0.9970
0.9978
0.9984
0.06
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
0.8315
0.8554
0.8770
0.8962
0.9131
0.9279
0.9406
0.9515
0.9608
0.9686
0.9750
0.9803
0.9846
0.9881
0.9909
0.9931
0.9948
0.9961
0.9971
0.9979
0.9985
0.07
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.9693
0.9756
0.9808
0.9850
0.9884
0.9911
0.9932
0.9949
0.9962
0.9972
0.9979
0.9985
:
3.1
0.999032
3.6
0.999841
4.1
0.999979
4.6
0.999998
3.2
0.999313
3.7
0.999892
4.2
0.999987
4.7
0.999999
3.3
0.999517
3.8
0.999928
4.3
0.999991
4.8
0.999999
3.4
0.999663
3.9
0.999952
4.4
0.999995
4.9
1
0.08
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9429
0.9535
0.9625
0.9699
0.9761
0.9812
0.9854
0.9887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986
0.09
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
0.9706
0.9767
0.9817
0.9857
0.9890
0.9916
0.9936
0.9952
0.9964
0.9974
0.9981
0.9986
`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES
54
de la fonction quantile
00000000000
11111111111
11111111111
00000000000
00000000000
11111111111
10
00000000000
11111111111
10
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
F (1)
0.000
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.10
0.11
0.12
0.13
0.14
0.15
0.16
0.17
0.18
0.19
0.20
0.21
0.22
0.23
0.24
0.25
0.26
0.27
0.28
0.29
0.30
0.31
0.32
0.33
0.34
0.35
0.36
0.37
0.38
0.39
0.40
0.41
0.42
0.43
0.44
0.45
0.46
0.47
0.48
0.49
2.3263
2.0537
1.8808
1.7507
1.6449
1.5548
1.4758
1.4051
1.3408
1.2816
1.2265
1.1750
1.1264
1.0803
1.0364
0.9945
0.9542
0.9154
0.8779
0.8416
0.8064
0.7722
0.7388
0.7063
0.6745
0.6433
0.6128
0.5828
0.5534
0.5244
0.4959
0.4677
0.4399
0.4125
0.3853
0.3585
0.3319
0.3055
0.2793
0.2533
0.2275
0.2019
0.1764
0.1510
0.1257
0.1004
0.0753
0.0502
0.0251
0.001
3.0902
2.2904
2.0335
1.8663
1.7392
1.6352
1.5464
1.4684
1.3984
1.3346
1.2759
1.2212
1.1700
1.1217
1.0758
1.0322
0.9904
0.9502
0.9116
0.8742
0.8381
0.8030
0.7688
0.7356
0.7031
0.6713
0.6403
0.6098
0.5799
0.5505
0.5215
0.4930
0.4649
0.4372
0.4097
0.3826
0.3558
0.3292
0.3029
0.2767
0.2508
0.2250
0.1993
0.1738
0.1484
0.1231
0.0979
0.0728
0.0476
0.0226
0.002
2.8782
2.2571
2.0141
1.8522
1.7279
1.6258
1.5382
1.4611
1.3917
1.3285
1.2702
1.2160
1.1650
1.1170
1.0714
1.0279
0.9863
0.9463
0.9078
0.8705
0.8345
0.7995
0.7655
0.7323
0.6999
0.6682
0.6372
0.6068
0.5769
0.5476
0.5187
0.4902
0.4621
0.4344
0.4070
0.3799
0.3531
0.3266
0.3002
0.2741
0.2482
0.2224
0.1968
0.1713
0.1459
0.1206
0.0954
0.0702
0.0451
0.0201
0.003
2.7478
2.2262
1.9954
1.8384
1.7169
1.6164
1.5301
1.4538
1.3852
1.3225
1.2646
1.2107
1.1601
1.1123
1.0669
1.0237
0.9822
0.9424
0.9040
0.8669
0.8310
0.7961
0.7621
0.7290
0.6967
0.6651
0.6341
0.6038
0.5740
0.5446
0.5158
0.4874
0.4593
0.4316
0.4043
0.3772
0.3505
0.3239
0.2976
0.2715
0.2456
0.2198
0.1942
0.1687
0.1434
0.1181
0.0929
0.0677
0.0426
0.0175
0.004
2.6521
2.1973
1.9774
1.8250
1.7060
1.6072
1.5220
1.4466
1.3787
1.3165
1.2591
1.2055
1.1552
1.1077
1.0625
1.0194
0.9782
0.9385
0.9002
0.8633
0.8274
0.7926
0.7588
0.7257
0.6935
0.6620
0.6311
0.6008
0.5710
0.5417
0.5129
0.4845
0.4565
0.4289
0.4016
0.3745
0.3478
0.3213
0.2950
0.2689
0.2430
0.2173
0.1917
0.1662
0.1408
0.1156
0.0904
0.0652
0.0401
0.0150
0.005
2.5758
2.1701
1.9600
1.8119
1.6954
1.5982
1.5141
1.4395
1.3722
1.3106
1.2536
1.2004
1.1503
1.1031
1.0581
1.0152
0.9741
0.9346
0.8965
0.8596
0.8239
0.7892
0.7554
0.7225
0.6903
0.6588
0.6280
0.5978
0.5681
0.5388
0.5101
0.4817
0.4538
0.4261
0.3989
0.3719
0.3451
0.3186
0.2924
0.2663
0.2404
0.2147
0.1891
0.1637
0.1383
0.1130
0.0878
0.0627
0.0376
0.0125
0.006
2.5121
2.1444
1.9431
1.7991
1.6849
1.5893
1.5063
1.4325
1.3658
1.3047
1.2481
1.1952
1.1455
1.0985
1.0537
1.0110
0.9701
0.9307
0.8927
0.8560
0.8204
0.7858
0.7521
0.7192
0.6871
0.6557
0.6250
0.5948
0.5651
0.5359
0.5072
0.4789
0.4510
0.4234
0.3961
0.3692
0.3425
0.3160
0.2898
0.2637
0.2378
0.2121
0.1866
0.1611
0.1358
0.1105
0.0853
0.0602
0.0351
0.0100
0.007
2.4573
2.1201
1.9268
1.7866
1.6747
1.5805
1.4985
1.4255
1.3595
1.2988
1.2426
1.1901
1.1407
1.0939
1.0494
1.0069
0.9661
0.9269
0.8890
0.8524
0.8169
0.7824
0.7488
0.7160
0.6840
0.6526
0.6219
0.5918
0.5622
0.5330
0.5044
0.4761
0.4482
0.4207
0.3934
0.3665
0.3398
0.3134
0.2871
0.2611
0.2353
0.2096
0.1840
0.1586
0.1332
0.1080
0.0828
0.0577
0.0326
0.0075
0.008
2.4089
2.0969
1.9110
1.7744
1.6646
1.5718
1.4909
1.4187
1.3532
1.2930
1.2372
1.1850
1.1359
1.0893
1.0450
1.0027
0.9621
0.9230
0.8853
0.8488
0.8134
0.7790
0.7454
0.7128
0.6808
0.6495
0.6189
0.5888
0.5592
0.5302
0.5015
0.4733
0.4454
0.4179
0.3907
0.3638
0.3372
0.3107
0.2845
0.2585
0.2327
0.2070
0.1815
0.1560
0.1307
0.1055
0.0803
0.0552
0.0301
0.0050
0.009
2.3656
2.0749
1.8957
1.7624
1.6546
1.5632
1.4833
1.4118
1.3469
1.2873
1.2319
1.1800
1.1311
1.0848
1.0407
0.9986
0.9581
0.9192
0.8816
0.8452
0.8099
0.7756
0.7421
0.7095
0.6776
0.6464
0.6158
0.5858
0.5563
0.5273
0.4987
0.4705
0.4427
0.4152
0.3880
0.3611
0.3345
0.3081
0.2819
0.2559
0.2301
0.2045
0.1789
0.1535
0.1282
0.1030
0.0778
0.0527
0.0276
0.0025
8.3. EXERCICES
8.3
55
Exercices
Exercice 8.1
Un restaurant servant des repas uniquement sur reservation, dispose de 50 places. La probabilite
quune personne ayant reserve ne vienne pas est 1/5. On note N le nombre de repas servis un
jour donne. On utilisera lapproximation normale pour N .
1. Si le patron accepte 50 reservations, quelle est la probabilite quil serve plus de 45 repas ?
2. Sil accepte 55 reservations, quelle est la probabilite quil se retrouve dans une situation
embarrassante ?
Exercice 8.2
On evalue `a 0.4 la probabilite quune personne en age detre vaccinee contre la grippe demande
effectivement `
a letre. Sur une population de 150000 personnes en age detre vaccinees, soit N
le nombre de personnes qui demanderont `a letre.
1. Quel mod`ele proposez-vous pour N ?
2. Si on prepare 60500 vaccins, quelle est la probabilite quil ny en ait pas suffisamment
3. Calculer le nombre m de vaccins quil faudrait prevoir pour que la probabilite den manquer
soit egale `
a 0.1.
Exercice 8.3
Soient Xi , i = l, ..., 10 des variables aleatoires
ependantes
uniformes sur lintervalle (0, 1).
Pind
10
n
X
Xi , n 1,
i=1
o`
u X1 , X2 , ... sont des variables aleatoires independantes identiquement distribuees desperance
0 et de variance 2
Supposons que le prix de laction soit aujourdhui de 100. Si 2 = 1, que peut-on dire de la
probabilite que le prix de laction soit compris entre 80 et 120 dans cent jours ?
`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES
56
Exercice 8.6
Supposons quun de non pipe soit jete 100 fois. Soit Xi la valeur obtenue au i-`eme jet. Calculer
une approximation pour :
!
100
Y
Xi k 100 , 1 k 6.
i=1
Exercice 8.7
On suppose quil y a une probabilite egale `a 0.1 detre controle lorsquon prend le tramway. Mr
A. fait 700 voyages par an. On utilisera lapproximation normale pour le nombre de controles.
1. Quelle est la probabilite que Mr A. soit controle entre 60 et 80 fois dans lannee ?
2. Mr A. est en fait un fraudeur et voyage toujours sans ticket. Sachant que le prix dun
ticket est de 1 euro, quelle amende minimale la regie de transports devrait elle fixer pour
que le fraudeur ait, sur une periode dune annee, une probabilite superieure `a 0.75 detre
perdant ?
Exercice 8.8
Soit X1 , X2 , ... une suite de variables aleatoires independantes. Supposer que E(Xi ) = 0, que
Var(Xi ) = i2 et que
n
1 X
lim 2
i2 = 0.
n n
i=1
1. Prouver que, pour tout > 0,
P
!
n
1 X
Xi > 0 quand n .
n
i=1
2. Utiliser cc resultat pour prouver que si Yi , i = 1, 2, ... sont des variables aleatoires independantes
de Bernoulli, alors pour tout > 0,
P
!
n
1 X
Xi p(n) > 0 quand n .
n
i=1
P
o`
u E(Yi ) = pi et p(n) = n1 ni=1 pi .
Exercice 8.9
Une pi`ece de monnaie equilibree est jetee 1000 fois. Si les 100 premiers jets donnent tous des
piles. quelle proportion de piles peut-on sattendre `a obtenir lors des 900 derniers jets ? Faites
un commentaire sur lenonce la loi forte des grands nombres noie une anomalie dans la masse
mais ne la compense pas .
Exercice 8.10
Soit X1 , X2 , ... v.a. i.i.d. de fonction de repartition F sur R. Pour x R on consid`ere les v.a.
Yi = 1{Xi x}, i = 1, 2, ... et
n
n
1X
1X
Fn (x) =
Yi =
1{Xi x}
n i=1
n i=1
8.3. EXERCICES
1. Les v.a. Yi , i 1, sont-elle independantes ? de meme loi ? Determiner la loi de Y1 . Quelle
est lesperance et la variance de cette loi ?
2. Quelle est la loi des v.a. nFn (x) ?
P
3. Utiliser la loi faible de grands nombres pour montrer que Fn (x) F (x) lorsque n .
4. Utiliser le theor`eme central limite pour prouver que la suite n(Fn (x) F (x)) converge
en loi vers une v.a. normale, determiner la moyenne et la variance de la loi limite.
57
58
`
CHAPITRE 8. CONVERGENCE ET THEOR
EMES
LIMITES
Chapitre 9
Vecteurs al
eatoires (rappel)
t = (t1 , ..., tp )T Rp .
Si F (t) est derivable par rapport a t, la densite de X (la densite jointe de 1 , ..., p ) existe et est
egale `a la derivee mixte
p F (t)
f (t) = f (t1 , ..., tp ) =
.
t1 , ..., tp
Dans ce cas
Z tp
Z t1
...
F (t) =
9.1.1
Propri
et
es de densit
e dune distribution multivari
ee
f (t1 , ..., tk ) =
...
fY (A1 (u b))
.
| Det(A)|
(9.1)
Ind
ependance. Supposons que deux vecteurs aleatoires X1 et X2 ont une densite conjointe
f (x1 , x2 ). Ils sont independants ssi
f (x1 , x2 ) = f1 (x1 )f2 (x2 ),
o`
u f1 et f2 sont des densites de probabilite. Comme dans le cas de deux variables aleatoires,
lindependance est preservee par des transformations mesurables des vecteurs X1 et X2 .
1. Par convention, le vecteur X Rp1 est un vecteur colonne.
59
CHAPITRE 9. LOI NORMALE MULTIVARIEE
60
9.2
j = E(j ) =
...
(on suppose, bien evidemment, que les integrales ci-dessus existent), on ecrit alors = E(X).
Exactement comme dans le cas reel, nous avons pour toute matrice A Rqp et b Rq ,
E(AX + b) = AE(X) + b = A + b.
Matrice V (X) de covariance du vecteur aleatoire X est donnee par
...
Comme ij = ji , V (X) est une matrice symetrique. On peut definir egalement la matrice de
covariance des vecteurs aleatoires X (p 1) et Y (q 1) :
C(X, Y ) = E((X E(X))(Y E(Y ))T ), C Rpq .
La matrice de covariance poss`ede les proprietes suivantes :
1o . V (X) = E(XX T ) T , o`
u = E(X).
o
p
T
2 . Pour tout a R , Var(a X) = aT V (X)a.
Preuve : Notons que par linearite de lesperance,
= aT E (X )(X )T a = aT V (X)a.
Comme Var(aT X) 0, ceci implique que la matrice V (X) est definie-positive. Donc nous
avons
3o . V (X) 0.
4o . Soit A une matrice p q. Alors V (AX + b) = AV (X)AT .
Preuve : Designons Y = AX + b, alors par linearite de lesperance,
= E(Y ) = E(AX + b) = A + b et Y E(Y ) = A(X ).
Maintenant, nous avons :
V (Y ) = E(A(X )(X )T A) = AV (X)AT (linearite de nouveau).
5o .
6o .
7o .
8o .
61
ij =
ij
ii jj
Cov(Xi , Xj )
=q
.
Var(Xi )Var(Xj )
9.3
9.3.1
1 0 ... 0
... ...
= Diag(i ) =
,
0 ... 0 p
telles que
T
A = =
p
X
i i iT ,
(9.2)
i=1
o`
u i sont les vecteurs propres orthonormes de A : 2
iT j = ij i, j = 1, ..., p,
= (1 , ..., p ).
Remarques.
1) Meme si les valeurs propres dune matrice symetrique peuvent etre multiples, tous les vecteurs
propres dune telle matrice sont differents.
2) On suppose dans la suite que les valeurs propres i , i = 1, ..., p sont ordonnees :
1 2 ... p .
On dit que 1 est le premier vecteur propre de A, c.-`a.-d. le vecteur propre correspondant
`a la valeur propre maximale ; 2 est le deuxi`eme vecteur propre, et ainsi de suite.
Si toutes les valeurs propres i , i = 1, ..., p sont non-negatives, on appelle la matrice A
semi-definie positive (et definie positive si i > 0).
2. ici ij est lindice de Kronecker : ij = 1 si i = j, sinon ij = 0.
CHAPITRE 9. LOI NORMALE MULTIVARIEE
62
9.3.2
Projecteurs.
P =
I 0
0 0
o`
u I est une matrice identite Rang(P ) Rang(P ).
En effet, soit v un vecteur propre de P , alors P v = v, o`
u est une valeur propre de P .
Comme P 2 = P ,
(2 )v = (P P )v = (P 2 P )v = 0.
Ceci equivaut `
a dire que = 1 si P v 6= 0.
9.4
La loi Np (0, I)
(x )2
1
exp(
).
2 2
2
Ici est la moyenne et 2 est la variance. La fonction generatrice de la loi normale N (, 2 ) est
(t) = exp(t +
2 t2
),
2
en particulier, pour N (0, 1) on a (t) = et /2 . La loi Np (0, I) est la loi du vecteur aleatoire
X = (1 , ..., p )T o`
u i , i = 1, ..., p sont des variables aleatoires i.i.d. de loi N (0, 1).
Propri
et
es de Np (0, I) :
1o . La moyenne et la matrice de covariance de X sont : E(X) = 0, V (X) = I.
2o . La loi Np (0, I) est absolument continue de densite
f (u) =
p
Y
(ui ) = (2)p/2
i=1
p
Y
1
1
exp( u2i ) = (2)p/2 exp( uT u),
2
2
i=1
o`
u u = (u1 , ..., up )T et (t) = 12 et /2 est la densite de N (0, 1).
3o . La fonction generatrice de Np (0, I) est, par definition,
aT X
X (a) = E e
=
p
Y
j=1
o`
u a = (a1 , ..., ap )T Rp .
=E
E eaj j =
p
Y
j=1
p
Y
eaj j
2
1
eaj /2 = exp( aT a),
2
j=1
9.5. LOI NORMALE MULTIVARIEE
9.5
63
D
efinition 9.1 Le vecteur aleatoire X suit une loi normale sur Rp si et seulement sil existe
une matrice p p A et un vecteur Rp tels que
X = AY + , o`
u Y Np (0, I).
Propri
et
es :
o
1 . E(X) = car E(Y ) = 0.
2o . V (X) = AV (Y )AT = AAT . On designe = AAT .
3o . La fonction generatrice
TX
E eb
X (a) = E ea
= ea
TY
T + 1 bT b
2
= ea
T (AY
= E ea
+)
(avec b = AT a)
T + 1 aT a
2
= ea
(9.3)
Cette derniere propriete peut servir de caracterisation de la loi normale : en effet, est la fonction
generatrice dune loi normale si et seulement si il existe Rp et une matrice symetrique positive
Rpp tels que
T + 1 aT a
2
(a) = ea
a Rp .
(9.4)
Dans ce cas est la moyenne et est la matrice de covariance de la loi normale en question.
En consequence, toute loi normale dans Rp est enti`erement definie par sa moyenne et sa
matrice de covariance. Ceci explique la notation :
X N (, )
pour le vecteur aleatoire X de loi normale avec la moyenne et la matrice de covariance =
T 0.
Si la loi normale N (, ) est non-degeneree, autrement dit, si la matrice de covariance
lest, on verifie facilement grace `
a (9.1) que X est un vecteur aleatoire de densite
f (t) =
9.6
1
(2)p/2
1
exp (t )T 1 (t ) .
2
Det()
Propri
et
es de la loi normale multivari
ee
On consid`ere ici X Np (, ), o`
u Rp et Rpp est une matrice symetrique, 0.
Les proprietes suivantes sont des consequences des resultats de la section precedente :
(N1) Soit > 0, alors le vecteur aleatoire Y = 1/2 (X ) satisfait
Y Np (0, I).
(N2) Les projections aT X de X pour tout a Rp sont des variables aleatoires normales
univariees :
aT X N (aT , aT a).
En particulier, les densites marginales de la loi Np (, ) sont normales univariees. Le
reciproque nest pas vrai !
CHAPITRE 9. LOI NORMALE MULTIVARIEE
64
(N3) Toute transformation lineaire dun vecteur normal est un vecteur normal : si Y = AX + c
o`
u A Rqp et c Rq sont une matrice et un vecteur fixes (non-aleatoires), alors
Y Nq (A + c, AAT ).
(N4) Soit 2 > 0. La loi de X Np (0, 2 I) est invariante par rapport aux transformations
orthogonales : si est une matrice orthogonale, alors X Np (0, 2 I). (La preuve est
evidente : il suffit dutiliser (N3) avec A = .)
(N5) Tout sous-ensemble de composantes dun vecteur normal p-varie est un vecteur normal :
soit X = (X1T , X2T )T , ou X1 Rk et X2 Rpk , alors X1 et X2 sont des vecteurs normaux
(k- et p k-varie respectivement).
Il suffit que lon utilise (N3) avec c = 0 et A Rkp , A = (Ik , 0) ou Ik est une matrice k k
identite. On en deduit que X1 est normal. Pour X2 on prend A R(pk)p = (0, Ipk ).
(N6) Deux vecteur normaux en couple sont independants si et seulement sils sont noncorreles.
!
X
La necessite etant evidente, il suffit de verifier la suffisance : soit Z =
, o`
u X Rp
Y
et Y Rq , Z un vecteur normal dans Rq+p et C(X, Y ) = 0 (la matrice de covariance entre
X et Y ). Pour montrer que X
ependants il suffit de montrer que la fonction
! et Y sont ind
a
generatrice Z (u), u =
, a Rp et b Rq , peut etre decomposee comme
b
Z (u) = X (a)Y (b).
Verifirons ceci. Nous avons
E(Z) =
E(X)
E(Y )
V (Z) =
V (X) C(X, Y )
C(Y, X)
V (Y )
V (X)
0
0
V (Y )
o`
u V (X) Rpp et V (Y ) Rqq sont des matrices de covariance de X et de Y . La
fonction generatrice Z (u) de Z est donc
!#
"
1
a
Z (u) = Z (a, b) = exp (a E(X) + b E(Y )) + (aT , bT )V (Z)
b
2
1
1
= exp aT E(X) + aT V (X)a exp bT E(Y ) + bT V (Y )b = X (a)Y (b).
2
2
T
pour tout u =
9.6.1
a
b
G
eometrie de la distribution normale multivari
ee
65
3
3
2
1
2
2
=0.75
3
3
9.7
9.7.1
Lois d
eriv
ees de la loi normale
Loi 2 de Pearson
1
(x) =
x > 0.
On a E(Y ) = p, Var(Y ) = 2p si Y 2p .
p=1
p=2
p=3
p=6
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
(9.5)
CHAPITRE 9. LOI NORMALE MULTIVARIEE
66
9.7.2
Loi de Fisher-Snedecor
y p/21
(q + py)
p+q
2
(9.6)
o`
u
C(p, q) =
pp/2 q q/2
(p)(q)
, avec B(p, q) =
.
B(p/2, q/2)
(p + q)
On peut montrer que cette densite approche la densite f2p dans la limite quand q .
1
F(10,4)
F(10,10)
F(10,100)
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
10
9.7.3
Y =q .
y R,
(9.7)
o`
u
C(q) =
1
.
qB(1/2, q/2)
On note que t1 est la loi de Cauchy et tq tend vers N (0, 1) quand q . On remarque que la
loi tq est symetrique. Les queues de tq sont plus lourdes que celles de loi normale standardisee.
`
9.8. THEOR
EME
DE COCHRAN
67
0.4
N(0,1)
t4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
5
9.8
Th
eor`
eme de Cochran
PJ
j=1 nj
p. 3) .
Alors,
(i) les vecteurs Aj X sont independants de loi Np (0, Aj ), j = 1, ..., J, respectivement ;
(ii) Les variables aleatoires |Aj X|2 , j = 1, ..., J sont independantes de loi 2nj , j = 1, ..., J.
Preuve :
(i)
Aj =
Ij
0
0
0
j
X
i=1
3.
i2 ,
68
9.9. EXERCICES
9.9
69
Exercices
Exercice 9.1
Soit la densite jointe des v.a. X et Y
f (x, y) =
1 x2 y 2
e 2 e 2 [1 + xyI{1 x, y 1}],
2
1 1/2
1/2 1
1 1/2
1/2 1
1 1/2
1/3 1
Dans la suite, on notera les matrices repondant `a la question, et on supposera que X est de
loi N2 (0, ).
1. Calculer, pour chaque matrice , les valeurs propres (1 , 2 ) et les vecteurs propres associes (v1 , v2 ).
2. Donner la loi jointe de v1T X et v2T X.
CHAPITRE 9. LOI NORMALE MULTIVARIEE
70
Exercice 9.5
2 ln cos(2),
Y =
2 ln sin(2)
f (z1 , z2 , z3 ) =
32
4(2)3/2
X=
2
0
0
1
2 2
2 5
4 10
2 4
et Y =
1 1 1
1 0 0
Z.
= 1
1
1 1
2 1 .
1 2
0
2
, =
4 1
1 8
1. Donner la loi de X + 4Y .
2. Donner la loi jointe des variables Y 2X et X + 4Y .
Exercice 9.9
9.9. EXERCICES
71
Var(X1 )
2
=
,
n
n
E(s2 ) =
n1 2
CHAPITRE 9. LOI NORMALE MULTIVARIEE
72
(c)
ns2
2n1 .
n1
X
s