Beruflich Dokumente
Kultur Dokumente
Exemple 1
Table des matières
On considère l’expérience aléatoire qui consiste en le jet d’un dé
1 Langage de base 1
10 fois. On lui fait correspondre l’univers :
2 Loi de probabilité 2
3 Fonction de répartition 2 Ω = |[1, 6]|10 = {w = (xk )k =1,..,10 , xk ∈ |[1, 6]|}
4 Variable aléatoire discrète 3
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 3 T = P (Ω)
2 Lois discrètes usuelles classiques : Rappel . . . 5
3 Couple de variable aléatoires discrètes : loi muni de la probabilité uniforme Une variable aléatoire sur (Ω, T , P )
conjointe, loi marginale . . . . . . . . . . . . . . . . 7 est par exemple :
5 Variable aléatoire à densité 7
Ω −→ R
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 7
10
X: X
2 Fonction d’une variable aléatoire continue . . 8 w = (x1 , ..., x10 ) → xk
2.1 calcul de densités pour Y = |X |, . . . . . 8 k =1
2.2 calcul de densités pour Y = a X + b , . . 8
ou par exemple
2.3 calcul de densités pour Y = X 2 , . . . . . 8
2.4 calcul de densités pour Y = e X , . . . . . 9
Ω −→ R
3 Lois continues usuelles . . . . . . . . . . . . . . . . . 9
¨
Y : 1, s’il existe k , xk = 1
6 Indépendance de variables aléatoires 10 w = (x1 , ..., x10 ) →
7 Loi de la somme et stabilité 11 0 sinon
1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . 12
Remarque 1
8 Espérance, moment 13
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Si A est une partie de la tribu borélienne BR qui est obtenu par
2 Transferts . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 conséquent par passage au compléménetaire, par réunion, par in-
3 Propriétés de l’éspérance . . . . . . . . . . . . . . . 13 tersection au plus dénombrable d’intervalle de la forme ] − ∞, x ],
4 Moments d’ordre 2, variance convariance . . . 14 alors ”X ∈ A” est bien un événement de T . En particulier :
9 Fonctions génératrices 17 ”X > a ” = X ≤ a ”X < a ” = ””X ≥ a ”
10 Présentation de la fonction caractéristique : ”X ≥ a ” = ∩ ”X > a − k1 ” ”X > a ” = ” ∪ ”X ≥ a + k1 ”
transformée de Fourier, de Laplace 18 k ∈N∗ k ∈N∗
”X ∈]a , b ]” = ”X ≤ b \X ≤ a ” ”X ∈ [a , b [” = ”X < b \x < a ”
11 Convergences 18
”X ∈ [a , b ]” = ”X ≤ b \X < a ” ”X ∈]a , b [” = ”X < b \x ≤ a ”
12 Tableau récapitulatif de toutes les lois, leurs
espérances, variances 19
Proposition 1.1
Une application X : Ω → R est une variable aléatoire réelle sur (Ω, T , P )
si, et seulement si :
1 Langage de base
∀x ∈ R, X −1 (] − ∞, x [) ∈ T
s.hajmi@gmail.com 1
VARIABLES ALÉATOIRES
Soit w ∈ X −1 (] − ∞, a ]).
Preuve 1
lim X n (w ) = X (w ) =⇒ ∀m ∈ N∗ , ∃N ∈ N, ∀n ≥ N , X n (w ) ≤ X (w ) +
n→+∞ m
Les deux applications ω → 0 et ω → 1 sont bien des variables aléatoires.
X 1 , X 2 deux variables aléatoires définies sur l’espace probabilisé (Ω, T , P ). λ ∈ R. 1
=⇒ ∀m ∈ N∗ , ∃N ∈ N, ∀n ≥ N , X n (w ) ≤ a +
1. Soit x ∈ R m
Soit ω ∈ (X 1 +X 2 )−1 (]−∞, x [), donc X 1 (ω) < x −X 2 (ω). Soit rω un rationnel 1
entre les deux. =⇒ w∈ ∩ ∪ ∩ X n−1 (] − ∞, a + ])
m∈N∗ N ∈Nn≥N m
On a donc X 1 (ω) < rω et X 2 (ω) < x − rω . Ce qui fait que
Réciproquement si w ∈ ∩ ∪ ∩ X n−1 (] − ∞, a + m1 ]), alors :
ω ∈ ∪ X 1−1 (] − ∞, r [) ∩ X 2−1 (] − ∞, x − r [) m ∈N∗ N ∈Nn≥N
r ∈Q ∀m ∈ N , ∃N ∈ N, ∀n ≥ N , X n (w ) ≤ a + m1 .
∗
I (R)k
(
Corollaire 1.2 −→ R
Si X est une variable aléatoire et f : R → R continue, alors f ◦ X est PX 1 ,..,X k : k
(J1 , ..., Jk ) → P ( ∩ (X i ∈ Ji )) = P (X 1 ∈ J1 , ..., X k ∈ Jk )
aussi une variable aléatoire. i =1
Proposition 1.5
Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , P ) 3 Fonction de répartition
et f : R → R une fonction monotone, alors l’application composée
f ◦ X est une varibale aléatoire.
s.hajmi@gmail.com 2
VARIABLES ALÉATOIRES
1.4
1 Généralités
Propriétés 3.1
1. FX est une fonction croissante.
Définition 4.1
2. FX est continue à droite en tout point. Une variable aléatoire X est dite discrète (relativement à P ) s’il existe
3. lim FX (x ) = 0, lim FX (x ) = 1 Ω0 ∈ T un événement presque sûr tel que : D = X (Ω0 ) soit un ensemble
x →−∞ x →+∞
au plus dénombrable.
Elle est dite étagée si X (Ω0 ) est fini.
Preuve
Remarque 6
1. Pour t ≤ t 0 , on a : ”X ≤ t ” =⇒ ”X ≤ t ”, et comme P est croissante, donc
P (X ≤ t ) ≤ P (X ≤ t 0 ).
En supprimant de D tous les éléments x tel que P (X = x ) = 0, les x
2. Comme FX est croissante il suffit de montrer que pour tout t ∈ R,
restants sont appelés les valeurs possibles de X .
1
lim FX (t + ) = FX (t )
n→+∞ n Remarque 7
Or La variable aléatoire X est discrète, si on peut ranger les valeurs
1 1
0 ≤ P (X ≤ t + ) − P (X ≤ t ) = P (t < X ≤ t + ) possibles de X en une suite (xk )k ∈N .
n n
A n = ”t < X ≤ t + n1 , (A n ) est une suite d’événements décroissante, d’après
Elle est finie si ces valeurs possibles sont au nombre fini.
le théorème de limite monotone
Proposition 4.1
lim P (A n ) = P ( ∩ ∗ A n ) = P (;) = 0
n →+∞ n∈N Si X est une variable aléatoire discrête, alors ∀A ⊂ R.
X
3. le théorème de limite monotone appliqué respectivement aux suites P (X ∈ A) = P (X = x )
(X ≤ −n )n et (X ≤ n ), donne
x ∈A
En particulier FX (x ) = k ,xk ≤x P (X = xk ).
P
lim FX (t ) = lim P (X ≤ −n ) = P ( ∩ ”X ≤ −n) = P (;) = 0
t →−∞ n→+∞ n∈N
La loi de probabilité d’une variable aléatoire discrète est parfaite-
lim FX (t ) = lim P (X ≤ n) = P ( ∪ ”X ≤ n ”) = P (Ω) = 1 ment déterminée par les valeurs (P (X = x ) x ∈X (Ω0 ) ]
t →+∞ n→+∞ n ∈N
5. P (a ≤ X ≤ b ) = FX (b )− lim− FX (x ).
x →a
Propriété 4.1
6. P (a ≤ X < b ) = lim FX (x )− lim− FX (x ).
x →b − x →a Si X est étagée avec X (ω0 ) = {x1 , ..., xn } où x1 < x2 < ... < xn , alors la
7. P (a < X < b ) = lim FX (x ) − FX (a ) fonction de répartition FX est une fonction en escaliers croissante,
x →b − nulle sur ] − ∞, x1 [ , égale à 1 sur [xn , +∞[ et :
8. P (X = a ) = FX (a )− lim− FX (x ). ¨
P (X = x1 ) = FX (x1 )
x →a
P (X = xk ) = FX (xk ) − FX (xk −1 ) 2 ≤ k ≤ n
Preuve
1. P (X > a ) = 1 − P (X ≤ a ). Preuve
4. P (a < X ≤ b ) = P (X ≤ b \X ≤ a ) = FX (b ) − FX (a ). On dit que la loi de X est discrète usuelle s’il existe un intervalle J de Z
5. P (a ≤ X ≤ b ) = P (X ≤ b \X < a ) = FX (b )− lim− FX (x ). et une bijection croissante :
x →a
6. P (a ≤ X < b ) = P (X < b ) − P (X < a ) = lim FX (x )− lim− FX (x ) J −→ D
x →b − x →a
ϕ:
7. P (a < X < b ) = P (X < b ) − P (X ≤ a ) = lim FX (x ) − FX (a ) k → xk
x →b −
8. P (X = a ) = P (X ≤ a ) − P (X < a ) = FX (a )− lim− FX (x ).
x →a
Remarque 8
Remarque 5
Toute loi finie est usuelle.
La fonction de répartition caractérise complétement la loi de proba-
bilité.
s.hajmi@gmail.com 3
VARIABLES ALÉATOIRES
élémentaire ω = (b , r ), on a
Solution On a X (Ω) = {xi |i ∈ I } où I est une partie de N.
S (Ω) = b + r
Pour tout ω ∈ Ω, il existe un indice k ∈ I tel que X (Ω) = xk et :
Il est facile de représenter tous les cas possibles par un tableau à X
f (xi )χX −1 ({xi }) (ω) = f (xk ) = f ◦ X (ω)
36 cases. i ∈I
1 2 3 4 5 6
Exercice 3
1 2 3 4 5 6 7
2 3 4 5 6 7 8 Un concours de tir au pistolet entre deux compétiteurs A et B est
3 4 5 6 7 8 9 constitué d’une suite d’épreuves consistant, pour chacun des com-
4 5 6 7 8 9 10 pétiteurs, en un tir visant à atteindre une cible. Les deux compé-
5 6 7 8 9 10 11 titeurs tirent simultanément, chacun d’eux disposant de sa cible
6 7 8 9 10 11 12 personnelle. On associe à ce concours une expérience aléatoire. On
suppose que toutes les épreuves sont mutuellement indépendantes
On a ainsi défini une application S de Ω dans l’ensemble des et que pour chaque épreuve :
sommes de points possibles : {2, 3, ..., 11, 12}. — le compétiteur A a la probabilité de 23 de toucher sa cible ;
En fait, l’observation qui nous intéresse dans cette expérience, ce — le compétiteur B a la probabilité 21 de toucher sa cible ;
n’est pas ω, mais seulement S (ω). Ce que l’on aimerait connaître, — les résultats obtenus par A et B sont indépendants.
c’est la probabilité que la somme des points prenne une valeur À l’issue de chaque épreuve, il faut avoir touché sa cible pour être
donnée, soit P (S = k ) pour k entier fixé entre 2 et 12. En utilisant autorisé à poursuivre le concours, sinon on est éliminé. Le concours
l’équiprobabilité sur Ω la loi de probabilité d’une variable aléatoire cesse lorsque les deux compétiteurs ont été éliminés.
discrête peut être représentée par un tableau comme suit. Pour tout entier n ≥ 1, on considère les événements suivants :
A n : à l’issue de l’épreuve n, seul A n’est pas éliminé ;
k 2 3 4 5 6 7 8 9 10 11 12 Bn : à l’issue de l’épreuve n, seul B n’est pas éliminé ;
1 2 3 4 5 6 5 4 3 2 1
P (S = k ) 36 36 36 36 36 36 36 36 36 36 36 Cn : à l’issue de l’épreuve n, aucun compétiteur n’est éliminé ;
Dn : à l’issue de l’épreuve n, les deux compétiteurs sont éliminés ;
C0 est l’événement certain et A 0 , B0 , D0 sont impossibles.
Exercice 1
1. Calculer
les probabilités suivantes :
Une urne contient 10 boules : 7 boules blanches et 3 boules noires. P (A n+1 /A n ), P (Bn+1 /A n ), P (Cn+1 /A n ), P (Dn+1 /A n )
On y effectue des tirages successifs et sans remise jusqu’à vider P (A n+1 /Bn ), P (Bn+1 /Bn ), P (Cn+1 /Bn ), P (Dn+1 /Bn )
l’urne, et on note X la va égale au rang d’apparition de la première P (A
n+1 /C n ), P (Bn+1 /C n ), P (C n +1 /C n ), P (Dn+1 /C n )
boule blanche.
Déterminer la loi de X . 2. On note X la variable aléatoire égale au numéro de l’épreuve
à l’issue de laquelle a eu lieu la première élimination.
Solution On peut complètement se passer de son utilisation, mais a) Calculer P (X = 1). On suppose dans les questions suivantes
comme même on signale que l’univers Ω ici est l’ensemble de 10- que n ≥ 2.
arragements parmis 10 éléments (c’est donc des permutations) et X est n
b) Calculer P ∩ Ck .
la fonction qui à tout événement w = (x1 , ..., x10 ) on associe le premier k =1
rang i tel que xi soit une boule blanche. c) Calculer P (X > n ).
Nous avons X (Ω) = {1, 2, 3, 4} Notons pour tout k .
Nk : " on obtient une boule noire au kième tirage". d) En déduire P (X = n ).
Bk :" on obtient une boule blanche au kième tirage". +∞
P (X = k ).
P
e) Calculer
k =1
1. "X=1"=B1 , donc
1 n n−1
P (X = 1) = P (B1 ) = f ) Montrer que : nP (X > n)+ k P (X = k ) = P (X > k ).
P P
7 k =1 k =0
2. "X=2"=N1 ∩ B2 , donc +∞
k P (X = k ).
P
g) En déduire
3 7 7 k =1
P (X = 1) = P (N1 ∩ B1 ) = P (N1 )P (B /N1 ) = × =
10 10 30 P (A n )
P (Bn )
3. "X=3"=N1 ∩ N2 ∩ B3 , donc 3. Pour n ∈ N, on note X n =
P (Cn ) et A ∈ M 4 (R) est la matrice
3 2 7 7 P (Dn )
P (X = 2) = P (N1 )P (N2 /N1 )P (B2 /(N1 ∩ N2 )) = × × =
10 9 8 120 de transistion définie par X n+1 = AX n .
4. "X=4"=N1 ∩ N2 ∩ N3 ∩ B4 , donc a) Déterminer A.
P (X = 4) = P (N1 )P (N2 /N1 )P (N3 /(N1 ∩ N2 ))P (B4 /(N1 ∩ N2 ∩ N3 )) b) Calculer X n en fonction de X 0 pour tout n .
3 27 1 c) Calculer lim X n .
= = n→+∞
10 9 7 120
s.hajmi@gmail.com 4
VARIABLES ALÉATOIRES
Solution Solution Soit X une variable aléatoire réelle positive sur (Ω, T , P ) et
(X n )n ∈N∗ la suite de variables aléatoires réelles sur (Ω, T , P ) définie par :
P (A n +1 /A n ) = 23 , P (Bn +1 /A n ) = 0, P (Cn +1 /A n ) = 0, P (Dn+1 /A n ) = 13
P (A n +1 /Bn ) = 0, P (Bn +1 /Bn ) = 21 , P (Cn +1 /Bn ) = 0, P (Dn+1 /Bn ) = 12
n
n2 −1
1. X k
P (A n +1 /Cn ) = 32 × 12 = 13 , P (Bn +1 /Cn ) = 12 × 13 , P (Cn +1 /Cn ) = 23 × 21 = 13 , Xn = χA
k =0
2n n,k
P (D /C ) = 1 × 1 = 1
n +1 n 3 2 6
2. a) où :
k k +1
2 1 1 1 1 1 2 A n ,k = ≤X < ∈T
2n 2n
P (X = 1) = P (A 1 ) + P (B1 ) + P (D1 ) = × + × + × =
3 2 2 3 2 3 3 Chaque X n est une variable aléatoire étagée positive.
b) Pour ω ∈ Ω et n > X (ω), on a 0 ≤ 2n X (ω) < n 2n , donc 0 ≤ k = [2n X (ω)] ≤
n 2n − 1 et k ≤ X (ω) < k + 1), ce qui signifie qu’il existe un unique entier
n 1 k ∈ {0, ..., n 2n − 1} tel que ω ∈ A n,k , donc X n (ω) = 2kn et
P ( ∩ Ck ) = P (C1 )P (C2 /C1 )P (C3 /C1 ∩C2 )...P (Cn /C1 ∩..∩Cn −1 ) = ( )n
k =1 3
1
c) |X (ω) − X n (ω)| < −→ 0
2n
n 1
P (X > n ) = P ( ∩ Ck ) = ( )n
k =1 3 La suite (X n )n ∈N converge simplement vers X .
Il reste à prouver que (X n )n ∈N est croissante.
d)
Pour ω ∈ Ω et n ≥ 1, on a deux possibilités.
1 1 2 Soit X (ω) < n et alors X n (Ω) = 2kn où k = [2n X (ω)], c’est à dire que k
2n ≤
P (X = n ) = P (X > n − 1) − P (X > n ) = − = X (ω) < K2+1 et :
3n −1 3n 3n n
2k +1
¨
k k 2k
2n si 2n = 2n+1 ≤ X (ω) < 2n+1
e)
n n
2X 1 X n +1 (ω) = 2k +1 2k +1 k +1 2k +2
(ω) < 2n = 2n+1
X
P (X = k ) = −→ 1 2n+1 si 2n+1 ≤ X
k =1
3 k =1
3k
Qui donne dans tous les cas X n (ω) ≤ X n +1 (ω).
f) P (X = k ) = P (X > k − 1) − P (X > k ), donc Soit X (ω) ≥ n et alors X (ω) ∈
/ A n ,k pour 0 ≤ k ≤ n 2n − 1 puisque 2n X (ω) ≥
n 2n ≥ k + 1. ce qui donne X n (ω) = 0 ≤ X n +1 (ω).
k P (X = k ) = k P (X > k − 1) − k P (X > k )
= (k − 1)P (X > k − 1) − k P (X > k ) + P (X > k − 1)
2.4
2 Lois discrètes usuelles classiques : Rappel
. En sommant, on obtient :
n −1
nP
P (X = k ) = −nP (X > n )+ P (X > k ). D’où l’égalité sou- X (Ω) P (X = k )
P
1
k =1 k =1 Loi uniforme : X ,→ U (|[1, n ]|) |[1, n ]| n
haitée.
n −1
nP −1
nP Tirage d’un objet parmis
k P (X = k ) = P (X > k ) − nP (X > n ) = 1
− 3nn .
P
g) 3k n numérotés de 1 à n. X
k =1 k =0 k =0
En faisant tendre n vers +∞, on obtient est le numéro de l’objet
tiré
+∞
3 Loi de Bernoulli X ,→ B(1, p ) {0, 1} P (X = 1) = p
X
k P (X = k ) =
k =1
2 Réalisation d’une ex- P (X = 0) = 1 − p
périence à deux issues,
3. a) (A n , Bn , Cn , Dn ) est un système complet d’événements. En uti- dont la probabilité de
lisant les formule de probabiltés totales et la question 1, on
succés est p
trouve 2
3 0 1
3 0
Loi binomiale
1 1
Réalisation de n essais X ,→ B(n, p ) |[0, n ]| n
0 0 p k (1 − p )n −k
A= 2 6
1
k
0 0 0 indépendants d’une
3
1 11
3 26 1 expérience à deux is-
(t A est une matrice stochastique) sues, dont la probabilité
b) On diagonalise A. A = P D P −1 , avec
de succés est p , X le
nombre de succés
−1 0 −1 0 X ,→ G (p ) N∗ (1 − p )k −1 p
4
0 0 0
Loi géométrique
1 0 −1 −1 0 Réalisation d’essais in-
D = 0 3 0 0 , P =
6 0 0 1 0
0 0 0 6 dépendants d’une expé-
1 1 1 1
rience à deux issues dont
(2n − 1)3−n
la probabilité de succés
2−n − 3−n est p . X est le temps
X n = A n X 0 = P D n P −1 X 0 =
3−n d’attente du premier suc-
1 − 2n 3−n − 2−n + 3−n cées.
e −λ λk !
k
c) Loi de poisson X ,→ P (λ) N
0
Comptage de phéno-
0 mènes rares
lim X n =
n →+∞ 0
1 Exercice 5: Loi Hypergéométrique
Exercice 4 Dans une population totale de N individus dont M sont de type
A et de proportion p = M N , on prélève au hasard un échantillon
Une variable aléatoire réelle positive sur (Ω, T , P ) est limite d’une
de n personnes (tirage sans remise). Soit X le nombre aléatoire
suite croissante de variables aléatoires réelles étagées positives.
d’individus de type A dans l’échantillon. Montrer que la loi de X est
M N −M
k × n−k
P (X = k ) = N
si 0 ≤ k ≤ M , 0 ≤ n − k ≤ N − M
n
s.hajmi@gmail.com 5
VARIABLES ALÉATOIRES
Solution On peut prendre comme espace Ω l’ensemble de tous les échan- ”Yn = n − 1” = ”2X n − n = n − 1” = ”X n = 2n −1
n ” = ;. De même
tillons possibles (toutes les parties à n éléments d’un ensemble de cardinal n −1
N ) muni de l’équiprobabilité. Chaque échantillon a ainsi une probabilité P (Yn = n − 2) = P (X n = n − 1) = n p q
1
d’être choisi.
(Nn )
Les échantillons (événements élémentaires) réalisant l’événement Exemple 5
{X = k } sont ceux qui contiennent k individus de type A et n − k indivi-
dus du reste. Ceci n’est réalisable que si 0 ≤ k ≤ M et 0 ≤ n − k ≤ N − M .
Dénombrons ces échantillons. On les forme en choisissant k individus On considère un billard américain à six trous numérotés de 1 à 6.
dans une sous-population de type A ( de cardinal M ) et en complétant Le champion du monde de billard américain rentre 15 boules l’une
par n − k individus choisis dans une sous population de N − M . Il y en a après l’autre en choisisnat au hasard l’un des six trous T1 , ..., T6 pour
M N −M
donc k × n −k rentrer chaque boule.
Finalement : Pour tout i ∈ |[1, 6]|, on désigne par X i la variable aléatoire égale au
M
N −M nombre de boules rentrés dans le trou i .
k × n −k
P (X = k ) = N
si 0 ≤ k ≤ M , 0 ≤ n − k ≤ N − M Pour tout i ∈ |[1, 6]|, déterminer la loi de X i .
n
Exemple 3
Solution Si on désigne par succés " la boule rentre dans le trou Ti ", il
On lance indéfiniment une pièce donnant "pile" avec la probabilité s’agit de répétition 15 fois d’une expérience aléatoire à deux issues, dont
p ∈]0, 1[ et "face" avec la probabilité q=1-p. On admet que ces la probabilité de succés est p = 16
lancers sont indépendants.
1
Pour tout entier k ≥ 2, on dit que le kième lancer est un chan- X i ,→ B(15, )
6
gement s’il mène un résultat différent de celui du (k-1)ième. On
note Pk (resp Fk ) l’événement "on obtient Pile (resp face) au kième
lancer". Exemple 6
Pour tout entier n ≥ 2, on note X n la variable aléatoire égale au
nombre de changements durant les n premiers lancers. Soient n , k deux entiers naturels non nuls. Une urne contient 2n +1
on se propose de donner la loi de X 2 . boules numérotés de 1 à 2n + 1. On y effectue une suite de tirages
X 2 (Ω) = {0, 1}, Soit il y’a changement ou pas , X 2 suit donc une avec remise. Les tirages sont supposés mutuellement indépendants
loi de Bernoulli. et les boules peuvent être obtenues de manière équiprobale.
P (X 2 = 1) = P (F1 ∩ P2 ∪ P1 ∩ F2 ).Donc Soient X la variable aléatoire égale au numéro de tirage où l’on
obtient pour la première fois une boule portant le numéro pair et
P (X 2 = 1) = q p + p q = 2p q Y la variable aléatoire égale au nombre de fois où l’on a obtient
une boule portant un numéro pair en k tirages.
X 2 ,→ B(1, 2p q ) 1. Quelle est la loi de X ?
2. Quelle est la loi de Y .
Exemple 4
s.hajmi@gmail.com 6
VARIABLES ALÉATOIRES
3.4
3 Couple de variable aléatoires discrètes : loi conjointe, Définition 4.4 — loi marginale
loi marginale Soit (X , Y ) un couple aléatoire discret, on pose
X X
∀i ∈ I pi . = pi j et ∀ j ∈ J p. j = pi j .
Définition 4.2
j ∈J i ∈I
Soit (X , Y ) un couple de variables aléatoires discrètes, on pose
La famille (xi , pi . )i ∈I définit la loi de X dite loi marginale de X.
X (Ω) × Y (Ω) = {(xi , y j )}i ∈I , j ∈J . La famille (y j , p. j ) j ∈J définit la loi de Y dite loi marginale de Y.
Exemple 8 Remarque 10
Y/X 0 1 2 3 1.5
1 Généralités
0 4/120 24/120 24/120 4/120
1 12/120 32/120 12/120 0
Définition 5.1
2 4/120 4/120 0 0
Une variable aléatoire réelle X est dite de loi à densité ou de loi continue
(relativement à P ) si sa fonction de répartition FX est continue sur R
et de classe C 1 sur R privé d’un sous-ensemble fini F (éventuellement
Proposition 4.2 vide).
On a On appelle alors densité de X la fonction définie sur R par :
∀i ∈ I ∀ j ∈ J pi j ≥ 0 f X (t ) = FX0 (t ) pour t ∈ R\F et f X (t ) = 0 pour t ∈ F .
et X XX XX
pi j = pi j = pi j = 1. Remarque 11
i ∈I , j ∈J i ∈I j ∈J j ∈J i ∈I
Si X est de loi continue, alors d’après le corollaire 3.1, pour tout
a ∈ R, P (X = a ) = 0
Preuve
Proposition 5.1
Se vérifie par utilisation du théorème de Fubini de sommabilité d’une famille
double. Pour tout a , b ∈ R, a ≤ b , on a
Z b
FX (b ) − FX (a ) = f X (t )d t
Exemple 9 a
Plus généralement si I est un intervalle de borne inférieur a et supé-
Soit (X , Y ) un couple de vad à valeurs dans {0, · · · , 5}. rieure b , alors
On suppose que pi j = 0 si i < j et pi j = λi j sinon. Z b
Déterminer λ pour avoir une loi de probabilité ? P (X ∈ I ) = FX (b ) − FX (a ) = f X (t )d t
on obtient λ = 1/140. a
En particulier la fonction de répartition s’exprime en fonction de la
densité : Z x
FX (x ) = f X (t )d t
Définition 4.3 — Fonction de répartition −∞
On appelle fonction de répartition du couple aléatoire (X , Y ) la fonc-
tion F(X ,Y ) définies sur R 2 par pour tous réels x et y
Preuve
F(X ,Y ) (x , y ) = P (X ≤ x , Y ≤ y ).
Distinguons les cas.
Exemple 10 f X (t )d t = FX ]ab = FX (b ) − FX (a )
a
Calculer P (a < X ≤ b , c < Y ≤ d ) en fonction de F (a , c ) , F (a , d ), — Si [a , b ] rencontre F , soit x1 , ..., xn des éléments de F tel que
F (b , c ) et F (b , d ).
a ≤ x1 < x1 < ... < xn ≤ b
On obtient :
On note x0 = a , xn+1 = b
P (a < X ≤ b , c < Y ≤ d ) = F (b , d ) − F (a , d ) + F (a , c ) − F (b , c ) Pour tout [x , y ] ∈]xi , xi +1 [, i = 0, .., n + 1
Z y
f X (t )d t = FX (y ) − FX (x )
x
s.hajmi@gmail.com 7
VARIABLES ALÉATOIRES
si a > 0,
x −b x −b
Preuve P (Y ≤ x ) = P (X ≤ ) = FX ( )
a a
Un sens vient de la propriété précédente, pour l’autre sens , soit F =
{x0 , x1 , ..., xn , xn+1 } exactement l’ensemble fini des points où f n’est pas éventuel-
si a < 0,
lement continue avec x0 = −∞, xn +1R = +∞. x −b x −b
c Rx P (Y ≤ x ) = P (X ≥ ) = 1 − FX ( )
Sur chaque ]xi , xi +1 FX vaut FX (x ) = ∞ f (t )d t + c f (t )d t , où c est un point qlq a a
de ]xi , xi +1 [.
f est continue sur ]xi , xi +1 [, R xdonc FX est C sur ]xi , xi +1 [.
1
En dérivant on obtient la densité de Y
Soit a ∈ R, FX (x ) − FX (a ) = a f (t )d t −→0.
x →a
D’où la continuité de FX . 1 x −b
f Y (x ) = fX ( ).
|a | a
Exercice 6
si x < 0, P (Y ≤ x ) = 0.
¨
∀t ∈ R∗− , f (t ) = 0 p p p p
+ si x > 0, P (Y ≤ x ) = P (− x ≤ X ≤ x ) = FX ( x ) − FX (− x ).
∀t ∈ R , f (t ) = t e −t
En dérivant on obtient la densité de Y
1. Montrer que f est une densité d’une variable aléatoire T dont
on précisera la fonction de répartition. f Y (x ) = 0 si x < 0.
2. Soit D la variable aléatoire définie par D = T −[T ]. Déterminer 1 p p
la fonction de réparttion G de D . Y (x ) = p (f X ( x ) + f X (− x )) si x > 0.
2 x
s.hajmi@gmail.com 8
VARIABLES ALÉATOIRES
par continuité de g 0 , on aura g 0 > 0 ou g 0 < 0. Les lois exponentielles sont souvent choisies pour modéliser
On suppose que g 0 > 0, g est strictement croissante. Posons b = sup(J ) (even- des temps d’attente : temps d’attente à partir de maintenant du
tuellement égal à +∞).
a = − inf(J ) (eventuellement égal à −∞. prochain tremblement de terre, du prochain faux numéro sur une
ligne téléphonique, de la prochaine désintégration d’un atome
FY (y ) = P (g ◦ X ≤ y )
de radium, etc. La raison de ce choix est la propriété d’absence
= P (X ∈ g −1 (] − ∞, y ]))
de mémoire en temps continu qui caractérise la famille des lois
1, si y ≥ b exponentielles.
= P (X ≤ g −1 (y )) = FX (g −1 (y )), si a < y < b
0, si y ≤ a
Exemple 12
FY est bien continue ( lim FY (y ) = P (X ∈ I ) = 1, lim+ FY (y ) = 0) de classe C 1 sur
y →b − y →a
f X (g −1 (y ))
R\g (F ), de dérivée g 0 (g −1 (y )) . La durée de vie T en années d’une télévision suit une loi de den-
t
Lorsque g est strictement décroissante, alors −g est strictement croissante, on sité f (t ) = 18 e − 8 χ[0,+∞[ (t ). Calculer la probabilité que votre
pose Z = −g (X ), on Y = −Z . en se référant au calcul de densité de (a X + b , a =
−1, b = 0), Y admet donc une densité égale à télévision ait une durée de vie supérieure à 8 ans.
Il s’agit de la probabilité
f X ((−g )−1 (−y )) f X (g −1 (y ))
f Y (y ) = fZ (−y ) = =
−g 0 ((−g )−1 (−y )) |g 0 (g −1 (y ))|
Z +∞
1 −t 1
P (T ≥ 8) = e 8 d t = ÷ 0.37
Remarque 13 8
8 e
s.hajmi@gmail.com 9
VARIABLES ALÉATOIRES
Remarque 15
Y = a X + b ,→ N (a m + b , a 2 σ2 )
La famille (X n )n∈J est indépendante si et seulement si pour toute
En particulier si X suit la loi normale N (m , σ2 ), alors partie finie K = (n1 , ..., nk ) de J et toute famille d’intervalles (Ini )1≤i ≤k
X −m d’intervalles de R.
Z= ,→ N (0, 1)
σ k
Y
P (X n1 ∈ In1 , ..., X nk ∈ Ink ) = P (X ni ∈ Ini )
dite loi normale centrée réduite i =1
Ces lois jouent un rôle capital dans l’étude des lois limites de
sommes de variables aléatoires indépendantes. Par exemple Proposition 6.1
(théorème de de Moivre Laplace) Si Sn suit la loi B(n , p ), alors n ≥ 2, les variables X 1 , ..., X n de l’espace probabilisé (Ω, T , P ) sont in-
pour tout x ∈ R, dépendantes si et seulement si Pour toute famille I1 , ..., In d’intervalles
Æ de R.
P (Sn − n p ≤ x n p (1 − p )) n
Y
P (X 1 ∈ I1 , ..., X n ∈ In ) = P (X i ∈ Ii )
converge quand n tend vers l’infini vers φ(x ), où φ est la fonction i =1
de répartition de la loi gaussienne N (0, 1).
4. loi gamma Γ (b , ν)
R +∞ Preuve
On rappelle que Γ (x ) = 0 t x −1 e −t d t pour x > 0.
Pour b > 0, ν > 0, une variable aléatoire X suit la loi Γ (b , ν) dite loi Le sens direct est évident :
Pour le sens indirect il suffit de compléter le système d’événement
Gamma de paramètres b , ν si sa fonction de densité est :
(X i 1 ∈ Ii 1 ), ..., (X i k , Ii k ) par les événements sûrs
x
x ν−1 e − b (X j ∈ I j ), avec I j = R, j ∈ |[1, n]|\{i 1 , ..., i k }
f (x ) = 1R+ (x )
Γ (τ)b ν
3. Chaque composant suit la même loi Ti , i = 1...6. Bk est au plus dénombrables, on peut l’écrire sous forme :
En considérant
R ∞ l’évenement ”T ≥ 15” comme un succés de proba-
bilité p = 15 10 2
t 2 d t = 3 , le nombre de composants parmis les 6 est Bk = ∪ {xk ,n }
n∈N
une variable aléatoire distribuée selon une loi binomiale B(6, 23 ).
La probabilité cherchée est
P (X 1 ∈ I1 , ..., X k ∈ Ik ) = P (X 1 ∈ B1 , X 2 ∈ B2 , ..., X k ∈ Bk )
6
X 6 k = P ( ∪ (X 1 = x1,n ), ..., ∪ (X k = xk ,n )
P (X ≥ 3) = p (1 − p )6−k ÷ 0.9 n∈N n∈N
k =3
k =
XX
....
X
P (X 1 = x1,n1 , ..., X k = xk ,nk )
n1 ∈N n2 ∈N nk ∈N
XX X
= .... P (X 1 = x1,n1 )...P (X k = xk ,nk )
6 Indépendance de variables aléatoires n1 ∈N n2 ∈N nk ∈N
= P (X 1 ∈ B1 )...P (X k ∈ Bk )
= P (X 1 ∈ I1 )...P (X k ∈ Ik )
s.hajmi@gmail.com 10
VARIABLES ALÉATOIRES
deux fois une boule et on note X i la variable qui vaut 1 si la boule Formule appelée produit de convolution discret des variables X 1 et
tirée au ième tirage est blanche et 0 sinon. Etudier l’indépendance X 2.
de X 1 et de X 2 dans le cas où le tirage se fait sans remise.
Preuve
Solution
P (X 1 + X 2 = s ) = P ((X 1 + X 2 = s ) ∩ ( ∪ (X 1 = u ))
u∈D1
b b (b − 1) + a b b
P (X 1 = 1) = , P (X 2 = 1) = = = P ∪ (X 1 = u , X 2 = s − u)
a +b (a + b )(a + b − 1) a + b u∈D1
X
= P (X 1 = u, X 2 = s − u )
b (b − 1)
P (X 1 = 1, X 2 = 1) = u∈D1
(a + b )(a + b − 1) X
= P (X 1 = u)P (X 2 = s − u )
donc X 1 et X 2 ne sont pas indépendants. u∈D1
Exercice 10
Théorème 7.2 - Somme de variables de Bernoulli
Soient n ≥ 3 et X 1 , X 2 , ..., X n des variables aléatoires réelle discrètes Soit X 1 , ..., X n des variables aléatoires indépendantes suivant la loi
sur (Ω, T , P ) mutuellement indépendantes. n
B(p ). Alors X i ,→ B(n , p )
P
1. Montrer que les variables aléatoires X 1 + X 2 , X 3 , ..., X n sont
i =1
mutuellement indépendantes.
2. En déduire que pour tout entier r compris entre 2 et n − 1, les
Preuve
variables :
X 1 + X 2 + ... + X r , X r +1 + ... + X n sont indépendantes. n
Posons X =
P
Xk .
k =1
D’abord X (Ω) ⊂ |[0, n ]|.
Solution L’événement X = k a lieu lorsque k variables X i prennent la valeur 1 et les n − k
n
1. autres la valeur 0, il y’a k combinaisons. Comme les événement A i associés sont
indépendants, chaque événement de cette distribution a la m ême probabilité
P (X 1 + X 2 = a , X 3 = x3 , ..., X n = xn ) d’apparition soit p k (1 − p )n −k . Enfin
= P ((X 1 + X 2 = a ) ∩ (X 3 = x3 ), ∩... ∩ (X n = xn ))
n k
P (X = k ) = p (n − p )n −k
k
= P ∪ X 1 = a p ∩ (X 2 = a − a p ) ∩ ... ∩ (X n = xn )
a p ∈X 1 (Ω)
X Remarque 16
= P (X 1 = a p ) ∩ (X 2 = a − a p ) ∩ (X 3 = x3 ) ∩ ... ∩ (X n = xn )
a p ∈X 1 (Ω)
X Ce théorème peut être vu comme un corollaire du théorème de
= P (X 1 = a p )P (X 2 = a − a p )P (X 3 = x3 )...P (X n = xn ) stabilité de lois binomiales qui suit.
a p ∈X 1 (Ω)
!
X Théorème 7.3 - Stabilité des lois binomiales
= P (X 1 = a p )P (X 2 = a − a p ) P (X 3 = x3 )...P (X n = xn )
a p ∈X 1 (Ω) Soit (m , n ) ∈ (N∗ )2 et p ∈]0, 1[. Si X ,→ B(n , p ) et Y ,→ B(m, p ) sont
indépendantes, alors X + Y ,→ B(m + n , p ).
= P ∪ (X 1 = a p ) ∩ (X 2 = a − a p ) P (X 3 = x3 )...P (X n = xn )
a p ∈X 1 (Ω)
= P (X 1 + X 2 = a )P (X 3 = x3 )....P (X n = xn )
Preuve
2. Par récurrence fini sur r compris entre 2 et n − 1. On utilise le théorème de convolution de variables aléatoires discrèes.
(X + Y )(Ω) ⊂ |[0, m + n ]|. Soit s ∈ |[0, m + n ]|.
Proposition 6.3 - Indépendance héritée (admis) n
X
P (X + Y = s ) = P (X = k , Y = s − k )
Si la famille (X j )1≤ j ≤nk est indépendante et si k =0
s.hajmi@gmail.com 11
VARIABLES ALÉATOIRES
k
Par le théorème d’indépendance héritée,
P
X i et X k +1 sont indépendantes. Par variable aléatoire S = X 1 + X 2 est à densité, de densité
i =1 Z +∞
+1
kP +1
kP
le théorème précédent : X i ,→ B( ni , p ) f :x → f1 (t )f2 (x − t )d t
i =1 i =1
−∞
Cette fonction est appelée le produit de convolution des densités f1
Théorème 7.4 - Stabilité des lois de poisson et f2 .
Soit (λ, µ) ∈ (R+ )2 . Si X ,→ P (λ) et Y ,→ P (µ) sont indépendantes,
alors X + Y ,→ P (λ + µ).
Théorème 7.7 - Stabilité de la loi Gamma
(X k )k =1,..,n suite de variables aléatoires indépendantes suivants res-
Preuve pectivement les lois Gamma Γ (b , λk )k =1,...,n , alors
n n
(X + Y )(Ω) = N. Soit s ∈ N.
X X
X k ,→ Γ (b , λk )
s
X k =1 k =1
P (X + Y = s ) = P (X = k )P (Y = s − k )
k =0
s
X λk −µ µs −k
= e −λ e Preuve
k =0
k! (s − k )!
(λ + µ) s Il suffit de le montrer pour le cas n = 2. Le cas générale s’en déduit par récurrence
= e −(λ+µ) en passant par le théorème d’indépendance héritée.
s! On admet le résultat suivant :
Donc X + Y ,→ P (λ + µ). 1
Γ (x )Γ (y )
Z
x, y > 0 t x −1 (1 − t ) y −1 d t =
0
Γ (x + y )
Corollaire 7.2 - Stabilité des lois de poisson
Posons R X = X1 + X2.
Si (X i )i =1,..,k est une famille de variables aléatoires indépendantes +∞ R +∞
f X (x ) = −∞ f X 1 (t )f X 2 (x − t )d t = 0 f X 1 (t )f X 2 (x − t )d t .
suivant les lois des lois de poisson P (λi )i =1,..k respectivement, alors Donc déja pour x ≤ 0, f X (x ) = 0.
k k Supposons que x ≥ 0.
X i ,→ P ( λi )
P P
la variable aléatoire
i =1 i =1 x t
t τ1 −1 e − b (x − t )τ2 −1 e − b
x −t
Z
f X (x ) = dt
0
Γ (τ1 )b τ1 Γ (τ2 )b τ2
x Z x
eb
Preuve = t τ1 −1 (x − t )τ2 −1 d t
Γ (τ1 )Γ (τ2 )b τ1 +τ2 0
Se démontre de la même façon que le corollaire 7.1 x
x τ1 +τ2 −1 e − b
Z1
= u τ1 −1 (1 − u)τ2 −1 d t
Γ (τ1 )Γ (τ2 )b 1 2 0
τ +τ
x
x τ1 +τ2 −1 e − b
2.7
2 Cas continu =
Γ (τ1 + τ2 )b τ1 +τ2
Théorème 7.5
Théorème 7.8 - Somme de lois exponentielles
Si (X 1 , X 2 ) est un couple de variables aléatoires réelles indépendantes
telles que X 1 soit discrète, d’ensemble de valeurs possibles D1 , etX 2 λ ∈ R∗+ , Si (X k )k =1,...,n est une famille de variables aléatoires indépen-
soit continue, de densité f2 , alors la variable aléatoire S = X 1 + X 2 est dantes suivant la même loi exponentielle, de paramètre λ, alors la
n
à densité de densité : X k suit la loi gamma Γ ( λ1 , n ).
P
X variable
k =1
f :s → P (X 1 = u )f2 (s − u )
u ∈D1
Preuve
Preuve Se déduit du théorème de stabilité de la loi Γ puisque une loi E (λ) est une loi
Γ ( λ1 , 1)
Soit s ∈ R.
(X 1 + X 2 ≤ s ) = ∪ (x = u, X 2 ≤ s − u)
u ∈D1
Théorème 7.9 - Stabilité de la loi normale
Les deux variables sont indépendantes et D est au plus dénombrable. Donc
X Soit X ,→ N (m , σ2 ) et Y ,→ N (m 0 , σ02 ). Si X et Y sont indépendantes,
P (X 1 + X 2 ≤ s ) = P (X 1 = u , X 2 ≤ s − u ) alors
u∈D1
X X + Y ,→ N (m + m 0 , σ2 + σ02 )
= P (X 1 = u)P (X 2 ≤ s − u )
u∈D1
X
Z s −u
= P (X 1 = u) f (t )d t Preuve
u∈D1 −∞
X
Z s On commence à le démontrer pour le cas où m = m 0 = 0.
= P (X 1 = u) f (t − u )d t Z +∞
u∈D1 −∞ 1 t2 (x −t )2
s
f X +Y (x ) = e − 2σ2 e − 2σ02 dt
2πσσ0
Z
X −∞
= P (X 1 = u )f (t − u ) d t !2
+∞ Z v !
−∞ u∈D1 1 1 t 1 1 x x 02
= exp − + t− +
σ2 σ02 σ2 + σ02
q
2πσσ0 −∞ 2 σ02 σ12 + σ102
Dans le cas discret infini où D = (u ) , l’interversion de série et integrale vient
P Rns n ∈N !2
de la convergence de la série n −∞ |P (X 1 = u n )f (t − u n )|d t du fait que toute Z +∞ v
1 −1 x
02 1 t 1 1 x
somme finie est inférieure à P (X 1 + X 2 ≤ s ) = e 2 σ2 +σ02 exp − + t−
σ2 σ02
q
2πσσ0 −∞
2 σ02 1 + 1 σ2 σ02
2
dont les lois sont continues, de densités respectives f1 et f2 , alors la
0
1 −1 p x
f X +Y (x ) = p p e 2 σ2 +σ02
2π σ2 + σ02
s.hajmi@gmail.com 12
VARIABLES ALÉATOIRES
Corollaire 7.3
Soit X 1 , ..., X n mutuellement indépendantes, telles que pour tout i ∈ 2.8
2 Transferts
|[1, n ]|, X i ,→ N (mi , σi2 ). Alors
n n n
X X X Théorème 8.1 - Théorème de transfert
X i ,→ N ( mi , σi2 )
i =1 i =1 i =1 1. Si X est une variable aléatoire disctète de loi (xn , pn )n ∈I , alors la
En particulier variable aléatoire Y = g (X ) admet une espérance si et seulement
si la famille (g (xn )P (X = xn ))n∈I est sommable. Auquel cas :
1. Soit X 1 , ..., X n mutuellement indépendantes, suivant toutes la X X
même loi N (m, σ2 ). Alors E (g (X )) = g (xi )P (X = xi ) = g (x )P (X = x )
Xn i ∈I x ∈X (Ω0 )
X i ,→ N (nm, n σ2 ) 2. Si X est une variable aléatoire continue, et g continue, alors la
i =1
variable aléatoire Y = g (X ) admet une espérance si et seulement
2. Si (X 1 , ..., X n ) sont mutuellement indépendantes et suivent si la fonction t → g (t )f X (t ) est intégrable sur R. Auquel cas :
toutes la même loi N (0, 1), alors : Z +∞
Xn
E (g (X )) = g (t )f X (t )d t
X i ,→ N (0, n ) −∞
i =1
3. Si (X 1 , X 2 ) est un couple de variables aléatoires réelles de loi
discrète (loi conjointe caractérisée par ((xi , y j ), pi , j )i , j , alors la
variable aléatoire Y = g (X 1 , X 2 ) admet une espérance si, et seule-
8 Espérance, moment ment si, la famille double (g (xi , y j )pi , j )i , j est sommable. Auquel
cas l’espérance de Y = g (X 1 , X 2 ) est donnée par :
X
1.8
1 Dénitions E (g (X 1 , X 2 )) = g (xi , x j )pi , j
i,j
L’idée de l’espérance trouve son origine dans les jeux de hasard. Considé-
rons le jeu qui consiste à lancer un dé plusieurs fois de suite. Supposons
Remarque 17
que pour une mise de 1 pièce, on gagne 1 pièce si le résultat obtenu est
pair, 2 pièces si le résultat est 1 ou 3, et on perd 3 pièces si le résultat est Avec ce théorème il n’est pas nécessaire de connaitre la loi de Y .
5. Est-il intéressant de jouer à ce jeu ? Quel peut-être le gain moyen ?
Soit X la variable aléatoire correspondant au nombre de pièces gagnées Proposition 8.1
ou perdues. La loi de X est X admet une espérance si et seulement si |X | l’admet. Au quel cas :
x −3 1 2
|E (X )| ≤ E (|X |)
P (X = x ) 16 1
2
1
3
L’espérance de gain, noté E [X ], est alors
Preuve
E [X ] = −3 ∗ 1/6 + 1 ∗ 1/2 + 2 ∗ 1/3 = 2/3
Supposons que E (X ) existe, alors en appliquant le théorème de transfert à g :
Le joueur gagne donc en moyenne 2/3 de pièces pour une mise de 1 x → |x |, E (|X |) existe et on obtient
— Au cas discret :
pièce. . .le jeu semble ne pas être intéressant ! !.
X
E (|X |) = |xi |P (X = xi )
i
X une variable aléatoire discrète de loi (xn , pn )n∈I (I au plus E (|X |) = |t | f X (t )d t < +∞
−∞
dénombarble), on dit que X admet une espérance si la famille
(xn , pn )n∈I est sommable, auquel cas l’espérance est définie : Inversement supposons que |X | admet une espérance, alors :
X X X X
E (X ) = xn pn = x P (X = x ) |xi |P (X = xi ) ≤ |xi |P (|X | = |xi |)
i ∈I i ∈I
i ∈I x ∈X (Ω0 )
D’où l’existence de E (X ), et on a
2. Cas continu X X
X une variable aléatoire continue de densité de probabilité f X , |E (X )| = | xi P (X = xi )| ≤ |xi |P (X = xi ) = E (|X |)
on dit que X admet une espérance si la fonction t → t f X (t ) est i ∈I i ∈I
intégrable sur R, auquel cas on définit l’espérance de X par De même pour le cas continu.
Z +∞
E (X ) = t f X (t )d t 3.8
3
−∞
Propriétés de l'éspérance
Lorsqu’une variable X vérifie E [X ] = 0, on dit que la variable est Proposition 8.2
centrée. Si X et Y sont des variables aléatoires réelles sur l’espace probabilisé
(Ω, T , P ), si Y admet une espérance et si |X | ≤ Y alors X admet une
s.hajmi@gmail.com 13
VARIABLES ALÉATOIRES
E (X ) = t f (t )d t ≥ 0
0
Preuve
5. Se déduit de la positivité de X et de la linéarité.
Pour la démonstration, on se limite au cas discret.
L’idée est d’utiliser le fait que Définition 8.2
X Si X admet un moment d’ordre 1, on appelle variable centrée associée
P (X = x ) = P (X = x , Y = y )
y ∈Y (Ω)
à X la variable aléatoire centrée
!
X̃ = X − E (X )
X X X
|x |P (X = x ) = |x | P (X = x , Y = y )
x ∈X (Ω) x ∈X (Ω) y ∈Y (Ω)
=
X X
|x |P (X = x , Y = y )
Proposition 8.3
x ∈X (Ω) y ∈Y (Ω) Soit (X 1 , . . . , X N ) une suite de v.a. indépendantes sur (Ω, A , P ). Alors le
produit X 1 · · · X N a une espérance si et seulement si chaque X j a une
X X
≤ |y |P (X = x , Y = y )
x ∈X (Ω) y ∈Y (Ω) espérance. Dans ces conditions l’espérance du produit est le produit
des espérances :
Car lorsque |x | > y , alors l’événement (X = x , Y = y ) est impossible et donc
IE(X 1 · · · X N ) = IE(X 1 ) · · · IE(X N ).
|x |P (X = x , Y = y ) ≤ y P (X = x , Y = y )
Propriétés 8.1 X
X
X
!
1. si X = a , alors E (X ) = a . E (X 1 X 2 ) = xi y j pi p j = xi pi y j q j = E (X 1 )E (X 2 )
i,j i ∈I j ∈J
2. ∀A ∈ T , E (1A ) = P (A).
3. linéarité : E (X + λY ) = E (X ) + λE (Y ) si les espérances de X et
Y existent. 4.8
4 Moments d'ordre 2, variance convariance
4. positivité : si X ≥ 0, alors E (X ) ≥ 0.
Définition 8.3
5. croissance : si X ≥ Y , alors E (X ) ≥ E (Y ).
Le moment d’ordre k d’une variable aléatoire X est sous reserve d’exis-
tence E (X k )
Preuve
Proposition 8.4
1. Si X = a , alors X (Ω) = {a }. Si la variable aléatoire réelle X admet un moment d’ordre k ∈ N∗ , alors
E (X ) = a P (X = a ) = a .
2. X = 1A , donc X (Ω) = {0, 1}. elle admet un moment d’ordre j pour tout j ∈ {1, ..., k } ; de même la
E (X ) = 0P (X = 0) + 1P (X = 1) = P (A). variable aléatoire réelle X + α admet un moment d’ordre k , pour tout
3. Pour la démonstration, on se limite au cas discret D1 = (xi )i ∈I , D2 = (y j ) j ∈J réel α.
les valeurs possibles de X respectivement Y .(pi )i ∈I , (q j ) j ∈J leurs lois de
probabilité respectives et (pi , j )i , j la loi conjointe.
X + λY = g (X , Y ), avec g (x , y ) = x + λy , on applique alors le théorème
de transfert. Preuve
X + λY admet une espérance si et seulement si la famille ((xi + λy j )pi , j )i , j
est sommable. On se limite encore au cas discret.
Soit j ≤ k , nous avons |X j | ≤ |X | j , par le théorème de transfert il suffit de montrer
|xi + λy j |pi , j | ≤ |xi |pi , j | + |y j |pi , j la sommabilité de
|xi | j P (X = xi )i ∈I
On montre séparement que les familles (|xi |pi , j )i , j et (|y j |pi , j )i , j sont som-
On partage I en les deux paquets :
mables. On applique pour cela le théorème de Fubini pour la sommabilité
de famille double.
P
Pour i fixé j ∈J |xi |pi , j existe et I1 = {i ∈ I1 , |xi | ≤ 1}, I2 = {i ∈ I , |xi | > 1}
∀i
P ∈ I1 , |xj i | ≤ 1. Donc :
Par existence de E (X ) ; i ∈I |xi |pi existe. D’où la sommabilité de (xi pi j ). i ∈I1 |x i | P (X = x i ) ≤ P (X ∈ ∪ {x i }) < +∞.
P
i ∈I1
Par symétrie, on aura de même la sommabilité de (y j )pi j . D’où la sommabilité de (|xi |P (X = xi ))i ∈I1 .
Finalement on a la sommabilité de (xi + λy j )pi j et l’existence de E (X + X + α admet aussi une espérance du fait précédent et du fait
λY ).
Toujours par le théorème de Fubini : k
X k k −i i
(X + α)k = α X
i
XX XX
E (X + λY ) = xi pi j + λ y j pi j i =1
i ∈I j ∈J j ∈J i ∈I
X X
= xi pi + λ yj q j Définition 8.4
i ∈I j ∈J
= E (X ) + E (Y )
Si la variable aléatoire réelle X admet un moment d’ordre 2, on appelle
variance de X la quantité
xi P (X =
P
4. Si X ≥ 0, les valeurs possibles seront positives, et par suite i ∈I
xi ) ≥ 0. Var(X) = E((X − E(X))2 )
s.hajmi@gmail.com 14
VARIABLES ALÉATOIRES
Preuve
Proposition 8.5 - translation et changement d’échelle 1. |X Y | ≤ X 2 + Y 2 , l’existence de l’espérance de X Y s’en déduit par l’exis-
tence de E (X 2 ) et E (Y 2 ). Pour l’inégalité, on procède comme pour un pro-
. Si X a un moment d’ordre 2, alors duit scalaire.
Si l’une des variables est nulle, le résultat est immédiat. Supposons pour
∀a ∈ R, ∀b ∈ R, Var(aX + b) = a2 Var(X), σ(aX + b) = |a|σ(X). tout t ∈ R le trinôme
t 2 E (Y 2 ) + 2t E (X Y ) + E (X 2 ) = E (X + t Y )2
Preuve
est positif. Ceci n’est possible que si son discriminant est négatif.
Ceci se traduit par :
Se déduit de la linéarité de l’espérance.
Remarque 18
Définition 8.6
La variance est donc une moyenne de l’écart entre X et sa moyenne Si X et Y sont des variables aléatoires réelles admettant un moment
au carré. Elle caractérise la dispersion de X par rapport ‘ a sa d’ordre 2, on définit la covariance du couple (X , Y ) par la formule
moyenne. Pour des raisons d’homogénéité, on lui préfère souvent
dans les applications pratiques l’écart-type. C (X , Y ) = E ((X − E (X ))(Y − E (Y ))) = E (X Y ) − E (X )E (Y ).
Remarque 19
Preuve
La covariance entre les variables X et Y un nombre permettant
de quantifier leurs écarts conjoints par rapport à leurs espérances
E ((X − E (X )) )
2
= E (X + 2E (X )X + (E (X )) )
2 2
respectives
= E (X 2 ) − 2E (X )E (X ) + (E (X ))2
= E (X 2 ) − (E (X ))2
Proposition 8.9
Si X et Y sont des variables aléatoires réelles admettant un moment
Proposition 8.7
d’ordre 2 et si ces variables sont indépendantes, leur covariance est
X une variable aléatoire admettant un moment d’ordre 2.
nulle.
1. Si X ≥ 0 et E (X ) = 0, alors X = 0 presque surement. Auquel cas La variance de la somme est alors la somme des va-
2. Var(X) = 0 si et seulement si X = a constante presque surement. riances.
Preuve Preuve
1. Supposons que x ∈X (ω0 ) x P (X = x ) = 0, alors pour tout x 6= 0, Se déduit de la proposition 8.3. Les deux varibales sont indépendantes, donc
P
E (X Y ) = E (X )E (Y ), de là on obtient C (X , Y ) = E (X Y ) − E (X )E (Y ) = 0
P (X = x ) = 0. Ainsi
X
P (X 6= 0) = P (X = x ) = 0
x 6=0
Définition 8.7 — Corrélation linéaire :
Si X et Y sont des variables aléatoires réelles admettant un moment
2. Var(X) = E((X − E(X))2 ), d’après le résultat précédent on aura X = E (X ) d’ordre 2 de lois non certaines (i.e. variances non nulles), on définit le
presque surement.
coefficient de corrélation linéaire du couple (X , Y ) par la formule
Proposition 8.8 C (X , Y )
ρ(X , Y ) =
Si X et Y sont des variables aléatoires réelles admettant un moment σ(X )σ(Y )
d’ordre 2, alors :
1. la variable aléatoire X Y admet une espérance et
Définition 8.8
(E (X Y ))2 ≤ E (X 2 )E (Y 2 ) (Cauchy-Schwarz)
Deux variables X , Y dont le coefficient de corrélation ρ est nul sont
avec égalité si et seulement si X = 0 ou ∃α : Y = αX presque dites décorrélées. Ce qui est équivalent à Var(X + Y) = Var(X) + Var(Y)
sûrement.
2. S = X + Y admet un moment d’ordre 2 et sa variance V (S ) est
s.hajmi@gmail.com 15
VARIABLES ALÉATOIRES
d) Vérifier que
+∞
Exemple 15 X
P (X n = n + k ) = 1
k =0
Soit X qui suit une loi uniforme sur {−1, 0, +1} et Y définie par
Y = X 2 . Alors par le théorème de transfert : En déduire P (X n = 0).
On dit que X n suit la loi binomiale négative de para-
1 1 mètres n et p.
E (X Y ) = E (X 3 ) = (−1)3 + = 0
3 3 Pour la suite on pourra utiliser les identités
Un calcul similaire montre que E [X ] = 0, donc sans même calculer
n +k −1 n +k
E [Y ], on a aussi E [X ]E [Y ] = 0. ∀n ∈ N∗ , ∀k ∈ N, (n + k ) =n
Il s’ensuit que : n −1 n
n +k −1 n +k −2
C (X , Y ) = E [X Y ] − E [X ]E [Y ] = 0 n −1
∀n ¾ 2, =
n +k −1 n −1 n −2
c’est-à-dire que X et Y sont décorrélées. Mais ne sont pas indépen-
3. En utilisant le fait que, pour tout entier naturel n ,
dantes. P (X = 1, Y = 1) = P (X = 1) 6= P (X = 1)P (Y = 1) +∞
X
P (X n +1 = n + 1 + k ) = 1, montrer que X n possède une es-
k =0
Proposition 8.10 pérance et donner sa valeur en fonction de n et p .
Le coefficient de corrélation linéaire du couple (X , Y ) est un élément 4. Utiliser le théorème de transfert pour montrer que, pour tout
de l’intervalle [−1, 1]. n −1
entier naturel n supérieur ou égal à 2, possède une
Le cas ρ = 1 équivaut à (Y = αX + β avec α > 0) p.s Xn − 1
le cas ρ = −1 équivaut à (Y = αX + β avec α < 0) p.s n −1
espérance et que E = p.
Xn − 1
n
5. a) Justifier que possède une espérance (on n’en demande
Xn
Preuve pas le calcul).
n
Par l’inégalité de Cauchy Schwartz b) Montrer, sans la calculer, que E > p.
Xn
|C (X , Y )| = |E ((X − E (X )(Y − E (Y ))| ≤ σ(X )σ(Y )
D’où Solution
|ρ(X , Y )| ≤ 1
1. a) X 1 est le temps d’attente du premier succés. Il s’agit donc de la
p p
ρ(X , Y ) = 1 ⇐⇒ E ((X − E (X ))(Y − E (Y ))) = E (X − E (X )) E (X − E (X )) loi gémétrique.
C’est un cas d’égalité dans l’inégalité de Cauchy-Schwartz. ce qui se traduira de
manière équivalente par le fait que X = E (X ) ou il existe α > 0 tel que Y − E (Y ) = P (X 1 = k ) = (1 − p )k −1 p
α(X − E (X )),
C’est à dire encore X = E (X ), ou Y = αX + β . b)
On fait de même lorsque ρ = −1. 1
E (X 1 ) =
p
Remarque 21
1−p
Var(X 1 ) =
le coefficient de corrélation linéaire qui est une mesure de la direc- p2
tion et de l’intensité de l’association linéaire entre deux variables. 2. a)
X n (Ω) = |[n , +∞[∪{0}
Exercice 11: EDHEC 2003 S
b) On reconnait la loi binomiale B(n + k − 1, p ) qui compte le
n désigne un entier naturel non nul. nombre succés au cours des n + k − 1 premières épreuves.
On effectue une suite d’épreuves de Bernoulli indépendantes La probabilité cherchée est donc
telles que pour chacune d’entre elles, la probabilité de succès soit
n + k − 1 n −1
égale à p , avec 0 < p < 1. p (1 − p )k
On note X n le nombre d’épreuves qu’il faut réaliser pour obtenir, n −1
pour la première fois n succès, pas forcément consécutifs (X n est
c) l’événment "X n = n + k " signifie que l’on a obtenu n − 1 succés
donc le numéro de l’épreuve où l’on obtient le n -ième succès). On
au cours des n +k −1 premiers tirages et le dernier tirage donne
convient que X n = 0 si l’on n’obtient pas n succès. aussi un succés, donc
1. Dans cette question seulement, on considère le cas n = 1.
n + k − 1 n −1 n +k −1 n
a) Reconnaître la loi de X 1 . P (X n = n +k ) = p p (1 − p )k = p (1−p )k
n −1 n −1
b) Donner l’espérance et la variance de X 1 .
d) Partant de la série entière géométrique
Dans toute la suite, on suppose que n ¾ 2.
+∞
2. a) Déterminer X n (Ω). 1 X
= xk
b) Pour tout entier naturel k , calculer la probabilité que l’on 1 − x k =0
obtienne n − 1 succès au cours des n + k − 1 premières
En dérivant r fois, on obtient : ∀x ∈] − 1, 1[.
épreuves.
+∞
k +r k
1 X
= x
(1 − x )r +1 k =r r
s.hajmi@gmail.com 16
VARIABLES ALÉATOIRES
Si X est une
Pvariable aléatoire à valeurs dansPN, alors par convergence
de la série P (X = n) la série entière réelle P (X = n)t n est de rayon Preuve
de convergence aux moins égal à 1.
C’est une conséquence immédiate du corollaire précédent.
Définition 9.1
X une variable aléatoire,
P la somme de la série entière associée à la loi Exemple d’application 1: Détermination de E (X ) et Var(X) à
de probabilité de X P (X = n)t n s’appelle la fonction génératrice de l’aide de G X
X et se note G X .
+∞
1. Loi de Bernoulli : X ,→ B(p ).
X
G X (t ) = P (X = k )t k = E (t X ) +∞
X
k =0 G X (t ) = P (X = k )t k = t P (X = 1) + P (X = 0) = t p + (1 − p )
k =0
1 1−p
Proposition 9.2 E (X ) = , Var(X) =
p p2
Si X une variable aléatoire à valeurs dans N, et G X sa fonction généra-
trice, alors 3. Loi de poisson : X ,→ (P ).
(n)
G (0)
∀n ∈ N : P (X = n ) = X +∞
n!
X tk k
G X (t ) = e −λ t = e λ(t −1)
Autrement dit La fonction génératrice définit la loi de probabilité k =0
k!
s.hajmi@gmail.com 17
VARIABLES ALÉATOIRES
Définition 10.2
Proposition 9.4
La transformée de Laplace (ou fonction génératrice des moments)
Si X 1 , ..., X n des variables aléatoires entières indépendantes, alors
d’une variable aléatoire réelle X est la fonction L X définie par
n
Y
GP GXi
Z
n
i =1
Xi
i =1 L X (t ) = E (e −t X ) = e −t x f X (t )d t
R
Cas discrét
P :
E (X ) = x ∈D x P (X = x ) ≥ x ≥α x P (X = x ) ≥ αP (X ≥ α).
P
G X +Y (t ) = G X (t )G Y (t ) Cas continu
R +∞ : R +∞ Rα
E (X ) = −∞ t f X (t )d t = 0 t f X (t )d t ≥ α 0 f X (t )d t = αP (X ≥ α)
= e λ(t −1) e µ(t −1)
= e (λ+µ)(t −1) Théorème 11.2 - Inégalité Bienaymé-Tchebychev
Une fonction génratrice caractérise la loi, on reconnait une Si X est une variable aléatoire admettant un moment d’ordre 2, alors
loi P (λ + µ). Var(X)
∀β > 0, P (|X − E (X )| ≥ β ) ≤
2. Si X et Y sont deux variables indépendantes suivants β2
respectivement des loi binômiales B(n1 , p ), B(n2 , p ), alors
X + Y ,→ B(n1 + n2 , p ). En effet
Preuve
Remarque 23
s.hajmi@gmail.com 18
VARIABLES ALÉATOIRES
[t ] [t ]
On procède à n déclenchement du flash et l’on pose S égale au FX n (t ) =
P
P (X n = k ) −→
P
P (Y = k ) = FY (t )
nombre de fois où il a fonctionné. k =0 k =0
Var(X)
∀t > 0, P (|Sn − E (Sn )| ≥ t ) ≤
t2
Proposition 11.1 E (Sn ) = n E (X 1 ), Var(Sn ) = nVar(X 1 ).
Si (fk ) est une suite de fonctions R → R convergeant simplement vers Pour t = n", on obtient
g , et si X est une variable aléatoire de sorte que fk (X ) et g (X ) restent
Sn Var(X 1 )
des variables aléatoires, alors la suite de fonctions (fk (X )) converge P (|
n
− E (X 1 )| ≥ ") ≤
n "2
−→ 0
en probabilité vers g (X )
Théorème 11.6 - Théorème de la limite centrée
Preuve Si (X n ) est une suite de variables aléatoires indépendantes de même
loi admettant un moment d’ordre 2, alors la suite
Posons A k = {ω ∈ Ω, | fk (X (ω)) − g (X (ω))| ≥ "}. n
Posons ensuite Bk = ∪ A k , la suite (Bk ) est décroissante, par convergence simple, 1 X
n≥k p X k − nm
on a ∩ Bk = ;. par théorème de limite monotone, on aura 0 = lim P (Bk ). σ n k =1
k k →+∞
Comme 0 ≤ P (A k ) ≤ P (Bk ), donc lim P (A k ) = 0, ce qui traduit exactement la
k →+∞
converge en loi vers une loi normale centrée réduite N (0, 1) où m est
convergence en probabilité. l’espérance commune et σ l’écart-type commun.
Voir annexe
Preuve
=⇒) P (X n = k ) = FX n (k ) − FX n (k − 1) −→ FY (k ) − FY (k − 1) = P (Y = k ).
⇐=), pour t < 0, on a bien FX n (t ) = 0 −→ 0 = PY (t ). supposons que t > 0,
s.hajmi@gmail.com 19