Beruflich Dokumente
Kultur Dokumente
Consignes :
- Sont interdits : Documents, calculettes, téléphones, écouteurs, ordinateurs, tablettes.
- Il est interdit de composer avec un crayon.
- Votre feuille double d’examen doit porter, à l’emplacement réservé, vos nom, prénom, et signature.
- Cette zone réservée doit être cachée par collage.
- Vos feuilles intercalaires doivent êtres toutes numérotées.
- Le barème est donné à titre indicatif.
- Toute réponse non justifiée comptera pour zéro.
5. Calculer Cov(X, Y ).
Solution 1
2. X et Y ne sont clairement pas indépendantes du fait de la relation d’ordre entre X et Y (les valeurs de l’une
dépendent donc des valeurs de l’autre).
R∞
3. La densité de X est fX (x) = −∞ f (x, y)dy, x ∈ R. On a X(Ω) = [0, 1]. Par conséquent, pour tout x 6∈ [0, 1], on
a
fX (x) = 0.
fY (y) = 0.
et
Z ∞ Z ∞ Z 1 Z x
1
E(XY ) = xyf (x, y)dxdy =xy dy dx
−∞ −∞ 0 0 x
Z 1 Z x Z 1 2 x Z 1 1
1 x3
y 1 1
= ydy dx = dx = x2 dx = = .
0 0 0 2 0 2 0 2 3 0 6
On en déduit que
1 1 1 1
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = − × = .
6 2 4 24
Exercice 2 (5 pts)
1. On rappelle l’inégalité de Markov : Si Y est une v.a. réelle positive d’espérance E(Y ) < ∞, alors, pour tout
)
p
> 0, on a : P Y > 6 E(Y . On rappelle aussi que pour toute v.a réelle T , on a E(|T |) 6 E(T 2 ).
Soit X une v.a. Binomiale de loi B(4, 12 ). Montrer que, pour tout > 0 on a : P (|X − 2| > ) 6 1 .
2. On rappelle l’inégalité de Bienaymé-Chebychev : Si X est une v.a. réelle d’espérance E(X) et de variance
V(X) < ∞, alors, pour tout > 0, on a : P |X − E[X]| > 6 V(X) 2 .
n
Soit (Xn )n∈N∗ une suite de v.a. i.i.d. de loi B(4, 21 ). On pose X n = n1
P
Xi .
i=1
Montrer que la suite (X n )n∈N∗ converge en probabilité vers 2.
√
3. Soit la v.a Z n = n(X n − 2). Que elle est la loi limite de la suite de v.a. (Z n )n∈N∗ ? donner la (les) valeur(s) de
son (ses) paramètre(s).
Solution 2
1. Inégalité de Markov : Si Y est une v.a. réelle positive d’espérance E(Y ) < ∞, alors, pour tout > 0, on a :
) 1 1
P Y > 6 E(Y . X une v.a. de loi Binomiale B(4, 2 ) donc E(X) = 4 × 2 = 2. En posant la v.a. Y = X − E(X),
|)
selon l’inégalité de Markov, pour tout > 0, on a : P |Y | > 6 E(|Y . (la valeur absolue de Y étant une v.a
réelle positive).
p p p q
De plus, on sait que E(|Y |) 6 E(Y 2 ) donc E(|Y |) 6 E ((X − E[X])2 ) = V(X) = 4 × 21 (1 − 12 ) = 1. Donc
au final, pour tout > 0, on a : P (|X − 2| > ) 6 1 .
2. Soit (Xn )n∈N∗ une suite de v.a.r. i.i.d. admettant un moment d’ordre 2. Pour tout n ∈ N∗ , on pose
n
1X
Xn = Xi .
n i=1
D’où
V(X1 ) 1
0 6 lim P X n − E(X1 ) > 6 lim = 0,
n→∞ 2 n→∞ n
soit
lim P X n − E(X1 ) > = 0.
n→∞
1
Cela traduit la convergence en probabilité de (X n )n∈N∗ vers E(X1 ). Et on a E(X1 ) = 4 × 2 =2
n −E(X n )
√
3. d’après le TCL, la suite de v.a. (Z n )n∈N∗ tel que Zn = X√ √n1−E(X1 ) = √
=X X n −2
1
= n(X n − 2) converge
V(X n ) n V(X 1 ) n ×1
vers une v.a de loi normale centrée réduite.
Exercice 3 (5 pts) Soient X1 et X2 deux v.a Gaussiennes où X1 ∼ N (0, 1), X2 ∼ N (1, 1) et ρ = √1 , ρ étant le
2
coefficient de corrélation linéaire. Soit Y = (Y1 , Y2 )> le vecteur aléatoire tel que
Y = AX + b,
1 0
où A = , X = (X1 , X2 )> et b = (1, 2)> .
− √12 1
1. Déterminer E(X).
2. Déterminer cov(X).
3. Déterminer E(Y ).
4. Déterminer cov(Y ).
5. En déduire la loi de Y .
Solution 3
E(Y ) = AE(X) + b
1 0 0 1 1
= + = .
1
− √2 1 1 2 3
4. On a
cov(Y ) = A cov(X)A>
1 0 1 √1 1 − √12
= 2
− √12 1 √1
2
1 0 1
1 √12 1 − √12
=
0 12 0 1
1 0
= ·
0 12
5. Comme X = (X1 , X2 )> est un vecteur gaussien et Y est de la forme Y = AX + b, alors Y est aussi un vecteur
gaussien. Son espérance et sa matrice de covariance sont celles calculées dans les questions 3- et 4-.
1 1 x−µ 2
f (x; µ, σ 2 ) = √ e− 2 ( σ ) , ∀x ∈ R
σ 2π
avec µ ∈ R et σ > 0. On dispose d’un n-échantillon (X1 , · · · , Xn ) i.i.d selon la loi N (µ, σ 2 ). Soit µ le paramètre
inconnu à estimer (on suppose que la variance σ 2 est connue).
2. Soit µ
b l’estimateur du maximum de vraisemblance de µ
Solution 4
1
B = − h 2 i
∂ ln L(µ)
E 2
∂ µ
1 1
(on peut utiliser dans ce cas i.i.d aussi la forme B =
∂ ln f (xi ;µ,σ 2 ) 2
ou encore B = − h
∂ 2 ln f (xi ;µ,σ 2 )
i ),
nE nE ∂2 µ
∂µ
Ainsi, on a
n
∂ ln L(µ) 1 X
= (xi − µ) (2)
∂µ σ 2 i=1
∂ 2 ln f (x; µ) n
= − . (3)
∂2µ σ2
σ2
Par conséquent, la borne inférieure de Cramer-Rao est donnée par B = n .
qui correspond au zéro de la fonction de log-vraisemble en µ. D’après (1) et (2), les zéros de la fonction
ln L(µ) sont définis par
n
X n
X
(Xi − µ) = Xi − nµ = 0
i=1 i=1
ce qui correspond à
n
1X
µ
b= Xi ,
n i=1
soit la moyenne empirique !
Pn Pn
(b) on a E[bµ] = E[ n1 i=1 Xi ] = n1 i=1 E[Xi ] = µ. L’estimateur µb est donc sans biais. Sa variance est Var(b
µ) =
n n 2
Var( n1 i=1 Xi ) = n12 i=1 Var(Xi ) = n12 nσ 2 = σn . Il est donc à variance minimale. Par conséquent, µ
P P
b est
un estimateur efficace pour µ.
σ2
(c) µ
b est sans biais ; de plus, on a limn→∞ Var(b
µ) = limn→∞ n = 0. Il est donc convergent.
2
b ∼ N (µ, σn ) (b
(d) µ µ ici est une somme pondérée de variables Gaussiennes, il est donc gaussien).