Sie sind auf Seite 1von 9

Correction de lexamen de Statistique du

Mardi 7 decembre 2010

Exercice 1 : Estimation

On considere n variables aleatoires X1 , ..., Xn independantes suivant la meme loi de densite


 
 2
 x x2
f x; = 2 exp 2 IR+ (x)
2
avec > 0 et ou IR+ (x) est la fonction indicatrice sur R+ (IR+ (x) = 1 si x R+ et IR+ (x) = 0 si
x/ R+ ). Cette loi est appelee loi de Rayleigh et on utilisera la notation habituelle Xk R ( 2 ).
On admettra que les premiers moments deles resultats suivants
  
 2 2
 3  
E [Xk ] = , E Xk = 2 , E Xk = 3 3 et E Xk4 = 8 4 .
2 2
Estimateur du Maximum de Vraisemblance
1) La vraisemblance de (x1 , ..., xn ) est denie par
n

L(x1 , ..., xn; ) = f (xi ; ) ,


i=1

n  2
xi x
= exp IR+ (xi ) ,
i=1
2
n n
 n
x 1

i=1 i 2
= exp x IR+ (xi ) .
n 2 i=1 i i=1

On a alors n n
1 2
ln L(x1 , ..., xn ; ) = n ln + ln (xi ) x.
i=1
2 i=1 i
ln L(x1 ,...,xn ;)
En etudiant le signe de
, on obtient :
n
ln L(x1 , ..., xn ; ) n 1 2
0 + 2 x 0,
2 i=1 i
n
1 2
x.
2n i=1 i
1
n
La vraisemblance possede donc un maximum global unique obtenu pour = 2n i=1 x2i dou
n
1 2
MV = X .
2n i=1 i

1
2) La moyenne de lestimateur MV est
  n
1  2
E MV = E Xi
2n i=1
n
1  2
= 2
2n i=1
= 2 =

Lestimateur MV est donc un estimateur non biaise de . La variance de lestimateur MV est
n 
  1
var MV = 2
var Xi2 ,
4n i=1
1  2
= var X1 ,
4n
1   4  2 
= E X1 E X12 ,
4n
1  4 
= 8 4 4
4n
4
=
n

Lestimateur MV est un estimateur non biaise de tel que


 
lim var MV = 0
n

donc lestimateur MV est convergent.


3) La borne de Cramer-Rao pour les estimateurs non biaises du parametre est denie par
1
BCR () =  ,
ln L(X1 ,...,Xn ;)
E 2
n
1
n 1 2
= E + 2 X ,
2 i=1 i
n
1
n 2 2
= E 2 3 X
2 i=1 i
 1
n 1 2
= 2 + 3 (2n) =
n
 
Puisque MV est un estimateur non biaise de et que var MV =BCR(), lestimateur MV est
lestimateur ecace de .

2
Estimation Bayesienne
On suppose desormais quon dispose dune information a priori sur le parametre resumee dans
la loi inverse-gamma IG (, ) de densite

1
f () = exp IR+ ()
() +1
1) La loi a posteriori de | x1 , ..., xn secrit
f ( | x1 , ..., xn ) f ( x1 , ..., xn | ) f ()
n
 
1 1 2 1
n exp x exp IR+ ()
2 i=1 i +1
 n 
1 1 1 2
n++1 exp x + IR+ ()
2 i=1 i
Cette densite est la densite dune loi inverse-gamma
 n

1
| x1 , ..., xn IG n + , x2i +
2 i=1

2) Lestimateur du maximum a posteriori du parametre note MAP est obtenu en maximisant le


logarithme de la loi a posteriori f ( | x1 , ..., xn ). Mais
n 
1 1 2
ln [f ( | x1 , ..., xn )] = C (n + + 1) ln x +
2 i=1 i

dou
n 
ln [f ( | x1 , ..., xn )] n++1 1 1 2
0 + 2 x + 0
2 i=1 i
n 
1 1 2
x +
n + + 1 2 i=1 i

La loi a posteriori f ( | x1 , ..., xn ) possede donc un unique maximum global, dou


n 
1 1
MAP = X2 +
n + + 1 2 i=1 i

On peut exprimer MAP en fonction de MV puisque


n

1 1
MAP = Xi2 +
1 + +1
n
2n i=1
n
1 
= +1 MV +
1+ n n++1

Lestimateur MAP se comporte donc MV comme lorsque n . Lorsquon a beaucoup dobservations,
on fait conance a ces observations et donc leet de la loi a priori est negligeable.

3
Methode des Moments
1) La moyenne dune loi de Rayleigh est


E [X] =
2
donc
2
= 2 = [E [X]]2

Lestimateur des moments resultant de cette derniere egalite est
n 2
2 1
M = Xi
n i=1

2) La moyenne de lestimateur M est


n 
  2 n
E M = E Xi Xj
n2 i=1 j=1
2
= E [Xi Xj ]
n2 i,j
2   2  2  2
= nE X i + n n E [Xi ]
n2
2   2  
= 2n + n n
n2 2
4 + (n 1)
=
n
On en deduit un estimateur non-biaise du parametre
n 2
n 2n 1
 = M = Xi
4 + (n 1) 4 + (n 1) n i=1

4
Exercice 2 : Test de Neyman-Pearson

1) Le test de Neyman-Pearson est deni par

L(x1 , ..., xn ; 1 )
Rejet de H0 si > k .
L(x1 , ..., xn ; 0 )

Mais
n   
xi
L(x1 , ..., xn ; 1 )
i=1
1n
exp 211 ni=1 x2i
> S n  n 2  > k ,
L(x1 , ..., xn ; 0 ) i=1 xi 1
exp 20 i=1 xi
0n

n
1 1
x2i > k
0 1 i=1

1 1
Pour 1 > 0 , on a 0
1
> 0 et donc on en deduit le test equivalent
n

Rejet de H0 si Xi2 > s .
i=1

1 1
Pour 1 < 0 , on a 0
1
< 0 et donc le test secrit
n

Rejet de H0 si Xi2 < s .
i=1

La statistique du test de Neyman-Pearson est donc


n

Tn = Xi2 .
i=1

La region critique de ce test est denie par

Si 1 > 0   
 n

x Rn  x2i > s .

i=1

Si 1 < 0   n 

n 2
xR  xi < s .

i=1

Xk2
2) Le changement de variables Yk = 2
est bijectif de R+ dans R+ . De plus

x2k
yk = 2
xk = yk

5
Le Jacobien de la transformation est donc
dxk
J= =
dyk 2 yk

La densite de Yk est donc


 y 
yk k
g(yk ) = exp IR+ (yk )
2 2 2 yk

soit  y 
1 k
g(yk ) = exp IR+ (yk )
2 2
Xk2
On en deduit que Yk = 2
suit une loi du 22 a deux degres de liberte. La fonction caracteristique
de Tn2 est
 Tn 
(u) = E eiu 2
  2

Xk
iu n
= E e k=1 2

n 

= E eiuYk
k=1

En utilisant le fait que les variables aleatoires Yk sont independantes, on obtient


n

(u) = Yk (u)
k=1

n
1
=
k=1
1 2iu
1
=
(1 2iu)n
Tn
On en deduit que 2
suit une loi du khi-deux a 2n degres de liberte

Tn
22n
2
3) Le risque de premiere espece est deni par

= P [Rejeter H0 | H0 vraie] ,
n  


= P Xi2 > s  = 0 ,

i=1  n

Tn s  Xi2
= P > 2 22n ,
02 0 i=1 02

s
= G2n .
02

6
De la meme facon

= P [Rejeter H1 | H1 vraie] ,
n  


= P Xi2 s  = 1 ,

i=1
 n 
Tn s  Xi2
= 1P > 2 22n ,
12 1 i=1 12

s
= 1 G2n .
12

4) Les courbes caracteristiques operationnelles du recepteur (courbes COR) expriment la puissance


du test = 1 en fonction de . Dans le cas present, on a

s
= G2n ,
12
 2 
0 1
= G2n 2 G2n () .
1

On voit donc que la performance du test depend des variances 02 et 12 uniquement via la quantite
02
2
(la puissance depend aussi de bien entendu). Si on xe 02 et le risque , plus 12 est grand,
1
02
plus 12
est petit et donc plus la puissance du test est grande.

7
Exercice 3 : Test dajustement

1) Nous allons eectuer un test du 2 construit a partir des 6 classes suivantes

C1 = {1}, C2 = {2}, C3 = {3}, C4 = {4}, C5 = {5}, C6 = {6}

Les deux hypotheses sont denies par

H0 : le de est non truque


H1 : le de est truque

Lhypothese H0 est caracterisee par


1
P (Ci ) = pi = , i = 1, .., 6
6
tandis que pour lhypothese H, au moins une des probabilites pi est dierente de 16 . La statistique
du test du 2 est
6
(Ni npi )2
=
i=1
npi

6  n 2
6
= Ni
n i=1 6
1
= [4 + 4 + 4 + 1 + 0 + 9]
20
22
= = 1.1
20
La regle de decision du test du 2 est

Rejet de lhypothese H0 si > s,

avec

= P [Rejeter H0 | H0 vraie] ,
= P [ > s | H0 vraie] .
 
= P > s | 25 .

On sait que est distribuee suivant une loi du 2K1 sous lhypothese H0 , ou K = 6 est le nombre
de classes. Si gn (u) est la densite dune loi du 2n , on pose

gn (u)du = Gn(x),
x

et on obtient
= G3 (s ) = s = G1
5 () .

8
Pour = 0.05, les tables de la loi du 25 donnent

s = 11.071

On observe que
< s0.05
et donc on accepte lhypothese que le de est parfait avec le risque a = 0.05.
2) Lapplication du theoreme de la limite centrale donne
1
n
Xi E[Xi ] L
n
i=1 N (0, 1)
var [Xi ] /n n


Pour n grand, on peut donc approcher la loi de n1 ni=1 Xi par la loi normale

var [Xi ]
N E[Xi ],
n

Pour une loi uniforme sur lensemble {1, ..., 6} (ce qui correspond a lhypothese H0 ), on a
1 + ... + 6 7
E[Xi ] = =
6 2
12 + ... + 62 49 35
var [Xi ] = E[Xi2 ] E [Xi ]2 = = = 2
6 4 21
donc n
1 7
n
Xi
i=1 2
Un = N (0, 1)
/ n
ou signie asymptotiquement distribue. On en deduit

= P [Rejeter H0 | H0 vraie] ,
 2
n
1 7
= P Xi > s | H0 vraie ,
n i=1 2
 2 
2
= P U > s | H0 vraie ,
n n
 n 
2 2 2
= P Un > 2 s | Un 1 ,
 n 
= G1 2 s

On en deduit
2 1
s = G () .
n 1

Das könnte Ihnen auch gefallen