Beruflich Dokumente
Kultur Dokumente
Tarea 4
Javier Santiban
ez
23 de septiembre de 2015
1. Considere una
aleatoria
X1 , . . . , Xn de una distribucion n(, 2 ), R. Muestre que el
P muestra
P
2
estadstico
j Xj ,
j Xj es suficiente minimal.
Respuesta
Ya en clase se haba mostrado que el estadstico T (X)0 =
P
2
j Xj ,
j Xj
es suficiente y que el
parametro can
onico de la distribuci
on es C()0 = 212 , 1 . Basta mostrar que T (X) es minimal.
Para ello se utilizar
a uno de los resultados vistos en clase que dice T (X) suficiente es suficiente
minimal si para dos muestras x y y en el soporte de la distribucion, xy
implica que T (x) = T (y).
es decir,
Sean x, y SP (f ) tales que xy,
n
o
`(; x)
= exp C()0 T (x) T (y) ,
`(; y)
no depende de , R.
Esto implica que el producto C()0 , con = T (x) T (y), es igual a una constante para todo
(1)
De donde se sigue que debe ser igual a cero, es decir, = T (x) T (y) = 0 o bien T (x) = T (y).
Por lo tanto, xy
implica T (x) = T (y) y del resultado de clase concluimos que T (X) es suficiente
minimal.
2. En el caso n(, 2 ), usar E(X) y E(X 3 ) y los respectivos momentos muestrales, j Xj y j Xj3
para encontrar los estimadores de momentos de y 2 y verificar si coinciden con los obtenidos si
se usan los primeros dos momentos.
P
Respuesta
Para responder a este ejercicio damos por hecho que E(X) = , E(X 2 ) = 2 + 2 y E (X )2 = 0.
A partir de lo anterior calculamos E(X 3 ) como sigue
E (X )2
= 0
h
= E X 3 3X 2 + 3X 2 2
n
1X
Xj
n j=1
E(X 3 ) = 3 2 + 3 =
n
1X
X3
n j=1 j
Entonces,
2 =
n
1X
Xj
n j=1
Pn
n
3
1X
j=1 Xj
Pn
Xj
n j=1
j=1 Xj
n
1X
Xj
n j=1
E(X 2 ) = 2 + 2 =
n
1X
X2
n j=1 j
n
1X
Xj
n j=1
2 =
n
n
1X
1X
Xj2
Xj
n j=1
n j=1
Como podemos observar, el estimador para es el mismo en ambos casos, pero el estimador para
2 es diferente. Eso significa que los resultados que se obtienen al utilizar el metodo de momentos,
dependen de los momentos que se decida utilizar.
3. Considere una muestra aleatoria X1 , . . . , Xn de una densidad f (x; ). Muestre que
V (S(X, )) = E
2
log f (X; )
2
Respuesta
Por definici
on S(X, ) =
logf (X; ).
V (S(X, ) = E S(X, )2 = E
"
logf (X; )
2 #
Derivaremos la expresi
on anterior para V (S(X, ) a partir de la expresion dada en el enunciado.
2
log f (X; ) =
2
=
f0 (X; )
f (X; )
f00 (X; )f (X; ) f0 (X; )2
f (X; )2
f00 (X; )
f0 (X; ) 2
f (X; )
f (X; )
2
f00 (X; )
logf (X; )
f (X; )
=
=
En la ecuaci
on anterior f0 y f00 denotan la primera y segunda derivadas parciales de f con respecto
de . Al tomar esperanzas en ambos dado en la ecuacion anterior, obtenemos
"
2
log f (X; )
2
= E
= E
00
f (X; )
f (X; )
00
f (X; )
f (X; )
"
logf (X; )
2 #
V (S(X, ))
Falta mostrar que la esperanza que aparece en el lado derecho de la ecuacion anterior es cero.
E
00
f (X; )
f (X; )
00
f (X; )
f (X; )
SP (f )
=
SP (f )
=
SP (f )
f (X; )dx
Donde SP (f ) denota el soporte de la funcion f , es decir, el conjunto de todas las muestras x tales
que f (x; ) > 0. La segunda igualdad se justifica en este hecho. Luego, bajo las condiciones de
regularidad que permiten intercambiar la integral m
ultiple con la derivada, simplificamos
E
00
f (X; )
f (X; )
=
SP (f )
2
2
2
f (x; )dx
2
f (x; )dx
SP (f )
2
1
2
= 0
=
La segunda igualdad se justifica porque la integral de f (x; ) sobre todo su soporte es 1. A partir
de los resultados anteriores podemos concluir que
!
V (S(X, )) = E
2
log f (X; )
2
(2)