Beruflich Dokumente
Kultur Dokumente
Tema 12
ESTIMACIN PUNTUAL
Notas y resmenes de clase
Prof. M Dolores Gonzlez Galn
1. INTRODUCCIN
muestra
Poblacin
ESTIMACIN DE PARAMETROS
PRUEBAS DE HIPOTESIS
1. INTRODUCCIN La Teora de la Estimacin es la parte de la Inferencia Estadstica que sirve para determinar el valor de los parmetros poblacionales.
1. INTRODUCCIN ESTIMACIN PUNTUAL Se trata de asignar al parmetro poblacional un (nico) valor; que ser un valor aproximado y que depende de la muestra POBLACIN con parmetro desconocido
x f (x/)
= g(x1x2,..., xn)
Un estimador (puntual) para un parmetro es una funcin de las variables aleatorias que forman la muestra, cuyos valores son vlidos como valores para ese parmetro
1. INTRODUCCIN
En la prctica los estimadores habituales son (mtodo analgico): Parmetros poblacionales Media Media muestral
x=
Estimadores puntuales
x
i =1
n
n
= $
x)
2
Desviacin tpica
(x
i =1
Proporcin
Proporcin muestral
$ p=
^ Se dice, por ejemplo, que es el estimador puntual de
x
i =1
n 1
i
= $
^ Cuando se haya obtenido la muestra y calculado a partir de ella, se dice entonces que ese valor es una estimacin de
1. INTRODUCCIN
2. PROPIEDADES DE UN ESTIMADOR
1.
Insesgado.
E($) =
Si un estimador no es insesgado
estimador sesgado
Sesgo($) = E ($)
EJEMPLOS DE ESTIMADORES INSESGADOS: Media Muestral: Para estimar la esperanza matemtica de una distribucin de probabilidad, la media muestral x de una m.a.s. es siempre un estimador insesgado:
E [x ] =
Aplicaciones: Normal Poisson Bernoulli N(; 2) P() Be(p)
E [x ] = E [x ] = E[ p] = p
S =
(x
n i =1
x)
n 1
E S =
2
[ ]
Demostracin:
1 1 n n 2 2 2 E S = E [( xi ) ( x )] = E ( xi ) + ( x ) 2( xi )( x ) = n 1 i =1 n 1 i =1 1 1 n 1 n 2 2 2 2 = E ( x i ) n( x ) = E ( xi ) nE ( x ) = n 2 2 = 2 n 1 i =1 n 1 i =1 n 1
( )
2
S =
2
(x
i =1
x)
ES
2 2
[ ]
2
n 1 2 = n
n 1 2 2 2 ( 1) Sesgo( S ) = E ( S ) = = n n
2
Un estimador es asintticamente insesgado si su posible sesgo tiende a cero al aumentar el tamao muestral con que se calcula.
2. PROPIEDADES DE UN ESTIMADOR
2.Eficiencia
^ ^ Sean 1 y 2 dos estimadores insesgados de un parmetro ^ ^ desconocido . Decimos que 1 es ms eficiente que 2 si :
2. PROPIEDADES DE UN ESTIMADOR Teorema . Desigualdad de Cramer-Rao Sea X1X2,..., Xn una m.a.s. extrada de una poblacin f (X;), y ^ Sea = g(X1,X2,..., Xn) un estimador insesgado del parmetro
Var ($)
1 2 ln f ( x; nE
^
Un estimador insesgado de un parmetro poblacional desconocido se dice eficiente si su varianza es tan baja como la cota de Cramer-Rao
N(; 2)
P()
Be(p)
E(x) =
V (x) = n
Normal Poisson Bernoulli P()
N(; 2)
Be(p)
2. PROPIEDADES DE UN ESTIMADOR
3. Error
Cuadrtico Medio
ECM ($) = E $
Teorema 9.6.
a)
[ () ]
b) Si
E $ =
()
Sesgo
Insesgado
2. PROPIEDADES DE UN ESTIMADOR
4. Consistencia
^ Un estimador asintticamente insesgado, cuya varianza tienda a cero al aumentar el tamao muestral es consistente
Aplicaciones:
E(x) =
V (x) = n
2. PROPIEDADES DE UN ESTIMADOR
4. Suficiencia
Un estimador $ es suficiente cuando no da lugar a prdida de informacin; es decir, cuando la inferencia basada en $ es tan buena como la que hiciera uso de toda la muestra.
2. PROPIEDADES DE UN ESTIMADOR Para identificar estadsticos suficientes se utiliza el teorema de factorizacin: Una condicin necesaria y suficiente para que $ = g ( X 1 , X 2 ,..., X n ) sea suficiente para es que la densidad conjunta de la muestra f(X1,X2,...,Xn; ) pueda expresarse as:
f ( X 1 , X 2 ,..., X n ; ) =
($; ) h( X 1 , X 2 ,..., X n )
f ( X 1 ; ) . f ( X 2 ; )... f ( X n ; )
f ( X 1 , X 2 ,..., X n ; ) = e
i=1 n e ... e =e n x1 ! x2 ! xn ! xi !
x1 x2 xn i =1
xi
f ( X 1 , X 2 ,..., X n ; ) = e
xn n
x!
i =1 i
($; ) h( X , X ,..., X ) 1 2 n
N(;
2)
1 f ( X 1 , X 2 ,..., X n ; , ) = 2 2
2
n/2
n 1 ( Xi ) 2 i =1 2
Be(p)
x n x f ( X 1 , X 2 ,..., X n ; p = p i (1 p) i
Normal Bernoulli
N(; 2) Be(p)
3. PROCEDIMIENTOS DE ESTIMACIN
3. PROCEDIMIENTOS DE ESTIMACIN
L( / x1 , x2 ,..., xn ) =0
ln L( / x1 , x2 ,..., xn ) =0
2)
1 L( , / x1 , x2 ,... xn ) = 2 2
2
x
n/2
1 2
L( / x1 , x2 ,... xn ) = e n
i x1 ! x2 !.. xn !
xi (1 p) n xi L( p / x1 , x2 ,... xn ) = p
y EMV(2 )=S2
1. Los E.M.V. no son , en general, insesgados, aunque si asintticamente insesgados. Son, en general, consistentes 2. Si existe un estadstico suficiente, el E.M.V. es funcin nicamente de dicho estadstico. 3. El E.M.V. es invariante: ^ Si ^ es E.M.V. g() es E.M.V. de g() 4. Si existe un estimador eficiente del parmetro en estudio, ste es necesariamente el E.M.V.
3. PROCEDIMIENTOS DE ESTIMACIN
1 = E ( X ) = $1 = a1 =
x
i =1
n
n i =1
= x
2
i
En general:
r = E( X )
r
2 = E( X )
2
$2 = a2 =
x
n
$r = ar =
x
i =1
r
i
EJEMPLOS DE ESTIMADORES POR EL MTODO DE LOS MOMENTOS Poisson Bernoulli Normal P() B(p)
= E ( X ) = $ = x
$ p = E( X ) = p = x
= E( X ) 2 = 2 2 2 = 2 + 2
Por el mtodo de los momentos, sabemos que los estimadores de y 2 son a1 y a2 respectivamente:
x= a2 = 2 + 2
$ = x $ 2 = a2 x 2 = S 2