Sie sind auf Seite 1von 26

ESTADSTICA E INTR.

A LA ECONOMETRA Curso 2007-2008


UNIDAD TEMTICA III: INFERENCIA ESTADSTICA

Tema 12

ESTIMACIN PUNTUAL
Notas y resmenes de clase
Prof. M Dolores Gonzlez Galn

ESTRUCTURA DEL CAPTULO


1. Introduccin 2. Propiedades de un estimador 1. Estimador insesgado 2. Eficiencia de un estimador 3. Error cuadrtico medio de un estimador 4. Estimador consistente 5. Estimador suficiente 3. Procedimientos de estimacin 1. El mtodo de la mxima verosimilitud 2. El mtodo de los momentos

1. INTRODUCCIN

muestra

Poblacin

Inferecia Estadstica: Proceso


mediante el cual se utiliza la informacin de una muestra para extraer conclusiones de la poblacin

ESTIMACIN DE PARAMETROS

PRUEBAS DE HIPOTESIS

1. INTRODUCCIN La Teora de la Estimacin es la parte de la Inferencia Estadstica que sirve para determinar el valor de los parmetros poblacionales.

1. Estimacin puntual 2. Estimacin por intervalo


No se trata de dos formas alternativas de estimacin, sino complementarias. La estimacin puntual representa el primer paso para obtener la estimacin por intervalo, que es la que siempre debemos de obtener nosotros.

1. INTRODUCCIN ESTIMACIN PUNTUAL Se trata de asignar al parmetro poblacional un (nico) valor; que ser un valor aproximado y que depende de la muestra POBLACIN con parmetro desconocido

x f (x/)

m.a.s.: X1X2,..., Xn v.a.i.i.d.

= g(x1x2,..., xn)

Un estimador (puntual) para un parmetro es una funcin de las variables aleatorias que forman la muestra, cuyos valores son vlidos como valores para ese parmetro

1. INTRODUCCIN
En la prctica los estimadores habituales son (mtodo analgico): Parmetros poblacionales Media Media muestral
x=

Estimadores puntuales

x
i =1

n
n

= $
x)
2

Desviacin tpica

Cuasidesviacin tpica muestral


S =

(x
i =1

Proporcin

Proporcin muestral

$ p=
^ Se dice, por ejemplo, que es el estimador puntual de

x
i =1

n 1
i

= $

^ Cuando se haya obtenido la muestra y calculado a partir de ella, se dice entonces que ese valor es una estimacin de

1. INTRODUCCIN

cmo se eligen los estimadores?


Propiedades de los estimadores
Estimador insesgado Eficiencia de un estimador Error cuadrtico medio Estimador consistente Estimador suficiente

Criterios para seleccionar estimadores


Mtodo de la mxima verosimilitud Mtodo de los momentos

2. PROPIEDADES DE UN ESTIMADOR

1.

Insesgado.

Un buen estimador es aqul que es cercano al valor verdadero

E($) =
Si un estimador no es insesgado

estimador sesgado

Sesgo($) = E ($)

EJEMPLOS DE ESTIMADORES INSESGADOS: Media Muestral: Para estimar la esperanza matemtica de una distribucin de probabilidad, la media muestral x de una m.a.s. es siempre un estimador insesgado:

E [x ] =
Aplicaciones: Normal Poisson Bernoulli N(; 2) P() Be(p)

E [x ] = E [x ] = E[ p] = p

EJEMPLOS DE ESTIMADORES INSESGADOS: Cuasivarianza Muestral: es un estimador insesgado de la varianza poblacional

S =

(x
n i =1

x)

n 1

E S =
2

[ ]

Demostracin:
1 1 n n 2 2 2 E S = E [( xi ) ( x )] = E ( xi ) + ( x ) 2( xi )( x ) = n 1 i =1 n 1 i =1 1 1 n 1 n 2 2 2 2 = E ( x i ) n( x ) = E ( xi ) nE ( x ) = n 2 2 = 2 n 1 i =1 n 1 i =1 n 1

( )
2

EJEMPLOS DE ESTIMADORES INSESGADOS: Varianza Muestral: es un estimador sesgado de la varianza poblacional. n 2

S =
2

(x
i =1

x)

ES
2 2

[ ]
2

n 1 2 = n

n 1 2 2 2 ( 1) Sesgo( S ) = E ( S ) = = n n
2

Un estimador es asintticamente insesgado si su posible sesgo tiende a cero al aumentar el tamao muestral con que se calcula.

2. PROPIEDADES DE UN ESTIMADOR

2.Eficiencia
^ ^ Sean 1 y 2 dos estimadores insesgados de un parmetro ^ ^ desconocido . Decimos que 1 es ms eficiente que 2 si :

Var (2 ) > Var (1 )


^ ^ ^ La eficiencia relativa de 1 respecto a ^ 2 en una muestra se ^ ^ mide por el ratio: Var (2) / Var (1)

2. PROPIEDADES DE UN ESTIMADOR Teorema . Desigualdad de Cramer-Rao Sea X1X2,..., Xn una m.a.s. extrada de una poblacin f (X;), y ^ Sea = g(X1,X2,..., Xn) un estimador insesgado del parmetro

Var ($)

1 2 ln f ( x; nE
^

Un estimador insesgado de un parmetro poblacional desconocido se dice eficiente si su varianza es tan baja como la cota de Cramer-Rao

EJEMPLOS DE ESTIMADORES EFICIENTES:

N(; 2)

P()

Be(p)

E(x) =

V (x) = n
Normal Poisson Bernoulli P()

E(x) = E(x) = p p(1 p) V (x) = V (x) = n n


x es un estimador eficiente de x es un estimador eficiente de x es un estimador eficiente de p

N(; 2)

Be(p)

2. PROPIEDADES DE UN ESTIMADOR

3. Error

Cuadrtico Medio

ECM ($) = E $
Teorema 9.6.

a)

ECM ($) = Var ($) + E $

[ () ]

b) Si

E $ =

()

Sesgo

ECM ($) = Var ($)

Insesgado

2. PROPIEDADES DE UN ESTIMADOR

4. Consistencia
^ Un estimador asintticamente insesgado, cuya varianza tienda a cero al aumentar el tamao muestral es consistente

Aplicaciones:

La media muestral es un estimador consistente de la media poblacional


Normal Poisson Bernoulli N(; 2) P() Be(p)

E(x) =

V (x) = n

x es un estimador consistente de x es un estimador consistente de x es un estimador consistente de p

2. PROPIEDADES DE UN ESTIMADOR

4. Suficiencia
Un estimador $ es suficiente cuando no da lugar a prdida de informacin; es decir, cuando la inferencia basada en $ es tan buena como la que hiciera uso de toda la muestra.

2. PROPIEDADES DE UN ESTIMADOR Para identificar estadsticos suficientes se utiliza el teorema de factorizacin: Una condicin necesaria y suficiente para que $ = g ( X 1 , X 2 ,..., X n ) sea suficiente para es que la densidad conjunta de la muestra f(X1,X2,...,Xn; ) pueda expresarse as:

f ( X 1 , X 2 ,..., X n ; ) =

($; ) h( X 1 , X 2 ,..., X n )

f ( X 1 ; ) . f ( X 2 ; )... f ( X n ; )

EJEMPLOS DE ESTIMADORES SUFICIENTES: Ejemplo: P() x es un estimador suficiente de

f ( X 1 , X 2 ,..., X n ; ) = e

i=1 n e ... e =e n x1 ! x2 ! xn ! xi !
x1 x2 xn i =1

xi

f ( X 1 , X 2 ,..., X n ; ) = e

xn n

x!
i =1 i

($; ) h( X , X ,..., X ) 1 2 n

EJEMPLOS DE ESTIMADORES SUFICIENTES:

N(;

2)

1 f ( X 1 , X 2 ,..., X n ; , ) = 2 2
2

n/2

n 1 ( Xi ) 2 i =1 2

Be(p)

x n x f ( X 1 , X 2 ,..., X n ; p = p i (1 p) i

Normal Bernoulli

N(; 2) Be(p)

x es un estimador suficiente de x es un estimador suficiente de p

3. PROCEDIMIENTOS DE ESTIMACIN

Mtodo de la mxima verosimilitud Funcin de verosimilitud de la muestra


Si en la funcin de densidad conjunta f(X1,X2,...,Xn; ) de una muestra fijamos los valores de (X1,X2,...,Xn) en aqullos que se han presentado en una realizacin muestral, tenemos una funcin de que llamaremos funcin de verosimilitud asociada a dicha realizacin muestral.

L(/ x1,x2,..., xn ) = P(/ X1=x1, X2= x2,..., Xn= xn )

3. PROCEDIMIENTOS DE ESTIMACIN

Mtodo de la mxima verosimilitud


El estimador de mxima verosimilitud de EMV() es ^ el valor de MV que maximiza la funcin de verosimilitud

L( / x1 , x2 ,..., xn ) =0

ln L( / x1 , x2 ,..., xn ) =0

EJEMPLOS DE ESTIMADORES MXIMO VEROSMILES


( xi ) 2
2

N(; P() B(p)

2)

1 L( , / x1 , x2 ,... xn ) = 2 2
2
x

n/2

1 2

L( / x1 , x2 ,... xn ) = e n

i x1 ! x2 !.. xn !

xi (1 p) n xi L( p / x1 , x2 ,... xn ) = p
y EMV(2 )=S2

Normal Poisson Bernoulli

N(; 2) EMV( )=x P() B(p) EMV()=x EMV(p )=x

PROPIEDADES DE LOS ESTIMADORES MXIMO VEROSMILES

1. Los E.M.V. no son , en general, insesgados, aunque si asintticamente insesgados. Son, en general, consistentes 2. Si existe un estadstico suficiente, el E.M.V. es funcin nicamente de dicho estadstico. 3. El E.M.V. es invariante: ^ Si ^ es E.M.V. g() es E.M.V. de g() 4. Si existe un estimador eficiente del parmetro en estudio, ste es necesariamente el E.M.V.

3. PROCEDIMIENTOS DE ESTIMACIN

Mtodo de los momentos


El procedimiento consiste en igualar momentos poblacionales respecto al origen (r) a los correspondientes momentos muestrales (ar), formando as tantas ecuaciones como parmetros poblacionales se pretenden estimar:

1 = E ( X ) = $1 = a1 =

x
i =1

n
n i =1

= x
2
i

En general:
r = E( X )
r

2 = E( X )
2

$2 = a2 =

x
n

$r = ar =

x
i =1

r
i

EJEMPLOS DE ESTIMADORES POR EL MTODO DE LOS MOMENTOS Poisson Bernoulli Normal P() B(p)

= E ( X ) = $ = x
$ p = E( X ) = p = x

N(; 2) Parmetros a estimar: y 2

= E( X ) 2 = 2 2 2 = 2 + 2
Por el mtodo de los momentos, sabemos que los estimadores de y 2 son a1 y a2 respectivamente:

x= a2 = 2 + 2

$ = x $ 2 = a2 x 2 = S 2

Das könnte Ihnen auch gefallen