Sie sind auf Seite 1von 2

estad stica I, notas breves

3
3.1

Estimadores de M axima Verosimilitud


Caso discreto

- Supongamos que tenemos una m.a.s. (X1 , ..., Xn ) de una v.a. discreta con distribuci on P (x|) conocida salvo por los par ametros del - Una vez realizada la muestra tenemos (x1 , ..., xn ) y estamos interesados en encontrar un estimador par ametro que maximice la probabilidad de la muestra. - Para una muestra dada, la funci on de probabilidad de la muestra es P (X1 = x1 , ..., Xn = xn ) = y la denominaremos funci on de verosimilitud. 3.2 Caso continuo
n i=1

P (Xi = xi ) =

n i=1

P (xi |) = l(|(x1 , ..., xn )) l()

- Supongamos ahora que tenemos una m.a.s (X1 , ..., Xn ) de una v.a. continua con funci on de densidad f (x| conocida salvo por los par ametros del - Una vez realizada la muestra tenemos (x1 , ..., xn ) y estamos interesados en encontrar un estimador par ametro que maximice la funci on de densidad conjunta de la muestra. - Para una muestra dada, la funci on de densidad conjunta de la muestra es f (x1 , ..., xn ) =
n i=1

fXi (xi ) =

n i=1

f (xi |) = l(|(x1 , ..., xn )) l()

y la denominaremos funci on de verosimilitud.

3.3

Propiedades

que maximiza la funci - As , el m etodo de m axima verosimilitud consistir a en encontrar el valor on de verosimilitud l(), que coincide con el valor que maximiza log l() M V se calcula igualando la primera derivada de log l() a 0 y - El estimador de m axima verosimilitud comprobando que la segunda derivada en sus soluciones es negativa. mv tiene, bajo ciertas condiciones generales, las siguientes propiedades: - El estimador de m axima verosimilitud es asint oticamente centrado : a medida que crece el tama no muestral el sesgo tiende a cero. sigue asint oticamente una distribuci on normal con media y varianza
1 (log l( )) .

estimador de m axima verosimilitud de h(), para cualquier funci on h continua y biyectiva.

es un estimador asint oticamente eciente : el de todos los estimadores asint oticamente centrados, el de m axima verosimilitud tiene menor varianza m v es el estimador de m m v ) ser es invariante : si axima verosimilitud de , entonces g ( a el

3.4

Distribuciones conocidas

- X B (p) Bernoulli l(p) =


n i=1

P (xi |p) =
i

n i=1

pxi (1 p)( 1 xi ) = p =(
i

xi (1p)n

i xi

log l(p) = log p p = x

xi (1p)n

i xi

xi ) log p + (n

xi ) log(1 p)

http://www.est.uc3m.es/svegas

6 - X B (k, p) Binomial, con k conocido l(p) =


n i=1

estad stica I, notas breves

P (xi |p) =
i

n i=1 xi

k xi

pxi (1 p)kxi = p
n k i=1 xi

xi

(1 p)nk
i

xi

n k i=1 xi

log l(p) = p p =
1 nk i

xi

(1 p)nk

log

= cte + (

xi ) log p + (nk

xi ) log(1 p)

xi

- X N (, 2 ) Normal l(, 2 ) =
n i=1

f (xi |, 2 ) =

n i=1

2 1 1 e 22 (xi ) 2

2 1 1 e 22 (xi ) ( 2 )n

log l(, 2 ) = log =x 2 =


1 n

2 1 1 e 22 (xi ) ( 2 )n

2 = n 2 log(2 )

1 2 2
i (xi ) 2

(xi x )2

- X exp() Exponencial l() =


n i=1

f (xi |) =
i

n i=1 xi

exi = n e
i

xi

log l() = log n e =


1 x

= n log()

xi

http://www.est.uc3m.es/svegas

Das könnte Ihnen auch gefallen