Beruflich Dokumente
Kultur Dokumente
Métodos de Obtención de
Estimadores
11.1. Introdución
En el capı́tulo anterior estudiamos las propiedades de los estimadores. Ahora
trataremos de obtener dichos estimadores y que cumplan con las propiedades de
un buen estimador.
Los métodos que encontramos para determinar estimadores son:
El método de la mı́nima χ2 .
252
11. Métodos de Obtención de Estimadores 253
para j = 1, k.
Generalmente αj , será una función de los k-parámetros θ1 , . . . , θk :
αj (θ1 . . . , θk ), j = 1, k .
Sea la m.a. X1 , . . . , Xn de la población y calculándo los k-primeros momentos
respecto al origen, a1 , . . . , aj para estas observaciones muestrales:
n n n
X Xi X Xj i
X Xk i
a1 = , ..., aj = , ..., ak = .
n n n
i=1 i=1 i=1
α1 (θ1 , . . . , θk ) = a1
..
.
αj (θ1 , . . . , θk ) = aj
..
.
αk (θ1 , . . . , θk ) = ak
y tenemos:
Propiedad 11.5 En general los EMV no son insesgados. Pero si no son inses-
gados entonces son asintóticamente insesgados.
θ̂ ∼ N(θ, Var(θ̂)) ,
11.4. Ejemplos
Estos son varios ejemplos que he tomado de libros que aparecen en la bibli-
ografı́a.
Ejemplo 11.1 Demostrar las propiedades de los estimadores obtenidos por el
método de los momentos.
Insesgadez. Puesto que los parámetros a estimar son momentos poblacionales
respecto al origen, αj , tendremos para una muestra aleatoria (X1 , . . . , Xn ) que:
n
1X j
α̂j = aj = Xi , j = 1, . . . , k
n
i=1
Tomando valores esperados resulta que:
n
!
1X j
E(α̂j ) = E Xi
n
i=1
n
!
1 X j
= E Xi
n
i=1
n
1X
= E(Xij )
n
i=1
n
1X
= E(X j )
n
i=1
1
= · nE(X j )
n
= αj
Luego vemos que son estimadores insesgados.
Normalidad asintótica. Como los parámetros a estimar son los momentos
poblacionales, αj , que para una muestra aleatoria simple (X1 , . . . , Xn ) son:
n
X Xj i
α̂j = aj =
n
i=1
X1j Xnj
= + ··· +
n n
resultando que el estimador α̂j = aj se puede expresar como suma de n variables
Xij
aleatorias n , independientes e idénticamente distribuidas con media y varianza:
!
Xij αj
E =
n n
11. Métodos de Obtención de Estimadores 258
!
Xij 1
Var = Var(Xij )
n n2
1
= E[(Xij − E(Xij ))2 ]
n2
1
= 2 E[(Xij − αj )2 ]
n
1
= 2 (α2j − αj2 )
n
y la media y la varianza del estimador α̂j = aj , será:
n
!
X Xij
E(α̂j ) = E(aj ) = E = αj
n
i=1
n
!
X Xj i
Var(α̂j ) = Var(aj ) = Var
n
i=1
n
!
X Xij α2j − αj2
= Var =
n n
i=1
Ejemplo 11.2 Sea (X1 , . . . , Xn ) una muestra aleatoria obtenida de una población
que sigue una distribución de Poisson de parámetro λ, desconocido. Obtener un
estimador del parámetro λ utilizando el método de los momentos.
Solución. Aplicando el método de los momentos igualaremos el momento de
orden uno, respecto al origen, de la población α1 , al momento de orden uno de la
11. Métodos de Obtención de Estimadores 259
muestra a1 .
∞
X
α1 (λ) = E(X) = xi · Pr(X = xi )
i=1
∞
X λxi −λ
= xi · e
xi !
i=0
∞
−λ
X λxi−1
=e λ
(xi−1 )!
i=0
−λ λ
=e λe
=λ
n
X Xi
a1 = = X̄
n
i=1
Luego igualando
α1 (λ) = a1
Ejemplo 11.3 Sea (X1 , . . . , Xn ) una muestra aleatoria procedente de una B(p).Obtener
el estimador del parámetro p, utilizando el método de los momentos.
Solución. Sabemos de la distribución B(p) que la media o momento de orden
uno respecto al origen es:
α1 (p) = p
Pn
y si hacemos X = i=1 Xi ≡ número de exitos en las n pruebas:
X
p̂ =
n
Este estimador, como veremos después, es también el estimador obtenido por
el método de la máxima verosimilitud. J
α1 = a1
con a1 = X̄.
Por tanto,
1
= X̄
a
con lo que
1
â =
X̄
J
Ejemplo 11.5 Obtener el estimador del parámetro θ de una ley cuya función de
densidad es:
2
f (x|θ) = (θ − x) si 0 < x < θ
θ2
utilizando e método de los momentos para una muestra aleatoria simple de tamaño
2.
11. Métodos de Obtención de Estimadores 261
θ̂ = 3X̄
y si la muestra es de tamaño 2:
X1 + X2
θ̂ = 3
2
J
Ejemplo 11.6 Sea (X1 , . . . , Xn ) una m.a.s. procedente de una población B(p),
en donde p es desconocido. Obtener el estimador de máxima verosimilitud del
parámetro p.
Solución. Sabemos que la función de probabilidad es:
n Pn
i=1 xi X
X
xi − np = 0 ⇒ p̂ = = = x̄
n n
i=1
∂ 2 ln L
Calculando la tenemos:
∂p2
∂ 2 ln L(x1 , . . . , xn |p) − ni=1 xi n − ni=1 xi
P P
= −
∂p2 p2 (1 − p)2
2
Pn Pn 2
−(1 − p) i=1 xi − (n − i=1 xi ) p
=
p2 (1 − p)2
y particularmente para p = x̄, se tiene:
∂ 2 ln L(x1 , . . . , xn |p)
n n
=− + <0
∂p2 x̄ 1 − x̄
con lo cual podemos decir que se trata de un máximo. Luego el estimador de
máxima verosimilitud es
X
p̂ = x̄ =
n
J
n
∂ ln L(x1 , . . . , xn |θ) n X
= + ln xi = 0
∂θ 1+θ
i=1
n
θ= Pn −1
− i=1 ln xi
Pn
i=1 xi
θ= = x̄
n
E(X) = θ
Var(X) = θ2
Luego
Var(X) θ2
Var(θ̂) = Var(X̄) = =
n n
11. Métodos de Obtención de Estimadores 265
o bien
1
Var(θ̂) = h i
∂ 2 ln f (x|θ)
−nE ∂θ2
x
ln f (x|θ) = − ln θ − , x>0
θ
∂ ln f (x|θ) 1 x
= − + 2, x>0
∂θ θ θ
∂ 2 ln f (x|θ) 1 2x
2
= 2 − 3, x>0
∂θ θ θ
∂ 2 ln f (x|θ)
1 2X
E = E 2− 3
∂θ2 θ θ
1 2
= − E(X)
θ2 θ3
1 2
= − ·θ
θ2 θ3
1 2 1
= 2
− 2 =− 2
θ θ θ
Ası́ la cota de Frechet-Cramer-Rao será:
1 1 θ2
h i= −1 =
∂ 2 ln f (x|θ) −n n
−nE ∂θ2 θ2
que coincide con la Var(θ̂), siendo por tanto el estimador de máxima verosimil-
itud, para este ejemplo, eficiente.
11. Métodos de Obtención de Estimadores 266
Ejemplo 11.9 Sea una población cuya distribución de probabilidad viene dada
por:
Pr(X = 1) = p3
Pr(X = 2) = 3p2 q
Pr(X = 3) = 3pq 2
Pr(X = 4) = q 3
= 39 p22 q 32
= 39 p22 (1 − p)32
22(1 − p) − 32p = 0
α1 (θ) = a1
donde a1 = X̄
Z +∞
α1 (θ) = E(X) = xeθ−x dx
θ
haciendo
u = x ; du = dx
dv = eθ−x dx ; v = −eθ−x
e integrando por partes, se tiene que
h i+∞ Z +∞
θ−x
α1 (θ) = E(X) = −xe + eθ−x dx
θ θ
h i+∞
= θ + −eθ−x =θ+1
θ
Por tanto al igualar el momento poblacional de orden uno respecto al origen con
el muestral:
θ + 1 = X̄
θ̂ = X̄ − 1
J
11. Métodos de Obtención de Estimadores 268
entonces
n
X
−2nθ + xi = 0
i=1
se obtendrı́a que:
n
Y
L(x1 , . . . , xn |θ) = f (xi |θ) = e−x1 +θ · · · e−xn +θ
i=1
nθ− n
P
=e i=1 xi si xi ≥ θ ∀ i = 1, . . . , n
∂ ln L(x1 , . . . , xn |θ)
=n
∂θ
y no existe ningún valor de θ para el cual el resultado anterior sea igual a cero. Este
hecho se produce porque el campo de variación de X depende del parámetro θ.
Por tanto no se puede aplicar el proceso anterior y habrá que encontrar el máximo
de la función de verosimilitud de otra forma:
Se ha encontrado que
nθ − Pn x
e e i=1 i si xi ≥ θ ∀ i = 1, . . . , n
L(x1 , . . . , xn |θ) =
0 en caso contrario
Por tanto máximizar L(x1 , . . . , xn |θ) es lo mismo que maximizar θ; pero como
tiene que ocurrir
θ ≤ mı́n{xi }
i
θ̂ = mı́n{xi }
i
mı́n{xi } ≥ θ
i
entonces
por tanto
máx L(x1 , . . . , xn |θ) ≡ máx enθ ≤ en mı́ni {xi }
θ θ
con lo cual
θ̂ = mı́n{xi }
i
J
para β mayor que, o igual a, la más grande de las x’s y 0 de otra manera. Puesto
que el valor de esta función de verosimilitud aumenta conforme β disminuye,
debemos hacer β tan pequeña como sea posible, y se sigue que el estimador de
máxima verosimilitud de β es Yn , la estadı́stica de n-ésimo orden. Como este valor
es β = máx{x1 , . . . , xn }, el EMV de β es β̂ = máx{X1 , . . . , Xn }. J
11. Métodos de Obtención de Estimadores 271
Hay que resaltar que en el ejemplo anterior, el EMV β̂ no parece ser un es-
timador apropiado de β. Puesto que máx{X1 , . . . , Xn } < β con probabilidad 1,
resulta obvio que β̂ tiende a subestimar el valor de β. De hecho, si se asigna a β
cualquier distribución inicial, entonces el estimador Bayes para β resultará mayor
que β̂. La magnitud en que el estimador Bayes supera a β̂, dependerá naturalmente
de la distribución inicial que se utiliza y de los valores observados de X1 , . . . , Xn .
La única diferencia entre la f.d.p de la uniforme [0, β] y esta última es que el val-
or de la f.d.p. en cada uno de los dos puntos 0 y β se ha cambiado reemplazando las
desigualdades débiles por desigualdades estrictas. Utilizando esta última ecuación,
vemos que un EMV de β será un valor de β tal que β > xi para i = 1, . . . , n y que
maximiza 1/β n . Hay que tener en cuenta que los valores posibles de β no incluyen
el valor β = máx{x1 , . . . , xn }, puesto que β debe ser estrictamente mayor que ca-
da valor observado xi (i = 1, . . . , n). Puesto que θ se puede elegir arbitrariamente
cerca del valor máx{x1 , . . . , xn } pero no se puede elegir a este valor, resulta que
no existe el EMV de β. J
n
X n
X
ln L(x|λ) = −nλ + ln λ xi − ln xi !
i=1 i=1
Pn
∂ ln L(x|λ) i=1 xi
= −n + = 0;
∂λ λ
Pn
xi
λ̂ = i=1 = x̄
n
verificándose la condición de máximo
2
∂ ln L(x|λ) n
2
=− <0
∂λ λ̂=x̄ x̄
J
L(x|µ, σ 2 ) = ln f (x|µ, σ 2 )
n
n n 1 X
= − ln(2π) − ln σ 2 − 2 (xi − µ)2 . (11.7)
2 2 2σ
i=1
Se deben obtener los valores de µ y σ 2 para los cuales L(x|µ, σ 2 ) sea máxima,
determinando los valores de µ y σ 2 que satisfacen las dos ecuaciones siguientes:
∂L(x|µ, σ 2 )
= 0, (11.8)
∂µ
∂L(x|µ, σ 2 )
= 0. (11.9)
∂σ 2
De la ecuación (11.7) se obtiene la relación
n n
!
∂L(x|µ, σ 2 ) 1 X 1 X
= 2 (xi − µ) = 2 xi − nµ .
∂µ σ σ
i=1 i=1