Sie sind auf Seite 1von 10

8/6/2015 127.0.0.

1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Estimación puntual
Dado un parámetro de interés como la media o la proporción de una población, el
objetivo de la estimación puntual es usar una muestra para calcular un número que
representa una buena estimación del parámetro. Veremos conceptos generales y luego
dos métodos para hallar estos estimadores, el método de momentos y el de máxima
verosimilitud.

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 1/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Conceptos generales

Definición: La estimación puntual de un parámetro θ es solo un número que se puede
considerar como valor sensible para θ. Una estimación puntual se obtiene al seleccionar
un estadístico adecuado y calcular su valor a partir de los datos muestrales
proporcionados. El estadístico seleccionado se llama estimador puntual de θ.
 

Estimadores insesgados: Se dice que un estimador puntual   es un estimador
insesgado si E( ) =   para todo valor posible de  . Si   no es insesgado, la
diferencia E( ) ­   se llama sesgo de  .

Es decir,   es insesgado si su función de probabilidad (es decir, su muestreo) siempre
está centrada en el valor verdadero del parámetro. 

Ejemplo: Cuando X es una va binomial con parámetros n y p, la proporción muestral 
 es un estimador insesgado de p.

Ejemplo de estimador sesgado: Sea el tiempo de reacción de cierto estímulo, que
tiene un distribución uniforme en el intervalo de 0 a un límite superior desconocido θ.
Como estimador podemos tomar el máximo de la muestra obtenida de tiempos de
reacción. Este valor siempre estará subestimando al mayor tiempo posible de la
población, a lo sumo será igual a él. Por ello el estimador será sesgado y tendrá un
sesgo negativo (izquierda del valor del parámetro de la población). Se puede calcular el
sesgo y como modificar el estimador para que sea insesgado.

Principio de estimación insesgada: Al elegir entre varios estimadores de θ, seleccione
uno que sea insesgado.
 

Proposición: Sea X1, ..., Xn una muestra aleatoria de una distribución con media µ y
varianza σ2. Entonces el estimador

es un estimador insesgado de σ2. 

Demostración: Para cualquier va Y, V(Y) = E(Y2) ­ [E(Y)]2 luego E(Y2) = V(Y) + [E(Y)]2 .

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 2/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Con lo cual mostramos que el estimador es insesgado, mientras que el estimador con
solamente el n dividiendo es sesgado con sesgo negativo ­σ2/n.
 

Principio de estimación insesgada de varianza mínima: Entre los estimadores de θ
que son insesgados, elejir aquel que tenga invarianza mínima. EIVM (estimador
insesgado de varianza mínima) de θ.
 

Error estándar: El error estándar de un estimador   es su desviación estándar 

. Si el error estándar tiene que ver con parámetros desconocidos cuyos
valores se pueden estimar, se obtiene el error estándar estimado del estimador   o 

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 3/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Métodos de estimación puntual

Veremos dos métodos para obtener estimadores. Uno el método de los momentos y otro
el de máxima verosimilitud. El segundo caso es preferible al primero aunque requiere de
mayor cantidad de cálculos. A veces pueden producir estimadores sesgados.

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 4/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Método de Momentos

Sea X1, ..., Xn una muestra aleatoria. El k­ésimo momento poblacional está dado por

E(Xk) y el k­ésimo momento muestral es    .

Dado una población cuyos parámetros θ1, ..., θm se desconocen, los estimadores de
momento  , ...,   se obtienen igualando los primeros m momentos muestrales con
los primeros m momentos poblacionales y resolviendo θ1, ..., θm. 

Ejemplo: Sea X1, ..., Xn una muestra aleatoria de una distribución Gamma con
parámetros α y β. El valor esperado y la varianza de la población es E(X) = α β y V(X)
= α β2 respectivamente. El primer momento de la población es E(X) = α β y debemos

igualar este primer momento poblacional con el primer momento muestral 
. Por su parte el segundo momento poblacional es E(X2)  e igualamos al seegundo

momento muestral   . Por su parte como ya vimos E(X2) = V(X) +
[E(X)]2 = α β2 + [α β]2 = α β2 (1 + α) = α β2 +  . Luego despejamos y obtenemos

    y  

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 5/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Método de Máxima Verosimilitud

Otro método para obtener estimados, es el llamado método de Máxima Verosimilitud.
Consideremos una variable aleatoria X que puede ser discreta o continua cuya función
de probabilidad f(X) depende de un solo parámetro θ. Tomamos una muestra de n
valores independientes, X1, X2, ... , Xn. Luego para el caso discreto la probabilidad que
una muestra de tamaño n consista exactamente de esos n valores será:

Para el caso de una variable continua, la probabilidad que la muestra consista de valores
dentro de los pequeños intervalos  , para j desde 1 hasta n será:

como   depende de θ, la función   depende de  x1, x2, ... , xn, y θ. Considerando


que  x1, x2, ... , xn, son datos obtenidos (la muestra) por lo que son conocidos y están
fijos, luego   es función de θ y se la llama función de Verosimilitud. La idea del método
de máxima verosimilitud es que eligiremos el valor aproximado de θ tal que   sea lo más
grande posible para el valor de θ seleccionado. En particular si   es diferenciable
respecto de θ, luego una condición necesaria para que   tenga un máximo es que su
derivada sea cero

donde ponemos la derivada parcial ya que   depende también de x1, x2, ... , xn. De esta
manera la solución anterior que dependerá de  x1, x2, ... , xn se llama estimado de
máxima verosimilitud para θ. Se suele tomar para simplificar el cálculo el logaritmo
natural de  , ya que como los f(xj) son mayores que cero podemos tomar el logaritmo.
Como esta función es monótona creciente de   el resultado será el mismo si tomamos
entonces 

Si por su parte la distribución de X tiene k parámetros entonces se deberá cumplir:

Ejemplo: Supongamos que la variable aleatoria X tiene una distribución Normal, luego 

por lo que la función de Verosimilitud será:

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 6/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

que tomando el logaritmo resulta:

para buscar el máximo valor de la función Verosimilitud calculamos la derivada parcial
respecto de cada uno de los parámetros igual a cero:

por su parte calculamos la derivada parcial respecto del otro parámetro:

en esta ecuación vualve a aparecer el parámetro   que ya calculamos el valor que
optimiza la función verosimilitud de la primera ecuación por lo que reemplazamos por su
valor   con lo que resulta:

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 7/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Principio de invarianza

Sean  , ...,   los estimados de máxima verosimilitud de los parámetros θ1, ..., θm.


Entonces la estimación de máxima verosimilitud de cualquier función de los parámetros
h(θ1, ..., θm) es la función h( , ...,  ).

Ejemplo: Para el caso de la distribución normal, 

luego dada         obtenemos el estimador de máxima verosimilitud
para la desviación estándar

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 8/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

Comportamiento de EMV para muestras grandes

Cuando el tamaño de la muestra es grande es estimador de máxima verosimilitud (EMV)
de cualquier parámetro θ es aproximadamente insesgado, E( ) ≈ θ y tiene varianza que
es casi tan pequeña como se pueda lograr mediante cualquier estimador. De esta forma
el EMV es aproximadamente es EIVM (estimador insesgado de varianza mínima).

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 9/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/

http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 10/10

Das könnte Ihnen auch gefallen