Beruflich Dokumente
Kultur Dokumente
1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Estimación puntual
Dado un parámetro de interés como la media o la proporción de una población, el
objetivo de la estimación puntual es usar una muestra para calcular un número que
representa una buena estimación del parámetro. Veremos conceptos generales y luego
dos métodos para hallar estos estimadores, el método de momentos y el de máxima
verosimilitud.
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 1/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Conceptos generales
Definición: La estimación puntual de un parámetro θ es solo un número que se puede
considerar como valor sensible para θ. Una estimación puntual se obtiene al seleccionar
un estadístico adecuado y calcular su valor a partir de los datos muestrales
proporcionados. El estadístico seleccionado se llama estimador puntual de θ.
Estimadores insesgados: Se dice que un estimador puntual es un estimador
insesgado si E( ) = para todo valor posible de . Si no es insesgado, la
diferencia E( ) se llama sesgo de .
Es decir, es insesgado si su función de probabilidad (es decir, su muestreo) siempre
está centrada en el valor verdadero del parámetro.
Ejemplo: Cuando X es una va binomial con parámetros n y p, la proporción muestral
es un estimador insesgado de p.
Ejemplo de estimador sesgado: Sea el tiempo de reacción de cierto estímulo, que
tiene un distribución uniforme en el intervalo de 0 a un límite superior desconocido θ.
Como estimador podemos tomar el máximo de la muestra obtenida de tiempos de
reacción. Este valor siempre estará subestimando al mayor tiempo posible de la
población, a lo sumo será igual a él. Por ello el estimador será sesgado y tendrá un
sesgo negativo (izquierda del valor del parámetro de la población). Se puede calcular el
sesgo y como modificar el estimador para que sea insesgado.
Principio de estimación insesgada: Al elegir entre varios estimadores de θ, seleccione
uno que sea insesgado.
Proposición: Sea X1, ..., Xn una muestra aleatoria de una distribución con media µ y
varianza σ2. Entonces el estimador
es un estimador insesgado de σ2.
Demostración: Para cualquier va Y, V(Y) = E(Y2) [E(Y)]2 luego E(Y2) = V(Y) + [E(Y)]2 .
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 2/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Con lo cual mostramos que el estimador es insesgado, mientras que el estimador con
solamente el n dividiendo es sesgado con sesgo negativo σ2/n.
Principio de estimación insesgada de varianza mínima: Entre los estimadores de θ
que son insesgados, elejir aquel que tenga invarianza mínima. EIVM (estimador
insesgado de varianza mínima) de θ.
Error estándar: El error estándar de un estimador es su desviación estándar
. Si el error estándar tiene que ver con parámetros desconocidos cuyos
valores se pueden estimar, se obtiene el error estándar estimado del estimador o
.
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 3/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Métodos de estimación puntual
Veremos dos métodos para obtener estimadores. Uno el método de los momentos y otro
el de máxima verosimilitud. El segundo caso es preferible al primero aunque requiere de
mayor cantidad de cálculos. A veces pueden producir estimadores sesgados.
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 4/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Método de Momentos
Sea X1, ..., Xn una muestra aleatoria. El késimo momento poblacional está dado por
E(Xk) y el késimo momento muestral es .
Dado una población cuyos parámetros θ1, ..., θm se desconocen, los estimadores de
momento , ..., se obtienen igualando los primeros m momentos muestrales con
los primeros m momentos poblacionales y resolviendo θ1, ..., θm.
Ejemplo: Sea X1, ..., Xn una muestra aleatoria de una distribución Gamma con
parámetros α y β. El valor esperado y la varianza de la población es E(X) = α β y V(X)
= α β2 respectivamente. El primer momento de la población es E(X) = α β y debemos
igualar este primer momento poblacional con el primer momento muestral
. Por su parte el segundo momento poblacional es E(X2) e igualamos al seegundo
momento muestral . Por su parte como ya vimos E(X2) = V(X) +
[E(X)]2 = α β2 + [α β]2 = α β2 (1 + α) = α β2 + . Luego despejamos y obtenemos
y
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 5/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Método de Máxima Verosimilitud
Otro método para obtener estimados, es el llamado método de Máxima Verosimilitud.
Consideremos una variable aleatoria X que puede ser discreta o continua cuya función
de probabilidad f(X) depende de un solo parámetro θ. Tomamos una muestra de n
valores independientes, X1, X2, ... , Xn. Luego para el caso discreto la probabilidad que
una muestra de tamaño n consista exactamente de esos n valores será:
Para el caso de una variable continua, la probabilidad que la muestra consista de valores
dentro de los pequeños intervalos , para j desde 1 hasta n será:
donde ponemos la derivada parcial ya que depende también de x1, x2, ... , xn. De esta
manera la solución anterior que dependerá de x1, x2, ... , xn se llama estimado de
máxima verosimilitud para θ. Se suele tomar para simplificar el cálculo el logaritmo
natural de , ya que como los f(xj) son mayores que cero podemos tomar el logaritmo.
Como esta función es monótona creciente de el resultado será el mismo si tomamos
entonces
Si por su parte la distribución de X tiene k parámetros entonces se deberá cumplir:
Ejemplo: Supongamos que la variable aleatoria X tiene una distribución Normal, luego
por lo que la función de Verosimilitud será:
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 6/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
que tomando el logaritmo resulta:
para buscar el máximo valor de la función Verosimilitud calculamos la derivada parcial
respecto de cada uno de los parámetros igual a cero:
por su parte calculamos la derivada parcial respecto del otro parámetro:
en esta ecuación vualve a aparecer el parámetro que ya calculamos el valor que
optimiza la función verosimilitud de la primera ecuación por lo que reemplazamos por su
valor con lo que resulta:
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 7/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Principio de invarianza
Ejemplo: Para el caso de la distribución normal,
luego dada obtenemos el estimador de máxima verosimilitud
para la desviación estándar
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 8/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
Comportamiento de EMV para muestras grandes
Cuando el tamaño de la muestra es grande es estimador de máxima verosimilitud (EMV)
de cualquier parámetro θ es aproximadamente insesgado, E( ) ≈ θ y tiene varianza que
es casi tan pequeña como se pueda lograr mediante cualquier estimador. De esta forma
el EMV es aproximadamente es EIVM (estimador insesgado de varianza mínima).
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 9/10
8/6/2015 127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/
http://127.0.0.1:51237/temp_print_dirs/eXeTempPrintDir_aXhVn2/Clase_2_v2/ 10/10