Sie sind auf Seite 1von 9

ESTIMACIÓN

El primer problema del cual se ocupa la estadística inferencial es la estimación, que


puede ser a través de un número simple, generalmente el estadístico correspondiente
llamado estimador puntual, o por medio de dos valores numéricos que definen un
intervalo llamado intervalo de confianza, el cual contiene al parámetro estimado con
cierto grado de confiabilidad.

A los estimadores generalmente se les denota con la misma letra que al parámetro, pero
con un acento circunflejo o “gorrito”; esto es, si el parámetro fuese  , su estimador sería

ˆ . Cabe hacer notar que también se acostumbra usar letras griegas para parámetros y
letras latinas para estimadores. Así, por ejemplo, como estimador de la media  se usa
̂ , o X o Y ; de la varianza  2 se usa s 2 o ˆ 2 , etcétera.

CARACTERÍSTICAS DE UN BUEN ESTIMADOR PUNTUAL

Las características de un buen estimador puntual son insesgabilidad, consistencia o


exactitud, eficiencia o precisión y suficiencia.

i) i) Insesgabilidad: Un estimador puntual es insesgado si la media de la


distribución muestral del estadístico (esperanza matemática del estadístico) es igual
ˆ
al parámetro por estimar; es decir, si  es un estadístico cualquiera y  es el
ˆ 
parámetro correspondiente y si E    , entonces  es un estimador insesgado de
ˆ

.

Como se vio en el ejemplo 9.3,


 
EX    X   y E s n21   2 , de donde se concluye

que X y n 1 son estimadores insesgados de  y  , respectivamente. Sin embargo,


s2 2
si se usa
s n2
para estimar la varianza de una muestra, entonces
 
E s n2   2
. Esto se
puede demostrar fácilmente como se ve a continuación
 ( X i  X )2   n 1  ( X i  X )2  n 1 2
 
E s  E
2
n   E
n 1
 E s n21  
n 1 2
 2 
 n   n  n n n

2

El sesgo en este caso es n , el cual desaparecerá cuando n tienda a infinito.

ii) ii) Consistencia o exactitud: Por lo general un estimador no es idéntico al

ˆ  
parámetro que se estima, existe una diferencia entre ellos que es el error de
muestreo, pero si se aumenta el tamaño de la muestra suficientemente, la

probabilidad de que esta diferencia sea mayor que un número fijo   0 tenderá a
cero. Esto es

 
P ˆ      0
cuando n  

Claramente, X y Md son estimadores consistentes de  , así como n 1 y n lo son de


s2 s2

2.

ˆ ˆ
iii) iii) Eficiencia o precisión: Un estimador  1 es más eficiente que  2 de  , si la
 2ˆ   2ˆ
varianza del primero es menor que la del segundo ( 1 2
).

Como se vio en el ejemplo 9.3 X y Md son estimadores insesgados de  y también

consistentes; sin embargo,


 X2   Md
2
, de donde X es un estimador más eficiente que
Md para estimar  .

iv) iv) Suficiencia: Se dice de manera intuitiva que un estimador es suficiente, si


transmite tanta información de la muestra como sea posible acerca del parámetro,
de modo que se proporciona mayor información por cualquier otro estimador
calculado de la misma muestra: y si se obtiene el valor de un estadístico suficiente
los valores de muestra mismos no proporcionan más información sobre el
parámetro. Por ejemplo, tanto la media ( X ) como la mediana como el centro de
amplitud (C.A.) se pueden usar como estimadores de  ; sin embargo, sólo la media
X toma en cuenta cada valor o toda la información de la muestra, mientras que el
centro de amplitud sólo toma en cuenta el primer y último valor, y la mediana es una
medida de tendencia central de posición. Así pues, la media es un estimador
suficiente para  .

ESTIMACIÓN POR INTERVALOS DE CONFIANZA

En la mayoría de las situaciones una estimación con un solo punto o puntual no


proporciona suficiente información acerca del parámetro de interés. Por ejemplo, si se
selecciona un número de muestras independientes de una misma población es posible
que cada una proporcione un estimador puntual diferente para la población,
dependiendo del error de estimación. Como resultado de esto el parámetro poblacional
estará dentro de un rango de valores muestrales o intervalo probable de estimación.
Para cualquier muestra se puede especificar, con algún grado de confiabilidad, unos
límites entre los cuales caerá el parámetro. Este rango de valores se denomina intervalo
de confianza.

En general, con el fin de construir un intervalo de confianza para un parámetro


desconocido  se deben obtener dos límites, uno inferior LI y otro superior LS de tal
manera que:
P(LI <  < LS ) = 1  
El intervalo resultante
LI <  < LS

se denomina intervalo de confianza del 100(1  )% para el parámetro desconocido ,


a LI y a LS se les denomina límites de confianza y a 1   se denomina coeficiente o nivel
de confianza. La interpretación de un intervalo de confianza es que si se obtienen
muchas muestras aleatorias de una población y se construyen los intervalos de
confianza correspondientes a cada una de ellas, entonces el 100(1  )% de estos
intervalos contendrán al verdadero parámetro.
ESTIMACIÓN

El primer problema del cual se ocupa la estadística inferencial es la estimación, que


puede ser a través de un número simple, generalmente el estadístico correspondiente
llamado estimador puntual, o por medio de dos valores numéricos que definen un
intervalo llamado intervalo de confianza, el cual contiene al parámetro estimado con
cierto grado de confiabilidad.

A los estimadores generalmente se les denota con la misma letra que al parámetro, pero
con un acento circunflejo o “gorrito”; esto es, si el parámetro fuese  , su estimador sería

ˆ . Cabe hacer notar que también se acostumbra usar letras griegas para parámetros y
letras latinas para estimadores. Así, por ejemplo, como estimador de la media  se usa
̂ , o X o Y ; de la varianza  2 se usa s 2 o ˆ 2 , etcétera.

CARACTERÍSTICAS DE UN BUEN ESTIMADOR PUNTUAL

Las características de un buen estimador puntual son insesgabilidad, consistencia o


exactitud, eficiencia o precisión y suficiencia.

i) Insesgabilidad: Un estimador puntual es insesgado si la media de la distribución


muestral del estadístico (esperanza matemática del estadístico) es igual al parámetro
ˆ
por estimar; es decir, si  es un estadístico cualquiera y  es el parámetro
ˆ
correspondiente y si E    , entonces  es un estimador insesgado de  .
ˆ

Como se vio en el ejemplo 9.3,


E X    X  
y
 
E s n21   2
, de donde se concluye

que X y n 1 son estimadores insesgados de  y  , respectivamente. Sin embargo,


s2 2
si se usa
s n2
para estimar la varianza de una muestra, entonces
 
E s n2   2
. Esto se
puede demostrar fácilmente como se ve a continuación
 ( X i  X )2   n 1  ( X i  X )2  n 1 2
 
E s  E
2
n   E
n 1
 E s n21 
n 1 2
 
 2 
 n   n  n n n

2

El sesgo en este caso es n , el cual desaparecerá cuando n tienda a infinito.

ii) Consistencia o exactitud: Por lo general un estimador no es idéntico al parámetro

ˆ  
que se estima, existe una diferencia entre ellos que es el error de muestreo, pero
si se aumenta el tamaño de la muestra suficientemente, la probabilidad de que esta

diferencia sea mayor que un número fijo   0 tenderá a cero. Esto es

 
P ˆ      0
cuando n  

Claramente, X y Md son estimadores consistentes de  , así como n 1 y n lo son de


s2 s2

2.

ˆ ˆ
iii) Eficiencia o precisión: Un estimador  1 es más eficiente que  2 de  , si la varianza
 2ˆ   2ˆ
del primero es menor que la del segundo ( 1 2
).

Como se vio en el ejemplo 9.3 X y Md son estimadores insesgados de  y también

consistentes; sin embargo,


 X2   Md
2
, de donde X es un estimador más eficiente que
Md para estimar  .

iv) Suficiencia: Se dice de manera intuitiva que un estimador es suficiente, si transmite


tanta información de la muestra como sea posible acerca del parámetro, de modo que
se proporciona mayor información por cualquier otro estimador calculado de la misma
muestra: y si se obtiene el valor de un estadístico suficiente los valores de muestra
mismos no proporcionan más información sobre el parámetro. Por ejemplo, tanto la

media ( X ) como la mediana como el centro de amplitud (C.A.) se pueden usar como
estimadores de  ; sin embargo, sólo la media X toma en cuenta cada valor o toda la
información de la muestra, mientras que el centro de amplitud sólo toma en cuenta el
primer y último valor, y la mediana es una medida de tendencia central de posición. Así
pues, la media es un estimador suficiente para  .

ESTIMACIÓN POR INTERVALOS DE CONFIANZA

En la mayoría de las situaciones una estimación con un solo punto o puntual no


proporciona suficiente información acerca del parámetro de interés. Por ejemplo, si se
selecciona un número de muestras independientes de una misma población es posible
que cada una proporcione un estimador puntual diferente para la población,
dependiendo del error de estimación. Como resultado de esto el parámetro poblacional
estará dentro de un rango de valores muestrales o intervalo probable de estimación.
Para cualquier muestra se puede especificar, con algún grado de confiabilidad, unos
límites entre los cuales caerá el parámetro. Este rango de valores se denomina intervalo
de confianza.

En general, con el fin de construir un intervalo de confianza para un parámetro


desconocido  se deben obtener dos límites, uno inferior LI y otro superior LS de tal
manera que:
P(LI <  < LS ) = 1  
El intervalo resultante

ESTIMADOR

En estadística, un estimador es un estadístico (esto es, una función de la muestra)


usado para estimar un parámetro desconocido de la población. Para cada parámetro
pueden existir varios estimadores diferentes. En general, escogeremos el estimador
que posea mejores propiedades que los restantes, como insesgadez, eficiencia,
convergencia y robustez (consistencia).El valor de un estimador proporciona lo que se
denomina en estadística una estimación puntual del valor del parámetro en estudio.
En general, se suele preferir realizar una estimación mediante un intervalo, esto es,
obtener un intervalo [a,b] Dentro del cual se espera esté el valor real del parámetro
con un cierto nivel de confianza. Utilizar un intervalo resulta más informativo, al
proporcionar información sobre el posible error de estimación, asociado con la
amplitud de dicho intervalo. El nivel deconfianza es la probabilidad de que

a priori el verdadero valor del parámetro que de contenido en el intervalo.

ESTIMACIÓN
Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de
un parámetro de una población a partir de los datos proporcionados por una
muestra. Por ejemplo, una estimación de la media de una determinada característica
de una población de tamaño N podría ser la media de esa misma característica para
una muestra de tamaño n.

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos
métodos que se usan en función de las características y propósitos del estudio:

Estimación puntual:

 Método de los momentos;

 Método de la máxima verosimilitud;

 Método de los mínimos cuadrados;

 Estimación por intervalos.

 Estimación bayesiana.

ESTIMACIÓN POR INTERVALOS


Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro
estimado con una cierta probabilidad.

Error de la estimación
Es una medida de su precisión que se corresponde con la amplitud del intervalo de
confianza. C u a n t a má s p r e c i s i ó n s e d e s e e e n l a e s t i m a c i ó n d e u n
parámetro, más

Luego, la proporción de hipertensas varía entre (0,139, 0,212) con una confianza de
95%.

IV. Uso de Intervalos de Confianza para verificar Hipótesis.

Los intervalos de confianza permiten verificar hipótesis planteadas respecto a


parámetros poblacionales.

Por ejemplo, supongamos que se plantea la hipótesis de que el promedio de peso de


nacimiento de cierta población es igual a la media nacional de 3250 gramos.

Al tomar una muestra de 30 recién nacidos de la población en estudio, se obtuvo:

= 2930
s= 450
n= 30

Al construir un intervalo de 95% de confianza para la media poblacional, se obtiene:

Luego, el peso de nacimiento varía entre 2769 y 3091 gramos, con una confianza de
95%.
Como el intervalo no incluye el valor =3250 gramos planteado en la hipótesis,
entonces esta es rechazada con confianza 95% (o un valor p menor a 0,5).

La distribución Normal estándar es una distribución normal con media =0 y varianza,


=1. Una variable distribuida N(0,1) generalmente se denota con la letra “z”.
En particular, si X~N ( , ), entonces z = (X- )/ tiene distribución normal
estándar.

Das könnte Ihnen auch gefallen