Sie sind auf Seite 1von 10

Ctedra: Estadstica- MODULO II

UNIDAD IV
INFERENCIA ESTADISTICA
Hasta ahora nos hemos ocupado de la Estadstica Metodolgica y algunos aspectos de
la Teora de Probabilidades. Trataremos ahora, en este y en el captulo siguiente, la rama de la
estadstica que estudia sus relaciones con el Muestreo, conocida como Estadstica Inferencial.
Cuando trabajamos con Muestras, la Estadstica proporciona mtodos no solo para describir la
muestra (Estadstica Descriptiva o Metodolgica), sino que tambin, bajo ciertas condiciones, el
Anlisis Estadstico de las observaciones proporciona informacin respecto a la poblacin
objeto del muestreo. De esto trata la Estadstica Inferencial.

El campo de la Inferencia Estadstica trata bsicamente con generalizaciones y
predicciones, para ello utiliza la Teora del Muestreo. En el curso que nos ocupa
desarrollaremos:
Estimacin (puntual y por intervalos de confianza)
Pruebas de Hiptesis.
Para comprender el desarrollo operativo y prctico de los temas mencionados, se
requiere previamente conocer acerca de las Distribuciones en el Muestreo.
DISTRIBUCIONES EN EL MUESTREO
Aplicando los conocimientos adquiridos con los temas estudiados en Teora de
Probabilidades, desarrollaremos a continuacin los conceptos bsicos de las Distribuciones en el
Muestreo.
La sntesis conceptual de la temtica a desarrollar es la siguiente: para poder aplicar los
mtodos de la inferencia estadstica se requiere partir de una Muestra Aleatoria, sta es aleatoria
ya que la seleccin de los elementos que la componen, se ajusta a algn procedimiento que
garantiza la aleatoriedad.
En esta muestra aleatoria vamos a calcular estadsticos que son los estimadores de los
parmetros poblacionales. Si se piensa en todas las muestras posibles de ser seleccionadas en una
poblacin cualquiera, se tendran varios valores posibles para el estadstico, como resultado de un
experimento aleatorio, en consecuencia este estadstico, que es un estimador del parmetro, es
un variable aleatoria.
Por ser el estimador una variable aleatoria le corresponde una funcin de probabilidad
asociada a l. Es la teora de probabilidades la que permite encontrar las distribuciones de los
estadsticos muestrales, las distribuciones de probabilidad asociadas a estos estadsticos se
llaman distribuciones muestrales.
Sin olvidar que es objetivo de la Inferencia Estadstica, el conocimiento del
comportamiento y caractersticas de las poblaciones estadsticas a travs de la informacin que
proporciona la Muestra.
El punto de partida es trabajar con una muestra aleatoria. Recordemos que el concepto de
aleatoriedad resulta de un proceso o experimento aleatorio en si mismo, (imposibilidad de
predecir su resultado). En consecuencia el diseo del experimento y el mtodo de seleccin de la
muestra, deben garantizar esta aleatoriedad.
Distribuciones en el Muestreo 1
Ctedra: Estadstica- MODULO II
Distribucin de Probabilidad de la Muestra
Dadas dos variables aleatorias independientes, la funcin de probabilidad conjunta es igual
al producto de sus marginales:
ntes independie son y e x y f x f y x f ) ( ). ( ) , (
Expresin que puede generalizarse para n variables aleatorias independientes. Podemos
aplicar este conocimiento al caso de una Muestra aleatoria de tamao n.
Sea una variable aleatoria X con funcin de densidad de probabilidad f(x). Supngase que
de esa poblacin se obtiene una muestra de n elementos, donde cada prueba es
independiente de las otras. Entonces la funcin de probabilidad de la Muestra est dada
por:
) ( ) ( )....... ( ) ( ) ,...... , (
1
2 1 2 1

n
i
i n n
x f x f x f x f x x x f
Teniendo en cuenta esta definicin, diremos que los requisitos para que una muestra sea
aleatoria son los siguientes:
I) La funcin de densidad de una variable aleatoria X permanece constante de prueba a prueba, e igual a la
funcin de densidad.
) ( ) ( ....... ) ( ) (
2 1
X f x f x f x f
n

II) Independencia entre las pruebas.
) ( ) ( )....... ( ) ( ) ,...... , ( ) (
1
2 1 2 1


n
i
i n n
x f x f x f x f x x x f M P
Sea entonces f(x) la funcin de densidad de una variable aleatoria observada para cierta
poblacin y sea n el tamao de la muestra. Pensemos a la muestra no como evidencia sino
como el resultado de un experimento aleatorio (extraer una muestra) repetido m veces.en el
sentido que repito la muestra en esa misma poblacin y cada muestra es un resultado posible y
distinto.
) ( ) (
2
) (
1
" "
2
"
1
' '
2
'
1
... , :
.... .......... ..........
,...... , :
2
,...... , :
1
m
n
m m
n
n
x x x
m
M
x x x M
x x x M
Suma de variables aleatorias de distribucin desconocida
Sean n variables X
1
, X
2
,...., X
n
independientes con esperanza y variancia finitas : E(X
i
) =

y
V(X
i
) =

Distribuciones en el Muestreo 2
Ctedra: Estadstica- MODULO II
y sea S =
n
n
i
i
X X X X + + +

......
2 1
1

Entonces , utilizando propiedades de Esperanza y de Variancia:
E(S) =



n
i
i
n
i
i
n
i
i
X E X E
1 1 1
) ( ) (
y como las variables son independientes:
V(S)



n
i
i
n
i
i
n
i
i
X V X V
1
2
1 1
) ( ) (

Ejemplos de aplicacion ( h X, )
Consideremos una muestra de n elementos de una poblacin. Definamos X
i
como la observacin
hecha al i-simo elemento.
Se dispone entonces de n variables aleatorias independientes : X
1
,X
2
,...., X
n
idnticamente
distribudas
2
) ( ) ( : ... 1
i i
X V y X E n i
Por lo tanto, si S =

n
i
i
X
1
, entonces :
E(S) =
n X E X E
n
i
n
i
i
n
i
i


1 1 1
) ( ) (
V(S)



n
i
i
n
i
i
n
i
i
n X V X V
1
2 2
1 1
) ( ) (

Definamos :
n
S
n
X
X
n
i
i

1
Entonces:
n
n
n
S V
n n
S
V X V
n
n
S E
n n
S
E X E
2
2
2 2
1
) (
1
) ( ) (
1
) (
1
) ( ) (



Luego, X es una variable aleatoria que se distribuye con media y variancia :
n
X V
X E
2
) (
) (

Si en particular consideramos una muestra de n repeticiones de un experimento dicotmico, definiremos


para cada repeticin una variable bipuntual.
Entonces :
X
1
, X
2
,...., X
n
independientes e idnticamente distribuidas B
i
(p)
por lo tanto
n
X
X
n
i
i

1
es la frecuencia relativa de xitos.
Distribuciones en el Muestreo 3
Ctedra: Estadstica- MODULO II
Simbolizando con h a la proporcin de xitos obtenida en la muestra, tenemos:
n
X
h
n
i
i

1
Para esta variable proporcin muestral de xitos , la esperanza y la variancia son :
( )
( )
n
pq
npq
n
q p
n
X V
n
X V
n
n
X
V h V
p np
n
p
n
X E
n
X E
n n
X
E h E
n
i
n
i
i
n
i
i
n
i
i
n
i
n
i
i
n
i
i
n
i
i

1
1
]
1

1
1
1
1
1
]
1


1
1
]
1

1
1
1
1
1
]
1

2
1
2
1
2
1
2
1
1 1 1
1
1 1 1 1
) (
1 1 1 1
) (
Por lo tanto, h es una variable aleatoria que se distribuye con media y variancia :
n
pq
h V
p h E

) (
) (
En ambos casos ( X y h ) vemos que la esperanza de la media muestral es igual a la media
poblacional (o esperanza de la variable), y que la variancia de la media muestral es menor que la
variancia poblacional, disminuyendo su valor a medida que aumenta el tamao de la muestra. Esto
significa que la distribucin de la media muestral ( X o h ) es ms concentrada que la de la propia
variable , y cuanto mayor sea el tamao de la muestra ms se concentra esta distribucin alrededor de la
media poblacional.
Ley de los grandes nmeros
Cualquiera sea la distribucin de la variable X (siempre que tenga esperanza y variancia finitas),
la distribucin de la media muestral ( X ) se concentra ms y ms alrededor de la media poblacional ,
conforme aumente el tamao de la muestra. La Ley de los Grandes Nmeros enuncia este concepto en
trminos de probabilidad:
Enunciado : Sea d un nmero real positivo, arbitrariamente pequeo. La probabilidad de que la
media muestral X diste de la poblacional en una magnitud mayor que d tiende a "cero" a medida
que el tamao de la muestra (n) tiende a "infinito" .
En smbolos :
{ } 0 >
n
d X P
Lo que significa que X para n
Teorema de Bernoulli
(Aplicacin de la Ley de los Grandes Nmeros)
Estudia el comportamiento de la probabilidad de la frecuencia relativa en un esquema binomial de
un suceso.
Sea un suceso A tal que p A P
n
n
f
A
A
) (
Enunciado :
Sea un nmero real positivo, arbitrariamente pequeo. La probabilidad de que la proporcin
muestral h diste de la poblacional p en una magnitud menor que tiende a "uno" a medida que el tamao
de la muestra (n) tiende a "infinito" .
En smbolos:
{ } 1 <
n
p h P
Distribuciones en el Muestreo 4
Ctedra: Estadstica- MODULO II
Lo que significa que hp, para n
Teorema Central del Lmite
Es el teorema ms importante de la Teora y Practica Estadstica. La Ley de los Grandes
Nmeros trata de la convergencia en probabilidad, pero nada dice acerca de la distribucin de la media (o
proporcin) muestral.
El Teorema Central del Limite trata de la convergencia en distribucin de la suma de variables
aleatorias independientes, de las cuales no se requiere conocer su distribucin.
Enunciado :
Sean n variables aleatorias independientes : X
1
, X
2
,...., X
n
independientes con esperanza y
variancia finitas, con n grande. Entonces la distribucin de la suma de estas variables converge a la
distribucin Normal.
En smbolos:
Sean X
1
, X
2
,...., X
n
independientes con
( )
2
) (
i i
i i
X V
X E

Sea S
n
=
n
n
i
i
X X X X + + +

......
2 1
1
Entonces
( )
( )
) 1 , 0 ( N
S E S
D
n
S
n n
n

Ya vimos que:
E(S
n
) =



n
i
n
i
i
n
i
i
X E X E
1 1 1
) ( ) (
y V(S
n
)



n
i
i
n
i
i
n
i
i
X V X V
1
2
1 1
) ( ) (

Luego tenemos que:
) 1 , 0 (
1
2
1
1
2
1 1
N
S X
D
n
n
i
i
n
i
i n
n
i
i
n
i
n
i
i i

Aplicaciones del Teorema Central del Limite


Distribucin de la media X y de la proporcin h
Consideremos una muestra de n elementos de una poblacin . Definamos Xi como la observacin
hecha al i-simo elemento.
Se dispone entonces de n variables aleatorias independientes X
1
,X
2
,....,X
n
identicamente
distribudas.
E(S
n
) =



n
i
n
i
i
n
i
i
n X E X E
1 1 1
) ( ) (
y V(S
n
)
2
1
2
1 1
) ( ) ( n X V X V
n
i
i
n
i
i
n
i
i



Distribuciones en el Muestreo 5
Ctedra: Estadstica- MODULO II
( )
( )
( )

,
_



n
N X n para
N
n
X
n n
n
n S
n
n S
pero
N
n
n S
n
n S
S V
S E S
D
n
n
n
D
n
n n
n
n n

, ~
) 1 , 0 (
) 1 , 0 (
2
Si en particular consideramos una muestra de n repeticiones de un experimento dicotmico,
definimos para cada repeticin una variable bipuntual.
X
1
, X
2
,...., X
n
iid B
i
(p)
( ) ( ) pq X V y p X E n
i i i
: .... 1
Por lo tanto
E(S
n
) =



n
i
n
i
i
n
i
i
np p X E X E
1 1 1
) ( ) (
y V(S
n
)
npq pq X V X V
n
i
n
i
i
n
i
i


1 1 1
) ( ) (
( )
( )
( )
( )

,
_


n
pq
p N h n para N
n
pq
p h
n npq
n
np S
npq
np S
pero
muestral proporcion la es
n
S
n
X
h que y p n binomial on distribuci una tiene S que Notese
N
npq
np S
S V
S E S
D
n
n
n
n
n
i
i
n
D
n
n
n
n n
, ~ ) 1 , 0 (
,
) 1 , 0 (
1
DISTRIBUCIONES EN EL MUESTREO
Distribucin de la media muestral en poblaciones normales
Sea ( X
1
, X
2
, ... , X
n
) una muestra aleatoria extrada de una poblacin normal, luego, i = 1 .. n :
X ~ N( , ) .
Por lo tanto tenemos que: X
1
, X
2
, ... , X
n
iid N( , ).
A travs de las propiedades de la Funcin Generatriz de Momentos se demuestra que
X
i
~ N ( n. ,
n
) , como tambin que


) , ( ~
1
n
N X
n
X
i

Distribuciones en el Muestreo 6
Ctedra: Estadstica- MODULO II
Distribucin de la proporcin muestral
Sean X
1
, X
2
, ... , X
n
iid B
i
( p ) .
A travs de las propiedades de la Funcin Generatriz de Momentos se demuestra que
X = X
i
~ B ( n , p ) .
Para n suficientemente grande, la variable binomial se distribuye aproximadamente normal ,
aproximadamente : X ~ N( n.p ,
npq
) .
De donde se deduce que la proporcin muestral

n
X
n
X
h
i

tambin tiene una distribucin aproximadamente normal :

,
_

n
pq
p N X
n
h
i
, ~
1
ESTIMACIN DE PARMETROS
Estimacin puntual
Para estimar los parmetros de una poblacin, es necesario disponer de algunos datos que
provengan de dicha poblacin. Cualquier muestra de observaciones proporciona cierto conocimiento acerca
de la poblacin de la cual proviene. Para medir el error muestral es necesario que dicha muestra sea
ALEATORIA
Desde el punto de vista algebraico, el estimador de un parmetro es una funcin de las
observaciones muestrales
) ,........ , (
2 1 n
x x x t
, que puede ser lineal, cuadrtico, etc.
Ejemplos:
( )
2 2
2
2

S nes observacio las de cuadratica funcion X x


n
S
X nes observacio las de lineal funcion x
n
X
i
i
El resultado numrico que se obtiene es la estimacin del parmetro, en tanto que la expresin
matemtica (o algebraica) es el estimador del parmetro . Puede haber varios estimadores del mismo
parmetro, de los cuales se pretende elegir el mejor , en base a las caractersticas o propiedades que se
requiera del mismo.
Propiedades de los estimadores
1.- Insesgado o no viciado :
Un estimador se dice insesgado si su esperanza es igual al parmetro. Es decir :
)

E insesgado es
Por el contrario, el estimador se dice viciado si su esperanza es distinta al parmetro.
viciado es E

(
2.- Consistente :
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se concentra
alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal que el error
de muestreo tiende a desaparecer. Es decir :
{ } pequeno mente arbitraria n para P
si de e consistent estimador un es
+
<

, , 1

Distribuciones en el Muestreo 7
Ctedra: Estadstica- MODULO II
Si un estimador es insesgado (o asintticamente insesgado), ser consistente si su variancia tiende
a cero. Es decir :
e consistent es V E
bien o
e consistent es V E

0 )

( )

0 )

( )

(


3.- Eficiente :
Decimos que un estimador no viciado es eficiente si es de mnima variancia. O sea, el estimador
se dice eficiente si su variancia es menor que la de cualquier otro estimador del mismo parmetro.
Es decir:
Si

es un estimador de , entonces

es eficiente si

1
)

(
)

(
, , )

( )

(
*
< <


V
V
sea o V V
Eficiencia relativa:
Dados dos estimadores no viciados del mismo parmetro, se dice que es ms eficiente aqul que
tiene menor variancia. Es decir :
Sean 2 1

y
dos estimadores de , decimos que
1
)

(
)

(
)

( )

( ;

2
1
2 1 2 1
< <


V
V
V V si que eficiente mas es
4.- Suficiente
Un estimador se dice suficiente si contiene (o absorbe) toda la informacin proporcionada por la
muestra , en lo que respecta al parmetro.
5.- Invariancia :
Un estimador se dice invariante cuando una funcin del mismo es un buen estimador de la funcin del
parmetro . Es decir :

es invariante ( ) g g )

(
Mtodos de estimacin puntual
1.-Mtodo de los momentos: Consiste en estimar los momentos poblacionales a travs de los momentos
muestrales .
2.-Mtodo de los Mnimos Cuadrados: Consiste en encontrar estimadores de los parmetros de forma tal
que minimicen la suma de los cuadrados de los desvos . Con este mtodo se obtienen estimadores
no viciados y consistentes, pues el mismo garantiza mnima variancia y suma de desvos igual a
cero .
3.-Mtodo de Mxima Verosimilitud: Consiste en encontrar estimadores de los parmetros de forma tal que
maximicen la funcin de probabilidad de la muestra. Para ello, es imprescindible conocer la
distribucin de la variable en la poblacin. Este mtodo proporciona los mejores estimadores, que
gozan excelentes propiedades: Insesgado (o bien, asintticamente insesgado) ,Consistente ,
Eficiente, Suficiente, Invariantes y de distribucin asintticamente Normal .
Distribuciones en el Muestreo 8
Ctedra: Estadstica- MODULO II
Distribuciones en el Muestreo 9
Ctedra: Estadstica- MODULO II
Distribuciones en el Muestreo 10

Das könnte Ihnen auch gefallen