Beruflich Dokumente
Kultur Dokumente
n
i
i X n
x f x x x f
1
2 1
) ( ) ,...., , (
=
=
El proceso de muestreo permite obtener informacin acerca de los parmetros de la distribucin
de la poblacin. Generalmente, se sabe el tipo de distribucin que tiene la poblacin, pero se
desconocen los parmetros.
Un Estadstico es una funcin de los valores de la muestra que no depende del parmetro de
la poblacin. Si
n
X X X ,......., ,
2 1
es una muestra aleatoria de tamao n, entonces la media de
la muestra
n
X
X
n
i
i
=
=
1
, la varianza de la muestra
( )
1
1
2
2
=
n
x x
S
n
i
i
, y la desviacin estndar
muestral S, son estadsticas.
Un estadstico es una variable aleatoria, sta tiene una distribucin de probabilidad.
A. ESTIMACIN PUNTUAL DE PARMETROS
El objeto de muestrear una poblacin es tener estimaciones de los parmetros poblacionales
mediante las observaciones obtenidas en una muestra aleatoria .
Un Estimador Puntual es un estadstico cuyos valores son utilizados como valores estimados
de un parmetro. El valor de un estimador puntual recibe el nombre de estimacin.
Si en una distribucin se conoce su distribucin , pero se ignora los valores que toma el
parmetro , el problema estadstico consiste en estimar dicho valor a travs de la informacin
entregada por una muestra.
Llamaremos Estimador de un parmetro a cualquier estadstico o funcin de la muestra
aleatoria que nos permite hacer conjeturas acerca del verdadero valor que es desconocido.
Por ejemplo, a menudo es necesario estimar:
1) La media de una poblacin
2) La varianza
2
de una poblacin
3) La proporcin p de objetos de una poblacin que pertenecen a cierta clase de inters
4) La diferencia entre medias de dos poblaciones,
2 1
5) La diferencia entre proporciones de dos poblaciones,
2 1
p p
Observacin :
a) Un estimador
\
|
E y |
.
|
\
|
J .
2
Propiedades de los Estimadores Puntuales
1. Insesgamiento: Un estimador es insesgado si el valor medio de todas sus estimaciones
obtenidas en una muestra de tamao n, es igual al parmetro que estima. Entonces
es un
estimador insesgado si = |
.
|
\
|
E . De lo contrario se dice que es sesgado.
EjempIo : Seo
=
1
donde
=
interes de atributo el posee no elemento el si 0
interes de atributo el posee elemento el si 1
i
X
PesuIfo que : i)
p es esfimodor insesgodo de p.
ii) Io vorion;o de
p es
n
p p ) 1 (
2. El sesgo B de un estimador puntual
\
|
E
3. Consistencia: La consistencia de un estimador est relacionada con su proximidad al
parmetro que estima cuando el tamao de la muestra que se utiliza tiende a ser infinita.
Definicin : Un estimador de
\
|
P
n
Por razones prcticas se utiliza el siguiente teorema para verificar la consistencia de un
estimador.
Teorema : Si para un estimador
\
|
E
n
ii) 0 V lim = |
.
|
\
|
n
Entonces,
es un estimador consistente.
EgempIo : De uno pobIocion con medio E(x) ~
y vorion;o V(X) ~
2
, se exfroe uno muesfro
oIeoforio
n
X X X ,......., ,
2 1
. Pruebe que X es un esfimodor consisfenfe de .
En efecfo : E( X ) ~
y V( X ) ~
n
2
.
Luego, ( ) 0 - ) X E( lim =
n
y ( ) 0 X V lim =
n
.
Por fonfo, X es un esfimodor consisfenfe de .
Tureu : Pruebe que
2
S es un esfimodor consisfenfe de
2
.
Teorema : Si
1
es un estimador consistente del parmetro
1
y
2
es un estimador
consistente del parmetro
2
. Se cumple :
a)
1
+
2
es un estimador consistente del parmetro
1
+
2
.
b)
2
es un estimador consistente del parmetro
1
2
.
c)
1
/
2
es un estimador consistente del parmetro
1 /
2
.
4. Estimadores de Mnima Varianza
Si se consideran todos los estimadores insesgados de , el que tiene la menor varianza
recibe el nombre de estimador insesgado de varianza mnima (EIVM). Este estimador es
llamado el mejor de todos los estimadores.
EgempIo: Supongo que de uno pobIocion con E(X) ~ y V(X) ~
2
se obfiene uno muesfro de fomoo
3. Decido cuoI de Ios siguienfes esfimodores es mejor.
I
~
3 2 1
4
1
2
1
4
1
X X X + + y
Z
~ X
E(
I
) ~ ) (
4
1
) (
2
1
) (
4
1
3 2 1
X E X E X E + + ~ |
.
|
\
|
+ +
4
1
2
1
4
1
~ y E (
Z
) ~ E ( X ) ~
3
Los dos esfimodores son insesgodos, veomos ohoro su vorion;o
V(
I
) ~ ) (
16
1
) (
4
1
) (
16
1
3 2 1
X J X J X J + + ~
2
8
3
y V (
Z
) ~
2
3
1
Por Io fonfo,
Z
es eI mejor.
5. Error Cuadrtico Medio
Definicin : El error cuadrtico medio (ECM) es el valor esperado de la desviacin cuadrtica
entre el estimador y el parmetro que estima ECM =
2
) (
E , desarrollando la expresin, se
obtiene:
2
) (
E =
2
) ( ) (
(
(
(
|
.
|
\
|
+
|
|
|
.
|
\
|
E E E = ) (
J + ) (
2
B
Esto es, el error cuadrtico medio de
es igual a la
varianza de
.
El error cuadrtico medio es un criterio importante para comparar dos estimadores.
De acuerdo a valores que pueda tomar el parmetro, es posible que un estimador sesgado sea
mejor que uno insesgado.
EjempIo : Supongo que
I
y
Z
son dos esfimodores deI poromefro . Se sobe que
E(
I
) ~ , V(
I
) ~ 3 , E(
Z
) ~ 0.9 y V(
Z
) ~ Z, comporondo Ios errores cuodroficos medios se
fiene que
Z
es eI mejor
I.
6. Suficiencia
Dada una poblacin distribuida f(X, ) que depende de un solo parmetro , se extrae una
muestra aleatoria
n
X X X ,......., ,
2 1
y un estadstico
= g(
n
X X X ,......., ,
2 1
) es utilizada para estimar
. Dado que
es una sola variable aleatoria disponemos de n v. a., cabe preguntarse si se perdi alguna
informacin al usar
. si
= X
1
por ejemplo, es evidente que no fue usada toda la informacin.
Un estadstico
n
i
i X n
x f x x x f
1
2 1
) ( ) ,...., , (
=
= y ) ( ) , ( ) , ( X h g X f =
, en donde ) (X h no depende , entonces
es un estadstico suficiente para .
EjempIo: Consideremos uno m. o.
n
X X X ,......., ,
2 1
de uno pobIocion , enfonces
( )
( )
=
n
i
i
X n
e X f
1
2
2
1
2 2 ) , (
Como
2
1
) (
=
n
i
i
X ~ ( ) ( )
2
1
2
+
=
X n X X
n
i
i
{ Verifique|||}
As, X f ( , ) ~ ( )
( )
2
2
1
2
) (
2
2 /
01
2
n
i
i
x X
x
n
n
e e
.
Luego, X es un esfodsfico suficienfe poro
4
Un estadstico suficiente que resume los datos tanto como sea posible, es llamado Estadstico
Suficiente Minimal . Para encontrar estos estadsticos suficientes minimales usaremos el
mtodo de Lehmann y Scheffe:
Sean
n
X X X ,......., ,
2 1
e
n
Y Y Y ,......., ,
2 1
dos conjuntos de valores que toman las variables
n
X X X ,......., ,
2 1
de la m. a. Si se forma la razn
) , ( ....... ) , ( ) , (
) , ( ....... ) , ( ) , (
2 1
2 1
n
n
Y f Y f Y f
X f X f X f
si esta razn no incluir al parmetro , si existe una funcin g tal que ) ,......., , (
2 1 n
X X X g =
) ,......., , (
2 1 n
Y Y Y g , en tal caso ) ,......., , (
2 1 n
X X X g es el estadstico suficiente minimal para .
EjempIo : Seo ) ( p B X , se formo Io ro;on
n n
n n
v v v v
x x x x
q p q p
q p q p
1 1
1 1
.......
.......
1 1
1 1
~
i i
v x
p
p
)
1
( .
Si =
i i
Y X Io ro;on es independienfe de p. Luego, = ) ( X g
=
n
i
i
X
1
es un esfodsfico suficienfe
mnimal de p, o sea ,
p =
n
X
n
i
i
=1
es estimador que contiene toda la informacin de la muestra
con un mnimo de informacin. Este es por tanto, un estimador insesgado lineal de mnima
varianza (EIMV).
7. Eficiencia
En el estudio de la consistencia de un estimador se percibe que mientras menor es la varianza
de un estimador incrementa la probabilidad de obtener estimaciones ms prximas al verdadero
valor del parmetro que se estima. Luego, mientras ms pequea es su varianza, mayor es la
eficiencia del estimador.
Definicin: Un estimador insesgado
x f
nE
J
Si
x f
nE
B
J =
) (
) ( 1
2
I
B
|
.
|
\
|
+
La cantidad ) ( I representa la cantidad de informacin conocida como informacin de Fisher.
De aqu, que la CCR se conoce con el nombre de Desigualdad de Informacin.
EgempIo: Si X es evoIuodo con voIores de uno m. o.
n
X X X ,......., ,
2 1
socodo de uno disfribucion normoI
con vorion;o
2
0
conocido, demuesfre que X es eI esfimodor mos eficienfe poro esfimor Io medio .
8. Eficiencia Relativa
Si hay dos estimadores
1
y
2
insesgados, para el mismo parmetro , el estimador
2
es
ms eficiente que
1
si V(
2
) < V(
1
).
Definicin: la eficiencia relativa de
2
respecto a
1
se obtiene formando el cuociente de las
varianzas E = V(
2
) / V(
1
) . Si E < 1,
2
es ms eficiente que
1
.
5
Ejercicio1 : Sea la variable aleatoria Y con distribucin binomial de parmetros n y p.
Considere los siguientes estimadores: n Y p /
1
=
y ( ) ( ) 2 / 1
2
+ + = n Y p
a) Verifique que
1
p
es un estimador insesgado de p .
b) Obtenga el sesgo de
2
p
.
c) Obtenga ( )
1
p ECM
y ( )
2
p ECM
.
d) Es
1
p
1
y
2
son estimadores del parmetro . Se sabe que =
|
.
|
\
|
1 E
y =
|
.
|
\
|
2 E
2
. 10 1 =
|
.
|
\
|
J , 4 2 =
|
.
|
\
|
J . Qu estimador es mejor?. En qu sentido lo es?.
B. Mtodos de Estimacin
Los mtodos para determinar estimadores de parmetros son : Mtodo de Mxima Verosimilitud
y Mtodos de los Momentos. Uno de los mejores mtodos para obtener un estimador puntual
de un parmetro es el mtodo de mxima verosimilitud.
I. Mtodo de Mxima Verosimilitud (EMV)
Consideremos una voriobIe oIeoforio X con distribucin de forma conocida f que depende de un
parmetro desconocido. Si una m. a. de n observaciones
n
X X X ,......., ,
2 1
es tomada, se
define la funcin de verosimilitud de dicha muestra
) ; ,...., , (
2 1
n
X X X L
n
i
i X
x f
1
) ; (
=
=
A la funcin de probabilidad conjunta, si X es discreta o funcin de densidad conjunta si X es
continua que resulta para un determinado valor de . Para cada valor de , la funcin de
Verosimilitud de la muestra sera distinta.
Definicin: El EMV de , denotado por
X l
d
d
= 0 se llama
Ecuacin de Verosimilitud. Si la distribucin depende de dos parmetros = ( ) , entonces
se forma un sistema de ecuaciones de verosimilitud.
Ejemplo : Sea X una poblacin distribuida Poisson de parmetro . Determinar el EMV de
sacado de una muestra aleatoria
n
X X X ,...., ,
2 1
extrada de la poblacin.
Solucin :
i
X ) ( P
!
) (
i
x
i
x
e
X p
i
= con x = 0,1,2,....
La funcin de verosimilitud es
=
!
) , (
i
n x
x
e
X L
i
Aplicando logaritmo natural ln ) , ( X L =
=
+
n
i
i i
x x n
1
! ln ln
Derivando con respecto a , se tiene que x =
.
6
Propiedades de los EMV.
1.Insesgamiento: Los EMV pueden ser sesgados, pero al incrementar el tamao de la muestra
n se hace asintticamente insesgados. Por ejemplo: El estimador de la varianza obtenida en
una muestra n de una poblacin normal es
( )
2
2
1
S
n
n
=
.
2. Consistencia : Bajo ciertas condiciones los EMV son consistentes.
3. Invarianza: Esto significa que si existe una funcin de un parmetro, se obtiene un estimador
de la funcin sustituyendo el parmetro por su EMV.
La funcin ) ( g es estimada por ) ( ) (
= g g .
4. Distribucin Asinttica Normal : La varianza asinttica de un estimador es la cota inferior
de Cramer-Rao.
2
) , ( ln
1
) (
)
`
x f
nE
J .
As, un EMV
\
|
=
y x e x x f
x
0
2
1
2
3
) ( .
a) Obtenga la estimacion de maxima verosimilitud de .
b) Es
=
. . . 0
0
2
) (
2
c o e
x
x
x f
8osondose en uno muesfro oIeoforio de fomoo n , demuesfre que eI esfimodor por eI mefodo de Ios
momenfos de es x
2
3
=
.
7
Ejercicios Propuestos de Estimacin Puntual
1. Sea
n
X X X ,......., ,
2 1
una muestra aleatoria de la variable aleatoria distribuida Poisson de
parmetro desconocido. Considere los siguientes estimadores :
1
=
n
X
n
i
i
=1
y 2
=
+ =
n
i
i
X i
n n 1 ) 1 (
2
Ind.:
2
) 1 (
1
+
=
=
n n
i
n
i
a) Demuestre que 1
y 2
.
f) Obtenga el estimador mediante el mtodo de los momentos de .
2. Suponga que
3 2 1
, , X X X forman una muestra aleatoria de una distribucin exponencial con la
funcin densidad 0 ;
1
) ; (
> =
x e x f
x
Considerando los estimadores
1 1
`
X =
3
2
`
2 1
2
X X +
=
a) Pruebe que los estimadores
1
`
y
2
`
son insesgados de .
b) Cul tiene la menor varianza?.
c) Calcular la eficiencia relativa de
1
`
con respecto a
2
`
d) Obtener el estadstico suficiente minimal para .
3. Sea X
1
, ...., X
n
una muestra aleatoria de una poblacin con media y varianza
2
.
Considere los tres estimadores siguientes para :
1
=
2
2 1
X X +
;
2
=
4
) 2 ( 2
.....
4
1 2 1 n n
X
n
X X X
+
+ +
+
;
3
= X
a) Demuestre que cada uno de los tres estimadores es insesgado.
b) Determine la eficiencia relativa de
3
con respecto a
2
y
1
, respectivamente.
4. Sea
n
X X X ,... ,
2 1
una muestra aleatoria con funcin densidad de probabilidad
f(x) =
.
b) Obtenga el estadstico mnima suficiencia para .
c) Obtenga un estimador para por el mtodo de los momentos.
d) Obtenga el estimador de mxima verosimilitud para . Compare su respuesta con el
estimador mediante momentos encontrado en parte c).
5. Sea X X X
n 1 2
, ,... una muestra aleatoria de una distribucin Rayleigh con parmetro ,
dada por f(x) =
> |
.
|
\
|
. . . 0
0
2
/
2
c o e
x e
x
x
.
a) Demuestre que
=
n
i
i
X
1
2
es suficiente para .
b) Utilice
=
n
i
i
X
1
2
para encontrar un estimador insesgado de mnima varianza de .
c)
Determinar el estimador mximo verosmil de
y por el mtodo de los momentos.