Beruflich Dokumente
Kultur Dokumente
ESTIMACIN DE PARMETROS
Estimacin puntual
Para estimar los parmetros de una poblacin, es necesario disponer de algunos datos que provengan
de dicha poblacin. Cualquier muestra de observaciones proporciona cierto conocimiento acerca de la
poblacin de la cual proviene. Para medir el error muestral es necesario que dicha muestra sea
ALEATORIA .
Desde el punto de vista algebraico, el estimador de un parmetro es una funcin de las observaciones
muestrales t ( x1, x2 ,........ xn ) , que puede ser lineal, cuadrtica, etc.
Ejemplos:
1
x funcion lineal de las observaciones X =
n i
1
2
S 2 = ( xi X )
funcion cuadratica de las observaciones S 2 = 2
n
X =
El resultado numrico que se obtiene es la estimacin del parmetro, en tanto que la expresin
matemtica (o algebraica) es el estimador del parmetro . Puede haber varios estimadores del mismo
parmetro, de los cuales se pretende elegir el mejor , en base a las caractersticas o propiedades que se
requiera del mismo.
Propiedades de los estimadores
1.- Insesgado o no viciado :
Un estimador se dice insesgado si su esperanza es igual al parmetro. Es decir :
es insesgado E () =
Por el contrario, el estimador se dice viciado si su esperanza es distinta al parmetro.
E () es viciado
2.- Consistente :
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se
concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal
que el error de muestreo tiende a desaparecer. Es decir :
es un estimador consistente de si :
V ()
<1
V ( * )
Eficiencia relativa:
Dados dos estimadores no viciados del mismo parmetro, se dice que es ms eficiente aqul que
tiene menor variancia. Es decir :
Sean 1 y 2 dos estimadores de , decimos que
1 es mas eficiente que 2 ; si V (1 ) < V (2 )
V (1 )
V (2 )
<1
4.- Suficiente :
Estimacin de parmetros
llamada funcin de verosimilitud y su expresin est dada en trminos de los parmetros y de las
observaciones. Comnmente se la simboliza con L( X , ) , donde X es el vector aleatorio que
representa a la muestra (o valores observados) y es el parmetro que se quiere estimar .
Luego se pretende hallar el valor de que maximice a L( X , ) valor que tambin maximiza al
logaritmo de la funcin : ln L( X , ) , (ya que el logaritmo es una funcin montona creciente). Por lo
tanto, el segundo paso es aplicarle logaritmo a la funcin de probabilidad de la muestra ( o de
verosimilitud) con el fin de simplificar la derivada.
Se sabe que una funcin continua y derivable alcanza su valor mximo en un punto para el cual se
anula su derivada. Si la funcin de probabilidad de la muestra satisface este requisito, entonces el tercer
paso es derivar la funcin obtenida ln L( X , ) respecto del parmetro , y luego hallar el valor de
(o la expresin de ) para el cual se satisface:
L ( X , )
= 0.
Inconvenientes :
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los de mnima
variancia , pero no indica cual sea esta variancia.
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los que asignan
mxima probabilidad a la muestra, pero obviamente se admite que dicha muestra sea posible de
obtener an con diferentes valores del parmetro.
Estas son razones por las cuales la estimacin puntual se torna impracticable (sin inters prctico), y se
prefiere la estimacin por intervalos, ya que provee de ms informacin .
La estimacin por intervalo se realiza utilizando un nivel de confianza , que simbolizamos con 1- y
que representa la probabilidad de que dicho intervalo contenga al verdadero valor del parmetro .
La construccin del intervalo de confianza consiste en hallar los lmites inferior y superior en funcin
de la muestra obtenida. Para su obtencin es necesario conocer la distribucin del estimador del
parmetro ( distribucin que obviamente depender del parmetro .). Generalmente se construye una
nueva variable en la cual intervienen el estimador y el parmetro , dicha variable recibe el nombre de
X1 , X2 , ... , Xn iid N( , ). X = X i ~ N ( , )
n
n
~ N ( 0,1)
X
< z =1
P z <
2
2
n
siendo z/2: el valor de la variable normal standarizada que est superado con una probabilidad /2.
De dicha expresin se obtiene que:
X z
< <X +z
2
con el (1 )% de confianza
X
s
~ t n 1
X
P t n 1, <
< t n 1,
s
2
2
=1
siendo tn-1,/2 el valor de la variable t-student con n grados de libertad, superado con probabilidad /2
De dicha expresin se obtiene que :
X t n 1, .
2
s
n
< < X + t n 1, .
2
con el (1 )% de confianza
pq
1
aproximadamente : X ~ N np , npq y h = X i ~ N p,
n
n
donde
pq
= h es un valor desconocido puesto que no se conoce el valor del parmetro p, por lo
n
s h = h =
h p
h (1 h )
h (1 h )
~ N ( 0,1)
Dicha aproximacin es buena para muestras de tamao suficientemente grandes, y el mnimo tamao de
muestra depende del valor de h. W.G. Cochran da una regla prctica para ser utilizada en la bsqueda de
intervalos de confianza del 95%, correspondientes a la proporcin poblacional p.
Proporcin emprica h
0.5
0.4 o 0.6
0.3 o 0.7
0.2 0 0.8
0.1 o 0.9
0.05 o 0.95
Para estos valores de n se obtiene una buena aproximacin Normal vlida para la construccin de
intervalos del 95% de confianza.
h(1 h)
h(1 h)
< p < h + z 2
con el (1-).100% de confianza
h z 2
n
n
Y1 , Y2 , ... , Ym
x
1
)
X i ~ N ( x ,
n
n
y
1
Y = Yi ~ N ( y ,
)
m
m
iid N( x, x )
X1 , X2 , ... , Xn
X=
Entonces
con X e Y independientes
2
2
x y
X Y ~ N x y ;
+
n
m
X Y x y
2
x
Estimacin de parmetros
)~
N ( 0,1)
a) Si 2x y 2y
x y se obtiene de la siguiente
manera:
X Y z
2
2
2x y
2x y
+
< x y < X Y + z
+
2
n
m
n
m
=
2
S A2
Luego, como :
(n 1)S x2 + (m 1)S y2
n+m2
X Y x y
1
S A2
1
+
n
m
1
n
(2x y ) = S A2 +
1
m
~ t n+ m2
X Y t 2, g . S A
1 1
1 1
+
< x y < X Y + t 2, g . S A
+
n m
n m
t n + m 2 N (0,1)
D
X1 , X2 , ... , Xn
iid Bi(p1)
Y1 , Y2 , ... , Ym
iid Bi(p2)
Sean
h1 =
1
n
Xi
h2 =
1
m
con Xi independiente de Yj
i,j
Y j
h1 ~ N p1 ,
donde
p1q1
n
p2 q2
m
p1 q1
n
y h2 ~ N p 2 ,
p2 q2
n
p q
p q
h1 h2 ~ N p1 p 2 ; 1 1 + 2 2
n
m
independientes
Estimacin de parmetros
h1 (1 h1 ) h2 (1 h2 )
+
n
m
5
h1 (1 h1 )
n
h2 (1 h2 )
~ N ( 0,1)
<
p1 p 2
sern de la forma:
< h1 h2 + z S
( h h
2
Sean
X1 , X2 , ... , Xn
n X 2
~ n2
i
i =1
Como
iid N( , ). Entonces
Xi
~ N ( 0,1)
i = 1,.... n
X i X 2
2
~ n 1
i =1
n
X i X 2 ( n 1) S( x ) 2
=
2
i =1
tenemos que:
( n 1). S ( x )
~ n 1
(n 1).S (2x )
< 2n 1; 2 = 1
P 2n 1;1 2 <
2
1
2n 1; 2
<
2
1
< 2
2
(n 1).S ( x ) n 1;1 2
( n 1).S (2x )
n2 1; 2
< 2 <
(n 1).S (2x )
2n 1;1 2
i,j
x
i =1 x
n
y y 2 ( n 1). S 2
( y)
j
2
=
~ m 1
2
y
j =1
y
m
Estimacin de parmetros
( n 1) S ( x )
2
x ( n 1)
2
( m 1) S y
S
=
( x)
2
Sy
y
2
~ F n 1, m 1
y ( m 1)
S (2y ) 2
x
.
~ F m 1, n 1
S(2x ) y2
P F m 1,n 1;1
S( y ) 2
x
< 2 . 2 < F m 1,n 1; 2 = 1
S( x) y
que equivale a:
P
F m 1,n 1;
S( y ) 2
x
. 2 < F m 1,n 1;
2<
2
S( x) y
2 = 1
de donde se obtienen los intervalos de confianza para los cocientes de las variancias
2
S(x)
S
2
( y)
F m 1,n 1;
<
2
( y)
2
S( x)
<
<
2
Estimacin de parmetros
S(x)
S
1
F m 1,n 1;
y
2
S
<
2
( y)
. F m 1,n 1;
. F m 1,n 1;
( y)
2
S( x)
con ( x ) =
(x)
n
en poblaciones infinitas y ( x ) =
(x)
N n
en poblaciones finitas
N 1
b)
con S( x ) = ( x ) =
S( x )
n
en poblaciones infinitas y S( x ) =
S( x )
n
N n
en poblaciones finitas
N 1
X Y z
2.
x y
<
< X Y + z
2.
2 .S A
x y
<
< X Y + z
2 .S A
X Y z
2.
Sx
n
Sy
m
Estimacin de parmetros
<
x y
<
X Y + z
Sx
2
Sy