Sie sind auf Seite 1von 8

Ctedra: Probabilidad y Estadstica

ESTIMACIN DE PARMETROS
Estimacin puntual
Para estimar los parmetros de una poblacin, es necesario disponer de algunos datos que provengan
de dicha poblacin. Cualquier muestra de observaciones proporciona cierto conocimiento acerca de la
poblacin de la cual proviene. Para medir el error muestral es necesario que dicha muestra sea
ALEATORIA .
Desde el punto de vista algebraico, el estimador de un parmetro es una funcin de las observaciones
muestrales t ( x1, x2 ,........ xn ) , que puede ser lineal, cuadrtica, etc.
Ejemplos:
1
x funcion lineal de las observaciones X =
n i
1
2
S 2 = ( xi X )
funcion cuadratica de las observaciones S 2 = 2
n
X =

El resultado numrico que se obtiene es la estimacin del parmetro, en tanto que la expresin
matemtica (o algebraica) es el estimador del parmetro . Puede haber varios estimadores del mismo
parmetro, de los cuales se pretende elegir el mejor , en base a las caractersticas o propiedades que se
requiera del mismo.
Propiedades de los estimadores
1.- Insesgado o no viciado :
Un estimador se dice insesgado si su esperanza es igual al parmetro. Es decir :
es insesgado E () =
Por el contrario, el estimador se dice viciado si su esperanza es distinta al parmetro.
E () es viciado
2.- Consistente :
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se
concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal
que el error de muestreo tiende a desaparecer. Es decir :
es un estimador consistente de si :

P < 1 , para n , + arbitrariamente pequeo


Si un estimador es insesgado (o asintticamente insesgado), ser consistente si su variancia tiende
a cero. Es decir :
E () = V ()0 es consistente
o bien : E () V ()0 es consistente
3.- Eficiente :
Decimos que un estimador no viciado es eficiente si es de mnima variancia. O sea, el estimador
se dice eficiente si su variancia es menor que la de cualquier otro estimador del mismo parmetro.
Es decir:
Si es un estimador no viciado de , entonces es eficiente si * :
V ()<V ( * ) , o sea,

V ()
<1
V ( * )

Eficiencia relativa:
Dados dos estimadores no viciados del mismo parmetro, se dice que es ms eficiente aqul que
tiene menor variancia. Es decir :
Sean 1 y 2 dos estimadores de , decimos que
1 es mas eficiente que 2 ; si V (1 ) < V (2 )

V (1 )

V (2 )

<1

4.- Suficiente :
Estimacin de parmetros

Ctedra: Probabilidad y Estadstica

Un estimador se dice suficiente si contiene (o absorbe) toda la informacin proporcionada por la


muestra , en lo que respecta al parmetro.
5.- Invariancia :
Un estimador se dice invariante cuando una funcin del mismo es un buen estimador de la
es invariante g () = g( )
funcin del parmetro . Es decir :

Mtodos de estimacin puntual


1.-Mtodo de los momentos: Consiste en estimar los momentos poblacionales a travs de los momentos
muestrales .
2.-Mtodo de los Mnimos Cuadrados: Consiste en encontrar estimadores de los parmetros de forma tal
que minimicen la suma de los cuadrados de los desvos . Con este mtodo se obtienen estimadores no
viciados y consistentes, pues el mismo garantiza mnima variancia y suma de desvos igual a cero .
3.-Mtodo de Mxima Verosimilitud: Consiste en encontrar estimadores de los parmetros de forma tal
que maximicen la funcin de probabilidad de la muestra. Para ello, es imprescindible conocer la
distribucin de la variable en la poblacin. Este mtodo proporciona los mejores estimadores, que
gozan excelentes propiedades: Insesgado (o bien, asintticamente insesgado) ,Consistente , Eficiente,
Suficiente, Invariantes y de distribucin asintticamente Normal .
Pasos a seguir para obtener los estimadores de mxima verosimilitud
n

Primero se obtiene la funcin de probabilidad de la muestra f (x1 , x 2 ,.....x n ) = f (xi ) , tambin


i =1

llamada funcin de verosimilitud y su expresin est dada en trminos de los parmetros y de las
observaciones. Comnmente se la simboliza con L( X , ) , donde X es el vector aleatorio que
representa a la muestra (o valores observados) y es el parmetro que se quiere estimar .
Luego se pretende hallar el valor de que maximice a L( X , ) valor que tambin maximiza al

logaritmo de la funcin : ln L( X , ) , (ya que el logaritmo es una funcin montona creciente). Por lo
tanto, el segundo paso es aplicarle logaritmo a la funcin de probabilidad de la muestra ( o de
verosimilitud) con el fin de simplificar la derivada.
Se sabe que una funcin continua y derivable alcanza su valor mximo en un punto para el cual se
anula su derivada. Si la funcin de probabilidad de la muestra satisface este requisito, entonces el tercer
paso es derivar la funcin obtenida ln L( X , ) respecto del parmetro , y luego hallar el valor de
(o la expresin de ) para el cual se satisface:

L ( X , )
= 0.

Inconvenientes :
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los de mnima
variancia , pero no indica cual sea esta variancia.
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los que asignan
mxima probabilidad a la muestra, pero obviamente se admite que dicha muestra sea posible de
obtener an con diferentes valores del parmetro.

Estas son razones por las cuales la estimacin puntual se torna impracticable (sin inters prctico), y se
prefiere la estimacin por intervalos, ya que provee de ms informacin .

Estimacin por Intervalos


Consiste en encontrar un conjunto de nmeros reales que conforman posibles valores del parmetro.
Estimacin de parmetros

Ctedra: Probabilidad y Estadstica

La estimacin por intervalo se realiza utilizando un nivel de confianza , que simbolizamos con 1- y
que representa la probabilidad de que dicho intervalo contenga al verdadero valor del parmetro .
La construccin del intervalo de confianza consiste en hallar los lmites inferior y superior en funcin
de la muestra obtenida. Para su obtencin es necesario conocer la distribucin del estimador del
parmetro ( distribucin que obviamente depender del parmetro .). Generalmente se construye una

nueva variable en la cual intervienen el estimador y el parmetro , dicha variable recibe el nombre de

estadstica de prueba y la simbolizamos g( , ) .


Su ventaja reside en que la distribucin de la estadstica de prueba ya no depende del parmetro ,
siendo una distribucin standard con los valores de probabilidad tabulados correspondientes a un gran
nmero de valores posibles de la variable.

Construccin de los intervalos de confianza


Intervalo de Confianza para la media en poblaciones normales
Sea ( X1 , X2 , ... , Xn ) una muestra aleatoria extrada de una poblacin normal, luego, i = 1 .. n :
X ~ N( , ) .

Por lo tanto tenemos que:

X1 , X2 , ... , Xn iid N( , ). X = X i ~ N ( , )
n
n

~ N ( 0,1)

a) Si 2 es conocido, entonces el intervalo para se obtiene

X
< z =1
P z <

2
2

n
siendo z/2: el valor de la variable normal standarizada que est superado con una probabilidad /2.
De dicha expresin se obtiene que:
X z

< <X +z
2

con el (1 )% de confianza

b) Si 2 es desconocido, se utiliza su estimador S2 y la distribucin :

X
s

~ t n 1

Entonces el intervalo para se obtiene de :

X
P t n 1, <
< t n 1,
s
2
2

=1

siendo tn-1,/2 el valor de la variable t-student con n grados de libertad, superado con probabilidad /2
De dicha expresin se obtiene que :

X t n 1, .
2

s
n

< < X + t n 1, .
2

con el (1 )% de confianza

Intervalo de Confianza para la proporcin


Sean X1 , X2 , ... , Xn iid Bi ( p ) . X = Xi ~ B ( n , p ) .
Estimacin de parmetros

Ctedra: Probabilidad y Estadstica

Para n suficientemente grande, la variable binomial se distribuye aproximadamente normal ,

pq
1

aproximadamente : X ~ N np , npq y h = X i ~ N p,
n
n

donde

pq
= h es un valor desconocido puesto que no se conoce el valor del parmetro p, por lo
n
s h = h =

tanto se utiliza el estimador del desvo


aproximadamente normal:

h p
h (1 h )

h (1 h )

, obteniendo la siguiente distribucin, que es

~ N ( 0,1)

Dicha aproximacin es buena para muestras de tamao suficientemente grandes, y el mnimo tamao de
muestra depende del valor de h. W.G. Cochran da una regla prctica para ser utilizada en la bsqueda de
intervalos de confianza del 95%, correspondientes a la proporcin poblacional p.
Proporcin emprica h
0.5
0.4 o 0.6
0.3 o 0.7
0.2 0 0.8
0.1 o 0.9
0.05 o 0.95

Tamao mnimo de muestra n


30
50
80
200
600
1400

Para estos valores de n se obtiene una buena aproximacin Normal vlida para la construccin de
intervalos del 95% de confianza.
h(1 h)
h(1 h)
< p < h + z 2
con el (1-).100% de confianza
h z 2
n
n

Intervalo de Confianza para la diferencia de medias de dos poblaciones normales independientes

Sean ( X1 , X2 , ... , Xn ) y ( Y1 , Y2 , ... , Ym ) dos muestras aleatorias extradas de poblaciones


normales , luego :
i = 1 .. n : Xi ~ N(x, x ) .
j = 1 .. m : Yj ~ N(y, y ).
Por lo tanto tenemos que

Y1 , Y2 , ... , Ym
x
1
)
X i ~ N ( x ,
n
n
y
1
Y = Yi ~ N ( y ,
)
m
m

iid N( x, x )

X1 , X2 , ... , Xn

iid N( y, y ) con Xi independiente de Yj

X=

Entonces

con X e Y independientes

2
2
x y

X Y ~ N x y ;
+

n
m

X Y x y
2
x

Estimacin de parmetros

)~

N ( 0,1)

Ctedra: Probabilidad y Estadstica

a) Si 2x y 2y

x y se obtiene de la siguiente

son conocidos, el intervalo de confianza para

manera:
X Y z

2
2
2x y
2x y
+
< x y < X Y + z
+
2
n
m
n
m

con el (1-).100% de confianza

b) Si 2x y 2y son desconocidos pero iguales 2x = 2y = 2 , entonces el estimador de ambos es

=
2

S A2

Luego, como :

(n 1)S x2 + (m 1)S y2
n+m2

X Y x y

1
S A2

1
+
n
m

1
n

(2x y ) = S A2 +

1
m

~ t n+ m2

x y se obtiene de la siguiente manera :

el intervalo de confianza para

X Y t 2, g . S A

1 1
1 1
+
< x y < X Y + t 2, g . S A
+
n m
n m

con el (1-).100% de confianza , siendo g = n+m-2


Nota:

Para n y m suficientemente grandes,

t n + m 2 N (0,1)
D

Distribucin de la diferencia de proporciones muestrales de dos poblaciones independientes

X1 , X2 , ... , Xn

iid Bi(p1)

Y1 , Y2 , ... , Ym

iid Bi(p2)

Sean

h1 =

1
n

Xi

h2 =

1
m

con Xi independiente de Yj

i,j

Y j

Luego, h1 y h2 son independientes y se distribuyen aproximadamente normal :

h1 ~ N p1 ,

donde

p1q1
n

p2 q2
m

p1 q1
n

y h2 ~ N p 2 ,

p2 q2
n

p q
p q
h1 h2 ~ N p1 p 2 ; 1 1 + 2 2

n
m

independientes

( h1 h2 ) es desconocido, ya que no se conocen los parmetros p1 y p2 . Luego se

utiliza el estimador de este desvo: S ( h1 h2 ) = h1 h2 =

Estimacin de parmetros

h1 (1 h1 ) h2 (1 h2 )
+
n
m
5

Ctedra: Probabilidad y Estadstica


h1 h2 ( p1 p 2 )

obteniendo la siguiente distribucin aproximadamente normal

h1 (1 h1 )
n

h2 (1 h2 )

~ N ( 0,1)

vlida para muestras suficientemente grandes.


p1 p 2

Los intervalos de confianza para


h1 h2 z S
( h h
2

<

p1 p 2

sern de la forma:

< h1 h2 + z S
( h h
2

con el (1-).100% de confianza

Intervalo de Confianza para la variancia en poblaciones normales

Sean

X1 , X2 , ... , Xn

n X 2
~ n2
i

i =1

Como

iid N( , ). Entonces

Xi

~ N ( 0,1)

i = 1,.... n

X i X 2
2
~ n 1

i =1
n

X i X 2 ( n 1) S( x ) 2
=

2
i =1

tenemos que:

( n 1). S ( x )

~ n 1

Basado en esta informacin, sabemos que:

(n 1).S (2x )
< 2n 1; 2 = 1
P 2n 1;1 2 <
2

de donde se obtiene el intervalo de confianza para 2

1
2n 1; 2

<

2
1
< 2
2
(n 1).S ( x ) n 1;1 2

( n 1).S (2x )
n2 1; 2

< 2 <

(n 1).S (2x )
2n 1;1 2

con el (1-).100% de confianza .

Distribucin del cociente de variancias muestrales de poblaciones normales independientes

X1 , X2 , ... , Xn iid N(x, x );

Y1 , Y2 , ... , Ym iid N(y, y ) con Xi independiente de Yj

i,j

Luego se deduce que:


x x 2 ( n 1). S 2
( x)
2
i
=

~ n 1
2

x
i =1 x
n

y y 2 ( n 1). S 2
( y)
j
2
=

~ m 1
2

y
j =1
y
m

Estimacin de parmetros

Ctedra: Probabilidad y Estadstica

Por ser independientes resulta que :


2

( n 1) S ( x )
2

x ( n 1)
2

( m 1) S y

S
=

( x)
2

Sy

y
2

~ F n 1, m 1

y ( m 1)

y anlogamente se deduce que:

S (2y ) 2
x
.
~ F m 1, n 1
S(2x ) y2

P F m 1,n 1;1

S( y ) 2

x
< 2 . 2 < F m 1,n 1; 2 = 1
S( x) y

Basado en esta informacin, sabemos que:

que equivale a:

P
F m 1,n 1;

S( y ) 2
x
. 2 < F m 1,n 1;
2<
2
S( x) y

2 = 1

de donde se obtienen los intervalos de confianza para los cocientes de las variancias
2

S(x)
S

2
( y)

F m 1,n 1;

<
2

( y)
2

S( x)

<

<
2

Estimacin de parmetros

S(x)
S

1
F m 1,n 1;

y
2

S
<

2
( y)

. F m 1,n 1;

con el (1-).100% de confianza

. F m 1,n 1;

con el (1-).100% de confianza

( y)
2

S( x)

Ctedra: Probabilidad y Estadstica

Aplicaciones del Teorema Central del Lmite


Intervalo de confianza para la media en poblaciones de distribucin desconocida
Si la distribucin de X no se conoce, pero se trata de una muestra suficientemente grande, se aplica el
Teorema Central del Lmite y as se obtienen los intervalos para
a)

si se conoce 2 X z . ( x ) < < X + z . ( x ) con el (1 )% de confianza


2

con ( x ) =

(x)
n

en poblaciones infinitas y ( x ) =

(x)

N n
en poblaciones finitas
N 1

b)

si no se conoce 2 X z .S( x ) < < X + z .S( x ) con el (1 )% de confianza


2

con S( x ) = ( x ) =

S( x )
n

en poblaciones infinitas y S( x ) =

S( x )
n

N n
en poblaciones finitas
N 1

Intervalo de confianza para la diferencia de medias en poblaciones de distribucin desconocida


Si las distribuciones de X y de Y no se conocen, pero se trata de muestras suficientemente grandes, se
aplica el Teorema Central del Lmite y as se obtienen los intervalos para la diferencia entre las medias
poblacionales usando la distribucin Normal:

a) si se conocen las variancias poblacionales


2

X Y z

2.

x y

<

< X Y + z

2.

con el (1-).100% de confianza

b) si no se conocen las variancias poblacionales, pero se las supone iguales, entonces


X Y z

2 .S A

x y

<

< X Y + z

2 .S A

con el (1-).100% de confianza

c) si no se conocen las variancias poblacionales, y tampoco puede suponrselas iguales, entonces


2

X Y z

2.

Sx
n

Sy
m

Estimacin de parmetros

<

x y

<

X Y + z

Sx
2

Sy

con el (1-).100% de confianza

Das könnte Ihnen auch gefallen