Beruflich Dokumente
Kultur Dokumente
Introducción a la inferencia
estadística
1
Capítulo 2
Estimación puntual
F = fF : 2 g , con Rk ,
con distribución F . La función de masa o de densidad teórica (la de las Xi ) es f (x), según
muestra es
elección de estadísticos adecuados de modo que sus realizaciones tomen valores cercanos al
valor del parámetro, proporcionando entonces información sobre este valor desconocido.
1
2. Estimación puntual
T : ! , (2.2)
teórica F determina una distribución sobre , cuya función de masa o densidad viene
dada por
T = T (X1 ; : : : ; Xn ) .
Al valor del estimador obtenido con una muestra concreta (x1 ; : : : ; xn ) se le denomina
“cercano” al de .
Ejemplo 1. Consideremos una muestra X1 ; X2 de una distribución teórica B (1; p), con
toman valores en .
Tengase en cuenta que T1 y T2 son variables aleatorias y toman distintos valores según la
2
2.1 De…nición de estimador
(x1 ; x2 ) = 00 01 10 11
Probabilidad (1 p)2 p (1 p) p (1 p) p2
(2.4)
T1 0 1=2 1=2 1
T2 0 2=3 1=3 1
con 2 = p (1 p). Ésto es válido para cualquiera que sea el valor de p, …jo pero desconocido.
1 5 5
Obsérvese V [T1 ] < V [T2 ] para todo p, puesto que 2 = 10 < 9. Si debemos elegir entre
Ésto no quiere decir que siempre obtengamos mejores estimaciones con T1 que con T2 . Por
ejemplo, si fuera p = 2=3 y obtuvieramos (x1 ; x2 ) = (0; 1), entonces la estimación T1 = 1=2
es obviamente peor que la estimación T2 = 2=3 = p. Sin embargo, cualquiera que sea p
(también con p = 2=3), en promedio nos alejaremos mas de p (medido con la varianza) con
T2 que con T1 .
Por otra parte, algunas veces el objetivo es estimar no ya directamente sino una
función g ( ). Por ejemplo, para una distribución Exp ( ) se tiene que la esperanza es
3
2. Estimación puntual
Así, cuando decimos en el próximo ejemplo que consideramos una B (1; p), se debe entender
este modo la familia de posibles distribuciones teóricas es F = fB (1; p) : 0 < p < 1g.
Consideremos una muestra de una B (1; p). La proporción de éxitos es X, que es un esti-
Consideremos una muestra de una (p; a). En este caso = (p; a) y = g (p; a) con
conocimiento del parámetro. Sería importante saber eliminar esta información super‡ua
para poder simpli…car la selección del estimador adecuado, limitándonos a estimadores que
de (puesto que E X = ).
valor que ha tomado el estadístico su…ciente, la muestra no aporta mas información sobre
el parámeto desconocido.
Por ejemplo, para hacer inferencias sobre el parámetro de una distribución de Bernoulli
no hace falta registrar la secuencia completa de ceros y unos obtenida, sino solamente el
4
2.2 Estadísticos su…cientes
número de unos:
estadístico su…ciente.
P fX1 = x1 ; : : : ; Xn = xn ; T = tg
P fX1 = x1 ; : : : ; Xn = xn =T = tg = ,y (2.7)
P fT = tg
P
P fX1 = x1 ; : : : ; Xn = xn g si t = ni=1 xi
P fX1 = x1 ; : : : ; Xn = xn ; T = tg = P
0 si t 6= ni=1 xi
P
Teniendo en cuenta que T B (n; ), si t = ni=1 xi se tiene que
P fX1 = x1 ; : : : ; Xn = xn g
P fX1 = x1 ; : : : ; Xn = xn =T = tg = (2.8)
P fT = tg
x1 + +xn (1 )n (x1 + +xn )
1
= = , (2.9)
n t (1 n t n
)
t t
Pn
y si t 6= i=1 xi se tiene que P fX1 = x1 ; : : : ; Xn = xn =T = tg = 0. Entonces, esta dis-
Por fortuna, no hace falta realizar estos cálculos para buscar un estadístico su…ciente.
siendo g una función que solo depende de la muestra a traves de T y h una función que
no depende de .
5
2. Estimación puntual
f (x1 ; : : : ; xn ) = x1 + +xn
(1 )n (x1 + +xn )
= t
(1 )n t
, (2.11)
y entonces f (x1 ; : : : ; xn ) admite una expresión del tipo (2.10), con g (t) = t (1 )n t
y
h = 1 (constante).
b) La función de masa es
x1 + +xn t n
X
n n
f (x1 ; : : : ; xn ) = e =e , con t = xi , (2.12)
x1 ! xn ! x1 ! xn !
i=1
y entonces f (x1 ; : : : ; xn ) admite una expresión del tipo (2.10), con g (t) = e n t y
P
h (x1 ; : : : ; xn ) = x1 ! 1 xn ! . Por tanto T = ni=1 Xi es un estadístico su…ciente.
n
f (x1 ; : : : ; xn ) = I x(n) < , (2.13)
g (t) = nI ft < g y h = 1.
ciente. Para comprobarlo, simplemente hay que tener en cuenta que, obviamente, la mues-
tra agota toda la información que posee la muestra sobre ; o que la distribución de
Ésto es así porque (T; S) contiene al menos la misma información que S y que T , y T agota
toda la información, y por tanto así ocurre con (T; S). Puesto que T agota la información,
entonces S no aporta información, como componente del par (T; S), y es irrelevante para
6
2.2 Estadísticos su…cientes
prescindir de S.
Puesto que queremos utilizar de un modo adecuado la información que aporta la mues-
tra sobre el parámetro desconocido, parece razonable utilizar estimadores que sean estadís-
“aquel que mas resume la información completa que aporta la muestra sobre ”, que no es
Un estadístico su…ciente T se denomina su…ciente minimal si, para cualquier otro es-
el uno en el otro: se tiene que T2 = h (T1 ), con h (t) = nt, y h es biyectiva (es una función
Una manera cómoda de averigüar si existe una transformación biyectiva que transforma
a…rmativo, comprobar si se puede despejar T1 con unicidad en esta expresión. Por ejemplo,
P
si T1 = X y T2 = ni=1 Xi , entonces T2 = nT1 y, despejando, se obtiene T1 = T2 =n. Puesto
que hemos podido despejar con unicidad, se tiene que existe una transformación biyectiva
7
2. Estimación puntual
f (x1 ; : : : ; xn )
(2.14)
f (x01 ; : : : ; x0n )
(x1 ; : : : ; xn ), de modo que estos factores no se pueden expresar a su vez como un producto
de una función de y una función de la muestra. Los estadísticos a traves de los cuales se
expresan estos factores, en los que no se puede separar de la muestra, son los estadísticos
sm buscados. Estos factores, son potencias en los apartados a-c, y es una función indicatriz
en d.
a) Se tiene que
n(x x0 )
nx (1 )n nx
n(x x0 ) n(x x0 )
C = nx0
= (1 ) = , (2.15)
nx0 (1 )n 1
b) Se tiene que
nx
n 0
e x1 ! xn ! n(x x0 ) x1 ! x0n !
C = nx0
= , (2.16)
e n x1 ! xn !
x01 ! x0n !
c) Se tiene que
ne nx
n (x x0 )
C = ne nx0
=e , (2.17)
8
2.2 Estadísticos su…cientes
d) Se tiene que
n o n o
nI x(n) < I x(n) <
C = n o= n o . (2.18)
n I x0 < I x0 <
(n) (n)
Cuando x0(n) = x(n) se tiene que C = 1, y por tanto no depende de . Cuando x0(n) 6= x(n) ,
a) = (con = 0 conocida),
b) = (con = 0 conocida),
c) = ( ; ).
n=2 1 Pn
f (x1 ; : : : ; xn ) = (2 ) n
exp 2 i=1 (xi )2 (2.19)
2
n=2 n 1 Pn 2 Pn 2
f (x1 ; : : : ; xn ) = (2 ) 0 exp 2 i=1 xi 2 i=1 xi +n , (2.20)
2 0
y de aquí
n Pn Pn o
n=2 n 1 2 2
(2 ) 0 exp 2 2 i=1 xi 2 i=1 xi +n
C = n 0
Pn Pn o (2.21)
n=2 n 1 02 0 2
(2 ) 0 exp 2 2 i=1 xi 2 i=1 xi + n
0
1 Pn 2 Pn 02
= exp 2 i=1 xi i=1 xi 2n x x0 , (2.22)
2 0
9
2. Estimación puntual
b) Se tiene que
n Pn o
n=2 n exp 1 2
(2 ) 2 2 i=1 (xi 0)
C = n o (2.23)
n=2 n exp 1 Pn 0 2
(2 ) 2 2 i=1 (xi 0)
1 Pn 2 Pn 2
= exp 2 i=1 (xi 0) i=1 x0i 0 . (2.24)
2
1
T (x01 ; : : : ; x0n ) (puesto que 2 2 0 = 0, y en este caso C = e0 = 1), y sí depende de
c) Se tiene que
n=2 n exp 1 Pn 2
Pn 2
(2 ) 2 2 i=1 xi 2 i=1 xi + n
C ; = n=2 Pn 02 Pn (2.25)
n exp 1 0 2
(2 ) 2 2 i=1 xi 2 i=1 xi + n
1 Pn 2 Pn 02 Pn Pn 0
= exp i=1 xi i=1 xi 2 i=1 xi i=1 xi . (2.26)
2 2
Pn Pn 2
Sea T (x1 ; : : : ; xn ) = i=1 xi ; i=1 xi . Se tiene que el cociente C ; no depende del
estadístico
X; s2 (2.27)
a partir del cociente en (2.14) mejora el resultado del teorema, proporcionando no solo un
10
2.3 Estimadores consistentes y centrados
Es conveniente, y así ocurre en la mayoría de los casos, que el estimador utilizado sea
consistente.
p
Tn ! g ( ) para todo 2 . (2.29)
Por ejemplo, para una distribución teórica (p; a), con = (p; a) y = p=a, se tiene que
En general, todos los momentos muestrales son consistentes para los correspondientes
momentos poblacionales, puesto que convergen casi seguro y por tanto en probabilidad.
11
2. Estimación puntual
distribución teórica, entonces cabe pedirle a un estimador que tienda a dar información
tanto no aporta nada por si misma sobre el comportamiento del estimador para un tamaño
de muestra dado. Sin embargo, nos asegura que podemos conseguir un estimador con una
grande.
bT (g ( )) = E [T ] g( ) . (2.31)
Consideraremos algunos estimadores que son centrados y otros que no lo son, pero en
insesgado).
E X = y E S2 = 2
. (2.32)
2 n 1 1
bs 2 = E[s2 ] 2
= 2 2
= 2
, (2.33)
n n
12
2.4 Error cuadrático medio como medida de la bondad de un estimador
un estimador
algún modo si los valores que toma se alejan mucho del verdadero valor del parámetro (o
de la función del parámetro g ( ) que se considere). Puesto que el estimador es una v.a., y
valores, algunos mas lejanos y otros mas cercanos, debemos considerar un valor promedio
(una esperanza).
y el valor que estamos estimando. Pero también podemos considerar otras nociones de
distancia que pueden contemplar una penalización por el error cometido al tomar t como si
fuera el verdadero valor de ; por ejemplo, los costes económicos consecuencia de la toma
de esa decisión.
estudiamos.
13
2. Estimación puntual
Se veri…ca que
y, puesto que
= (E [T ] g ( )) (E [T ] E [T ]) = 0 ,
se tiene que
Sería deseable encontrar un estimador que fuera preferible a todos los demás, pero
en muchas ocasiones no existe. Puede ocurrir que RT1 ( ) < RT2 ( ) para algúnos y
14
2.4 Error cuadrático medio como medida de la bondad de un estimador
Sin embargo, si nos retringimos a estimadores que veri…can ciertas condiciones puede
obtener un estimador centrado que es preferible a cualquier otro estimador centrado. Para
fundamental.
mediana muestral.
p
Solución: Puesto que M N ; p2 , se tiene que
2 n
p 2
l m E [M ] = y l m V [M ] = l m p2 = 0 para todo , (2.47)
n!1 n!1 n!1 2 n
es consistente).
l m bM ( ) = l m (E [M ] ) = l m E [M ] = =0,
n!1 n!1 n!1
15
2. Estimación puntual
Hasta ahora, hemos estudiado distintas nociones generales sobre estimadores. Hemos
estadístico su…ciente.
mínima varianza.
maximiza la función de masa o densidad para una muestra dada. Tiene propiedades que
hacen que sea el método mas usado (por ejemplo, el estimador es función del estadístico
sm).
En algunos casos existe un estimador centrado que es preferible a todos los demás (el
mejor estimador centrado), y se veri…ca que este estimador es función del estadístico sm.
Se plantean k ecuaciones con los k primeros momentos. Por ejemplo, la primera ecuación
añaden momentos posteriores a los k primeros hasta que la solución sea única.
16
2.5 Métodos de obtención de estimadores
Se suelen utilizar momentos respecto del origen. Utilizando momentos centrales el re-
sultado suele ser el mismo que utilizando momentos respecto del origen, pero no siempre
es así. Además, el momento de orden 1 debe ser tomado respecto del origen, puesto que el
central es nulo.
del parámetro, …jo pero desconocido, sino que es una variable en una ecuación. Por esta
ciones teóricas:
Solución:
2X.
Además, el estimador b = 2X, puede dar lugar a malas estimaciones. Por ejemplo, si
+( )
d) Se tiene que E [X] = = 2 = 0, que no proporciona ninguna ecuación para
ocasiones, como en este ejemplo, los estimadores son diferentes si consideramos momentos
17
2. Estimación puntual
2 ( ( ))2 2
V [X] = = = , (2.51)
12 3
estimador es
p
b= s 3 . (2.52)
2 2
E X 2 = V [X] + E [X]2 = + 02 = , (2.53)
3 3
P
y se estima mediante el momento muestral de orden 2 respecto del origen, que es n1 ni=1 Xi2 ,
P q P
2
obteniéndose la ecuación “ 3 = n1 ni=1 Xi2 ”. Despejando, se obtiene “ = n3 ni=1 Xi2 ”,
y entonces el estimador es v
u n
u X
e= t3 Xi2 . (2.54)
n
i=1
= (p; a) es !
2
b = (b X X
p; b
a) = ; .
s2 s2
L ( ) = L ( ; x1 ; : : : ; xn ) = f (x1 ; : : : ; xn ) , (2.55)
que es la función de masa o densidad f (x1 ; : : : ; xn ), pero con (x1 ; : : : ; xn ) …jo y considerada
como función de .
18
2.5 Métodos de obtención de estimadores
L( b) = max L ( ) . (2.56)
2
de .
Ejemplo 9. Consideremos dos urnas: U1 (2b; 8n) y U2 (9b; 1n). Alguién elige una urna y
extrae una bola al azar. No nos informa de cual ha sido la urna elegida, pero nos dice que
la bola extraida ha resultado ser blanca. ¿Cual ha sido la urna de la cual se ha extraido la
bola blanca?.
Solución: Podría ser cualquiera de las dos, puesto que en cada una de ellas hay alguna
bola blanca. Pero si tuvieramos que decantarnos, parece mas verosimil (en un sentido
coloquial) que la urna haya sido U2 , puesto que la probabilidad de que al extraer una bola
ésta sea blanca, es mayor para U2 que para U1 . Con este razonamiento, se está siguiendo
estos elementos, podemos formular la situación del enunciado del siguiente modo: tenemos
una muestra de tamaño 1 de una distribución teórica de Bernoulli con espacio paramétrico
x = 1 (bola blanca).
La función de verosimilitud es
1
L ( ) = L( ; x = 1) = f (1) = (1 )1 1
= . (2.57)
= max 00 2; 00 9 = 00 9 = L ( 2 ) . (2.59)
19
2. Estimación puntual
correspondiente a la urna U2 .
mediante el método habitual: determinando los máximos locales entre los puntos críticos
y buscando entre ellos (y la frontera del soporte) el máximo global b. En los casos mas
habituales con L ( ) derivable, L ( ) tiene un único máximo local que es el máximo global.
Además, disponemos del siguiente resultado que simpli…ca los cálculos: el valor de
para el cual una función L ( ) se maximiza, es el mismo para el cual la función log L ( )
por tanto, cuanto mayor sea L ( ) mayor es log L ( ). También se puede comprobar de un
d
modo simple (para L derivable) observando que la ecuación d log L ( ) = 0 coincide con
d
la ecuación d L ( ) = 0 (que es, L0 ( ) = 0) si L ( ) > 0:
d L0 ( )
0= log L ( ) = si y solo si L0 ( ) = 0 .
d L( )
es suma de productos) que L ( ). Ésto ocurre con muchas de las distribuciones teóricas
usadas habitualmente.
Solución:
20
2.5 Métodos de obtención de estimadores
d nx
log L ( ) = n+ =0,
d
d n
c) log L ( ) = n log n x , y d log L ( ) = nx = 0 , que tiene solución
d n n 1 n
Se tiene que d = n < 0 para > 0, y entonces es decreciente para x(n) .
Pn
Solución: Se tiene que log L ( ) = n2 log (2 ) n log 2
1
2 i=1 (xi )2 .
P P
a) dd log L ( ) = 2 1 2 ni=1 2 (xi )2 1 ( 1) = 1
2 ( ni=1 xi n ) = 0 tiene
0 0
21
2. Estimación puntual
q P q P
n
que tiene solución “ = x y = 1
n i=1 (xi )2 = 1 n
n i=1 (xi x)2 = s ”. Entonces,
b = (b; b) = X; s es el emv de = ( ; ).
El emv tiene propiedades, como las que siguen a continuación y el teorema 14, que hacen
1.- Un emv siempre es función del estadístico su…ciente minimal. Aunque con frecuencia
emv de cualquier función g ( ) del parámetro a partir del emv de , y de un modo muy
b
sencillo: gd
( ) = g( b). Por ejemplo, el estimador de 2 es ( b)2 , y el de e es e .
Esta ‡exibilidad del emv no la tienen otros tipos de estimadores. Por ejemplo, si b
E[g( b)] 6= g ( ):
de Poisson. Se puede comprobar si una bobina tiene algún fallo conectando el principio
ellas tenían algún fallo. Determina el emv para el número medio (el número esperado) de
22
2.5 Métodos de obtención de estimadores
llamémosla p, de que una bobina tenga algún fallo (mediante la proporción 00 078 de bobinas
con fallos). Sin embargo, la utilización del supuesto paramétrico de que el número de fallos
fallos.
Disponemos de una muestra de una Bernoulli (hemos observado si hay fallo o no). Para
i = 1; : : : ; n, con n = 1.000, sea Xi la v.a. que vale 1 si la bobina i-ésima tiene algún fallo
y vale 0 si no tiene fallo. Se tiene que X1 ; : : : ; Xn es una m.a.s. de una B (1; p). Se ha
P
observado una realización x1 ; : : : ; xn de esta muestra con ni=1 xi = 78.
Sea Z la v.a. “número de fallos en una bobina”. No hemos observado Z, pero sabemos
0
p = P fX = 1g = P fZ > 0g = 1 P fZ = 0g = 1 e =1 e . (2.63)
0!
Despejando, se obtiene = g(p) = log(1 p). El emv de p (el parámetro de la B (1; p))
es pb = X (ejemplo 10a) y, por la propiedad 3 de los emv, se tiene que el emv de = g(p)
es
b = g(b
p) = log(1 pb) = log(1 X) . (2.64)
Ejemplo 13. Obtén el emv para el séptimo decil de una distribución teórica normal.
dice nada al respecto. El séptimo decil (es un cuantil) es el valor d = x00 7 tal que
23
2. Estimación puntual
n o
d
P fN ( ; ) dg = P N (0; 1) = 00 7 , (2.66)
n o
d
y entonces P N (0; 1) > = 00 3. Puesto que P fN (0; 1) > 00 52g = 00 3015, se tiene
d
que = 00 52, y despejando se obtiene que el séptimo decil es
d= + 00 52 = g ( ; ) . (2.67)
Por el ejemplo 11c se tiene que el emv de ( ; ) es (b; b) = (X; s), y por la propiedad
3 se tiene que
También podemos estimar x00 7 mediante el correspondiente cuantil muestral c00 7 . Sin
En el siguiente teorema se presenta otra propiedad muy útil del emv. Bajo ciertas
normal. Además, si el emv es único, entonces es consistente. Sólo se considera aquí el caso
Teorema 14. Supongamos que R es abierto, y que f (x) satisface las siguientes
condiciones:
d3
1.- Existe la derivada log f (x) , y su valor absoluto está acotado por una función K(x)
d 3
tal que E [K(X)] k para todo .
d 1 d2
2.- Se tiene que E log f (X) = 0 y E log f (X) = 0 .
d f (X) d 2
3.- Se tiene que i ( ) > 0, con
" #
2
d
i( ) = E log f (X) .
d
24
2.5 Métodos de obtención de estimadores
para todo 2 .
medida de la información que aporta una muestra de tamaño 1 sobre ; obsérvese que la
desviación típica en (2.69) es menor cuanto mayor sea la información i ( ). Por (2.69) se
h i
tiene para n grande que V bn ' n1 i(1 ) . Una expresión alternativa para i ( ), cuando se
d2
i( ) = E log f (X) . (2.70)
d 2
Las condiciones 1 y 2 pueden ser difíciles de comprobar, pero se cumplen con frecuencia.
En algunas ocasiones puede ser mas sencillo comprobar (2.69) de un modo directo que
obtener la distribución asintótica (2.69). En todos los casos que consideramos se cumplen
1 y 2.
Ejemplo 15. Determina la distribución asintótica del emv b para el parámetro de las
25
2. Estimación puntual
d X 1 X X
log f (X) = = , y de aquí se obtiene (2.71)
d 1 (1 )
" #
X 2
1 h i
i( ) = E = E (X )2 (2.72)
(1 ) 2 (1 )2
1 (1 ) 1
= 2V [X] = = . (2.73)
2 (1 ) 2 (1 )2 (1 )
Obsérvese que este resultado ya fue obtenido anteriormente utilizando el TCL, puesto que
= y (1 )= 2 .
d X X
log f (X) = 1 + = , y de aquí se obtiene (2.75)
d" #
X 2
1 h i 1 1 1
i( ) = E = 2 E (X )2 = 2 V [X] = 2 = (2.76)
d 1
c) Se tiene que log f (X) = log X ,y log f (X) = X , y de aquí se
d
obtiene " #
2
1 1
i( ) = E X = V [X] = 2
(2.78)
1
N ;p . (2.79)
X n
26
2.5 Métodos de obtención de estimadores
tiene que
d2 d d d 1 1
2
log f (X) = log f (X) = X = 2
,y (2.80)
d d d d
2 2
i( ) = E 1= = 1= . (2.81)
centrado de uniformemente mínima varianza (ECUMV ) para g ( ) si, para cualquier otro
El error cuadrático medio coincide con la varianza para un estimador centrado, y entonces
Teorema 16. (de Rao-Blackwell) Sea S un estadístico su…ciente para una familia paramétri-
a) En la expresión de T2 no interviene .
b) T2 es centrado para g ( ).
Demostración
depende de , entonces así ocurre con cualquier función de la muestra, y en particular con
27
2. Estimación puntual
T2 :
Frecuentemente existe una única función h del estadístico su…ciente minimal S que es
centrada para g ( ). En este caso, por el teorema 16, h(S) debe ser el ECUMV, y además
y de aquí se obtiene que el ECUMV es el único estimador centrado función del estadístico
sm. En algunos casos, esta función centrada se obtiene de un modo sencillo, y en otros hay
Ejemplo 17. Para las siguientes familias paramétricas y funciones g del parámetro, el
ECUMV para g ( ) es la única función centrada del estadístico sm, que llamamos SM
28
2.5 Métodos de obtención de estimadores
para g ( ).
a) B (1; ), g ( ) = , b) P ( ), g ( ) = , c) N ( ; ) ( = ( ; )), g ( ; ) = ,
d) N ( ; ) ( = ( ; )), g ( ; ) = 2.
Ejemplo 18. Consideremos una m.a.s. de un distribución teórica B (1; ). Se tiene que el
tal función). Utilizamos el teorema 16 para encontrar la función centrada que, como se
indica en el enunciado, es única, y es por tanto el ECUMV. Para ello, podemos partir
de cualquier estimador centrado y, de hecho, cuanto mas simple sea mas sencillos son los
cálculos. Partimos de un estimador que es muy malo por si mismo, pero que es simple.
1 si X1 = 1; X2 = 0
Sea T1 = . Se tiene que T1 es centrado, puesto que
0 en caso contrario
Pn
Resulta ahora mas cómodo considerar el estadístico sm en la forma SM = i=1 Xi , que
29
2. Estimación puntual
SM (n SM ) n
E [T1 =SM ] = = X 1 X .
n (n 1) n 1
Solución: No es sencillo encontrar de un modo directo una función centrada del estadís-
P
tico sm SM = ni=1 Xi . Utilizamos el teorema 16 para encontrar la función centrada que,
30
2.5 Métodos de obtención de estimadores
nX
(n 1)SM 1
E [T1 =SM ] = 1 =1 1 . (2.105)
nSM n
propiedad 3 de los estimadores de máxima verosimilitud se tiene que el emv para la función
b
del parámetro g ( ) = 1 e es gd
( )=1 e =1 e X. Para n grande se tiene que
1 n 1,
este estimador es muy cercano al ECUMV, en (2.105), puesto que l mn!1 1 n =e
y entonces
n X
1
E [T1 =SM ] = 1 1 '1 e X
= gd
( ). (2.106)
n
ECUMV para g ( ) = 2.
31
2. Estimación puntual
n 2
g2 ( ), que es T2 = n 1X 1 X . Entonces, el ECUMV para g ( ) = g1 ( ) g2 ( ) =
es
n 1 2 nX 1
T1 T2 = X X 1 X = nX X = X . (2.107)
n 1 n 1 n 1
ECUMV para g ( ) = P fX = 0g = e .
g ( ) = g1 ( ) g2 ( ) es
!
nX nX
1 1
T1 T2 = 1 1 1 = 1 . (2.108)
n n
de distribuciones de probabilidad
usadas tiene una estructura similar: se expresa como productos de potencias de funciones
la exponencial, la normal, la gamma y la beta son de este tipo. No así las distribuciones
uniformes.
de este tipo, como por ejemplo una fórmula para la obtención del estadístico sm.
Se dice que una familia uniparamétrica de distribuciones, esto es, con R, es una
32
2.6 Familias exponenciales de distribuciones de probabilidad
fusión en una primera lectura. La familia de las distribuciones exponenciales es una familia
ejemplo.
d) N ( ; 0) ( = ), e) N ( 0; ) ( = ).
Solución:
a) Se tiene que
x
f (x) = e , (2.110)
b) Se tiene que
x
f (x) = x
(1 )1 x
= (1 ) = (1 ) exp x log , (2.112)
1 1
c) Se tiene que
x 1 x log
f (x) = e =e e , (2.114)
x! x!
y de este modo, f (x) admite la expresión (2.109) con
1
c( ) = e , h (x) = , q ( ) = log y V (x) = x: (2.115)
x!
d) Se tiene que
2 n o
x
f (x) = p 1
2
exp 1
2 0
= p 1
2
exp 2
1
2 x2 + 2
2 x (2.116)
0 0 0
n 2
o n o n o
p 1 x2 1
= 2
exp 2 2 exp 2 02
exp 2 x , (2.117)
0 0 0
33
2. Estimación puntual
n o n o
2
c( ) = p 1
2
exp 2
1
2 , h (x) = exp 2
1
2 x2 , q( ) = 1
2 y V (x) = x .
0 0 0 0
e) Se tiene que
n o n o
x 2 2
f (x) = p1 exp 1 0
= p1 exp 1
2 (x 0) (2.118)
2 2 2 2
p1 1 2
c( ) = 2
, h (x) = 1 , q ( ) = 2 2 y V (x) = (x 0) . (2.119)
Es sencillo obtener una expresión general del estadístico sm válida para cualquier familia
de densidad de la muestra (m.a.s.) para una distribución teórica dada por (2.109) es
n n
! ( n
)
Y n
Y X
f (x1 ; : : : ; xn ) = f (xi ) = c ( ) h (xi ) exp q ( ) V (xi ) , (2.120)
i=1 i=1 i=1
y entonces
n
! ( n
)
Y X
c ( )n h (xi ) exp q ( ) V (xi )
f (x1 ; : : : ; xn ) i=1 i=1
= ! ( ) (2.121)
f (x01 ; : : : ; x0n ) Yn Xn
c ( )n h (x0i ) exp q ( ) V (x0i )
i=1 i=1
n
Y
h (xi ) ( n n
!)
i=1
X X
= n exp q ( ) V (xi ) V x0i , (2.122)
Y
h (x0i ) i=1 i=1
i=1
Pn Pn
que no depende de si y solo si i=1 V (xi ) = i=1 V (x0i ). Entonces, el estadístico sm es
n
X
T = V (Xi ) . (2.123)
i=1
Además, para cualquier familia de tipo exponencial se tiene que el estadístico sm es com-
pleto.
34
2.6 Familias exponenciales de distribuciones de probabilidad
Esta noción se generaliza al caso con mas de un parámetro. Se dice que una familia
cial biparamétrico.
h (x) = 1 , (2.131)
q1 ( ; ) = 2 , V1 (x) = x , (2.132)
q2 ( ; ) = 2
1
2 y V2 (x) = x2 . (2.133)
35
2. Estimación puntual
Pn Pn 2
Además, el estadístico sm en (2.127) es T = i=1 Xi ; i=1 Xi , ya obtenido en el
ejemplo 6c.
estimador
El valor más pequeño para la varianza de un estimador centrado viene dado por la
varianza del ECUMV (si existe). Aun sin conocer el ECUMV es posible en muchos casos
continuación.
teórica, una de ellas que su soporte no dependa de y el resto poco restrictivas, se veri…ca
que
g 0 ( )2
V [T ] para todo 2 . (2.134)
n i( )
e…ciente.
rianza:
g 0 ( )2 =(n i ( ))
eT ( ) = . (2.135)
V [T ]
36
2.7 Cota de Frechet-Cramer-Rao para la varianza de un estimador
Se veri…ca que un estimador solo puede ser e…ciente cuando F es una familia de tipo
exponencial.
37