Beruflich Dokumente
Kultur Dokumente
5.0
Tema 6
6.1 Introducción
6.1
Tema 6. Estimación puntual y por intervalos de confianza
6.2 Estimador
Sea X una variable aleatoria con función de distribución conocida salvo por un parámetro θ, lo
que denotaremos como Fθ .
Definición 6.1 Se define el espacio paramétrico como el conjunto de todos los posibles valores del
parámetro desconocido θ. Se representa por Θ, θ ∈ Θ.
Definición 6.2 Cualquier estadı́stico cuyos valores se utilizan para estimar un parámetro, se deno-
mina estimador de θ y se representa por θ. b
Generalmente a un estimador se le pide que tome valores dentro del espacio paramétrico.
P
Ejemplo 6.2 X̄ = n1 Xi es un estimador de µ.
1 P
S2c = n−1 (Xi − X̄)2 es un estimador de σ 2 .
P
S2 = n1 (Xi − X̄)2 es un estimador de σ 2 .
Este método es bastante intuitivo pues se basa en suponer que siempre ocurre lo más probable, y
por ello estima el parámetro mediante aquel valor que hace más probable la muestra.
1. Caso discreto
n
Y
L(θ; x1 , ..., xn ) = Pθ [X1 = x1 , X2 = x2 , ..., Xn = xn ] = Pθ [X = xi ]
i=1
2. Caso continuo
n
Y
L(θ; x1 , ..., xn ) = fθ (x1 , x2 , ..., xn ) = fθ (xi )
i=1
Definición 6.4 Sea L(θ; x1 , ..., xn ) la función de verosimilitud para una m.a.s. X1 , X2 , ..., Xn . Se
define el estimador de máxima verosimilitud (E.M.V.) de θ, θbM V , al valor de θ que maximiza
L(θ; x1 , ..., xn ).
Como interpretación podrı́amos decir que el estimador de máxima verosimilitud es aquel valor que
hace máxima la probabilidad de que se dé la muestra obtenida.
En la práctica para determinar el estimador de máxima verosimilitud, si la función L es derivable
respecto del parámetro se puede calcular la primera derivada respecto del parámetro, igualar a 0 y
despejar el valor,
∂
L=0
∂θ
b corresponde a un máximo mediante la
comprobando posteriormente que la solución obtenida, θ,
segunda derivada, es decir,
∂ 2
L < 0.
∂θ2 θ=θ̂
Suele ser útil aplicar previamente logaritmo neperiano ya que al ser el logaritmo neperiano una
función creciente, la función de verosimilitud alcanzará el máximo para el mismo punto que su loga-
ritmo.
Ejemplo 6.4 Sea X ∼ Be(p) y X1 , X2 , ..., Xn m.a.s. con p ∈ (0, 1). Vamos a calcular el estimador
de máxima verosimilitud para el parámetro p.
n
Y P n P n
L(θ; x1 , ..., xn ) = pxi (1 − p)1−xi = p i=1 xi
(1 − p)n− i=1 xi
i=1
n X n
∂ ln L X 1 1
= xi + (n − xi ) (−1) = 0
∂p p 1−p
i=1 i=1
n
X n
X
(1 − p) xi − p(n − xi ) = 0
i=1 i=1
n
X
xi − pn = 0
i=1
Pn
i=1 xi
p̂ = = x̄ .
n
Calculamos la segunda derivada vemos que es negativa, por tanto es un máximo
Estadı́stica 6.3
Tema 6. Estimación puntual y por intervalos de confianza
∂ 2 ln L
n
X n
X
−2
= − xi p −2
− (n − xi )(1 − p) < 0, 0 < x̄ < 1.
∂p2
i=1 i=1 p=x̄
Ejemplo 6.6 Sea X ∼ Be(p) sabemos que E[X] = p, y que X̄ = pb, se sustituye E[X] por X̄ y el
parámetro por su estimador, y nos queda pb = X̄.
b=
Ejemplo 6.7 Sea X ∼ Exp(λ) sabemos que E[X] = λ1 , luego X̄ = 1 , y por tanto λ b
λ
1
X̄
.
6.3.3 Estimadores
A continuación se muestra una tabla con los estimadores más usuales según la distribución de la
variable en estudio.
N (µ, σ 2 ) µ
b = X̄
P(λ) λ̂ = X̄
σ̂ 2 = Sc2
P Ge(p) p̂ = 1/(X̄ + 1)
N (µ, σ 2 ), µ conocida σ̂ 2 = n1 ni=1 (Xi − µ)2
E(λ) λ̂ = 1/X̄
Be(p) p̂ = X̄
U (0, θ), θ̂ = 2X̄
B(N, p), N conocido p̂ = X̄/N
Cuando se llevan a cabo estimaciones se pretende que el resultado se halle lo más cerca posible
del valor desconocido del parámetro. El objetivo de las propiedades que vamos a estudiar en este
apartado es obtener un“buen” estimador que aproxime o estime al parámetro θ.
Definición 6.5 Sea X1 , X2 , ..., Xn una m.a.s. de una población descrita por una variable aleatoria X
con F.d.D. Fθ . Sea T = T (X1, X2, ..., Xn ) un estimador de θ. T es un estimador insesgado de θ si
E[T (X1 , X2 , ..., Xn )] = θ. Si E[T (X1 , X2 , ..., Xn )] = θ + b(θ), se dice que T es un estimador sesgado
de θ con sesgo b(θ).
Ejemplo 6.8 Sea X1 , X2 , ..., Xn una m.a.s. de una población descrita por una variable aleatoria X
con media µ y varianza σ 2 finitas, y T (X1 , X2 , ..., Xn ) = X̄. Sabemos que en estas condiciones
E[X̄] = µ,
Ejemplo 6.9 Sea X1 , X2 , ..., Xn una m.a.s. de una población descrita por una variable aleatoria X
con media µ y varianza σ 2 finitas, y T (X1 , X2 , ..., Xn ) = Sc2 . Sabemos que en estas condiciones
E[Sc2 ] = σ 2 ,
Ejemplo 6.10 Sea X1 , X2 , ..., Xn una m.a.s. de una población descrita por una variable aleatoria X
con media µ y varianza σ 2 finitas, y T (X1 , X2 , ..., Xn ) = S 2 . Sabemos que en estas condiciones
n−1 1
E[S 2 ] = σ 2 = σ2 − σ2,
n n
de donde S 2 es un estimador sesgado de σ 2 con sesgo b(σ) = −σ 2 /n.
Definición 6.6 Sea X1 , X2 , ..., Xn una m.a.s. de una población descrita por una variable aleatoria X
con F.d.D. Fθ , para algún θ ∈ Θ. Sean T = T (X1, X2, ..., Xn ) y S = S(X1, X2, ..., Xn ) dos estimadores
insesgados de θ. Se dice que T es más eficiente que S para estimar θ si
V ar[T ] ≤ V ar[S] .
X1 +X2 +X3
Ejemplo 6.11 Sea X1, X2, X3 m.a.s. de X tal que E[X] = µ y V ar[X] = σ 2 . Sean T1 = 3 y
T2 = X1 +2X
4
2 +X3
dos estadı́sticos. Vamos a estudiar cuál es más eficiente.
En primer lugar comprobamos si son insesgados
n
X1 + X2 + X 3 1X 1
E[T1 ] = E = E[Xi ] = 3µ = µ
3 3 3
i=1
X1 + 2X2 + X3 E[X1 ] + 2E[X2 ] + E[X3 ] 4
E[T2 ] = E = = µ=µ
4 4 4
Por lo tanto ambos estadı́sticos son insesgados de µ. ¿Cuál de los dos es preferible como estimador
de µ? Para contestar vamos a calcular la eficiencia.
n
1X 3σ 2 σ2
V ar(T1 ) = V ar(Xi ) = =
9 9 3
i=1
1 6σ 2 3σ 2
V ar(T2 ) = [V ar(X1 ) + 4V ar(X2 ) + V ar(X3 )] = =
16 16 8
Hemos comprobado que la V ar(T1 ) ≤ V ar(T2 ), luego T1 es más eficiente que T2 .
Nota 6.1 Si los estimadores no son insesgados, la comparación se hace mediante el error cuadrático
medio (ECM) y será preferible aquel estimador en el que el error cuadrático medio sea menor.
Estadı́stica 6.5
Tema 6. Estimación puntual y por intervalos de confianza
Ya vimos que la Inferencia Estadı́stica podı́a ser abordada mediante varias estrategias (estimación
puntual, estimación por intervalos, contrastes de hipótesis). En este apartado estudiaremos el problema
de la estimación por intervalos de confianza.
Supongamos que queremos estudiar una población descrita por una v.a. X, con F.d.D. F y sea θ
un parámetro desconocido de la población. Sea X1 , X2 , ..., Xn una m.a.s. de la población. El problema
de la estimación por intervalos consiste en la búsqueda de un intervalo que sea función de la muestra
y que contenga al verdadero y desconocido valor del parámetro con una probabilidad especificada de
antemano.
Definición 6.7 Sea X1 , X2 , ..., Xn una m.a.s. de una población descrita por una v.a. X con F.d.D.
Fθ , para algún θ ∈ Θ. Sean T1 = T1 (X1 , X2 , ..., Xn ) y T2 = T2 (X1 , X2 , ..., Xn ) dos estadı́sticos tales
que T1 ≤ T2 y
P [T1 < θ < T2 ] = 1 − α, (6.1)
donde α ∈ (0, 1) es una cantidad fija que no depende de θ. Entonces se dice que (T1 , T2 ) es un
intervalo aleatorio de confianza al nivel 1−α para θ. A 1−α se le denomina nivel de confianza.
En este apartado la información muestral siempre procederá de poblaciones con distribución nor-
mal.
σ σ
P X̄ − z1− α2 √ < µ < X̄ + z1− α2 √ = 1 − α.
n n
Si X̄ es la media de una muestra aleatoria de tamaño n de una población con varianza σ 2 conocida,
un intervalo de confianza de (1 − α)% para µ viene dado por
σ σ
X̄ − z1− α2 √ < µ < X̄ + z1− α2 √ .
n n
De una población deseamos estimar la media cuando la varianza se desconoce. Por el tema anterior
sabemos, si tenemos una muestra aleatoria a partir de una distribución normal, entonces la variable
aleatoria
X̄ − µ
T = Sc
√
n
tiene una distribución t de Student con n-1 grados de libertad. El procedimiento es el mismo que
cuando se conoce σ 2 , excepto que σ 2 al ser desconocido se sustituye por la cuasivarianza muestral Sc2
y la distribución normal se reemplaza por la distribución t de Student. En este caso podemos decir
que h i
P −tn−1,1− α2 < T < tn−1,1− α2 = 1 − α,
Si X̄ y Sc2 son la media y la cuasivarianza de una muestra aleatoria de una población normal con
varianza σ 2 desconocida, un intervalo de confianza de (1 − α)% para µ viene dado por
Sc Sc
X̄ − tn−1,1− α2 √ < µ < X̄ + tn−1,1− α2 √
n n
Resumiendo:
• Si σ 2 es conocida I.C(µ; 1 − α) = X̄ ∓ z1− α2 √σn
Sc
• Si σ 2 es desconocida I.C(µ; 1 − α) = X̄ ∓ tn−1,1− α2 √ n
Estadı́stica 6.7
Tema 6. Estimación puntual y por intervalos de confianza
s !
(n − 1)Sc21 + (m − 1)Sc22 1 1
I.C(µ1 − µ2 ; 1 − α) = (X̄ − Ȳ ) ∓ tn+m−2,1− α2 +
n+m−2 n m
2
r ! Sc21 Sc22
+
Sc21 S2 n m
I.C(µ1 − µ2 ; 1 − α) = (X̄ − Ȳ ) ∓ t ν,1− α + c2 , con ν = 2 2 S 2 2 −2.
2 n m S c1 1 c2 1
n n−1 + m m−1
!
σ12 Sc21 1 Sc21 1
I.C ; 1−α = ;
σ22 2
Sc2 Fn−1,m−1,1− α2 2
Sc2 Fn−1,m−1, α2
A diferencia del caso de dos poblaciones independientes, para cada individuo de la muestra se
observan las dos variables y tendremos situaciones del tipo antes-después, izquierda-derecha, etc. Por
ejemplo, medimos la variable tiempo de ejecución de dos algoritmos sobre un mismo conjunto de
datos. Bajo esta condición, vamos a calcular la diferencia entre las dos variables y trabajamos con la
variable diferencia distribuida normalmente. Para la variable diferencia calculamos la media, d̄, y la
2 . De forma similar a los apartados anteriores, se deduce que el intervalo de confianza
cuasivarianza Scd
para la diferencia de medias, µD , al (1 − α)% es
Scd Scd
d¯ − tn−1,1− α2 √ < µD < d¯ + tn−1,1− α2 √
n n
En este apartado queremos calcular un intervalo de confianza para estimar la proporción binomial
p de éxitos; por ejemplo dentro del control de calidad nos puede interesar la proporción de artı́culos
defectuosos producidos en una lı́nea de producción.
Por el teorema central del lı́mite, para n suficientemente grande, pb (proporción de éxitos de la
muestra) está distribuida normalmente con media
b
µp = p,
y varianza
pq
σp2b = .
n
Sabemos que h i
P −z1− α2 < Z < z1− α2 = 1 − α,
donde
pb − p
Z= q
pq
n
y al sustituir Z , tenemos
" r r #
pbqb pbqb
P pb − z1− α2 < p < pb + z1− α2 = 1 − α.
n n
r !
pbqb
I.C(p ; 1 − α) = p̂ ∓ z1− α2
n
Estadı́stica 6.9
Tema 6. Estimación puntual y por intervalos de confianza
y varianza
p1 q1 p2 q2
σp̂2 = + .
1 −p̂2 n m
donde
(b
p1 − pb2 ) − (p1 − p2 )
Z= q
p1 q1 p2 q2
n + m
6.6 Aplicación
Consideremos la siguiente aplicación, en ella se tenı́an las medidas realizadas por Albert Michelson
en 1879 sobre la velocidad de la luz en el aire. Se consideró como población X : velocidad de la luz
en el aire, X ∼ N (µ, σ 2 ).
- Estimemos los parámetros por intervalos de confianza.
El número de observaciones es n = 100. A partir de los datos tenı́amos: x̄n = 852.40; s2c =
√
6242.667 ; sc = 6242.667 = 79.01 .
99 × 6242.667 99 × 6242.667
= , = (4770.13 , 8326.70) .
129.561197 74.221927
Se han aproximado
χ2n−1,0.025 = χ299,0.025 ≈ χ2100,0.025 = 74.221927
χ2n−1,0.975 = χ299,0.975 ≈ χ2100,0.975 = 129.561197 .
Estadı́stica 6.11