Sie sind auf Seite 1von 9

Tema 5 - Inferencia Estadística: Estimación

5.1 Introducción

La construcción de los modelos probabilísticos, presentada en el último tema, es un


ejemplo de razonamiento deductivo. Empezamos con varias hipótesis respecto a la
estructura de una variable aleatoria y a partir de ellas se deduce la distribución de
probabilidad de los valores posibles. En la inferencia estadística (o estadística
inductiva) se realiza el proceso inverso. Dadas algunas observaciones de una
variable, es decir algunos datos, se intenta inferir el modelo probabilístico asociado
con la variable que ha generado estos datos.

La inferencia estadística puede dividirse en dos áreas principales: estimación y


pruebas de hipótesis. Consideramos los procedimientos asociados con estimación
en este tema y los de pruebas de hipótesis en el tema siguiente.

5.2 Población y muestreo

Llamaremos población a un conjunto homogéneo de elementos en los que se


estudia una característica de interés. En la mayoría de los casos no es posible
estudiar todos los elementos de una población, ya que:

 El estudio puede necesitar la destrucción de los elementos. Por ejemplo, se


puede estudiar el tiempo de vida de un modelo de coches o la tensión de rotura
de cables. Si destruimos todos los elementos de la población no se tendrán más
elementos que vender, usar, etc.
 Los elementos pueden existir sólo conceptualmente y no en la realidad. Por
ejemplo, la población de televisores que producirá una empresa.
 Puede ser inviable económicamente estudiar toda la población.
 El estudio llevaría tanto tiempo que sería impracticable. Incluso, es muy probable
que, las características de la población hubieran variado en el tiempo.

Entonces, en lugar de realizar un censo (es decir, un estudio exhaustivo de todos


los elementos de una población), se selecciona un conjunto representativo de
elementos, que se llama muestra. El proceso de escoger una muestra se conoce
como muestreo. El número de elementos en la muestra recibe el nombre de tamaño
de la muestra. Si la muestra está bien escogida puede proporcionar una información
muy precisa sobre la característica de interés, pero con mayor rapidez y menor
coste que si se efectuara un censo. Existen varios tipos de muestreo, y la clave del
muestreo es garantizar que la muestra sea representativa de la población. A
continuación consideraremos métodos de estimación que suponen que la muestra
se selecciona con el denominado muestreo aleatorio simple.

5.3 Muestreo aleatorio simple

Una muestra se conoce como muestra aleatoria simple (m.a.s.) si:

1. Cada elemento de la población tiene la misma probabilidad de ser elegido en


cada selección de uno de sus componentes.
2. Las selecciones se realizan con reemplazamiento, y entonces la probabilidad de
elegir cualquier elemento de la población es idéntica en todas las selecciones.

La primera condición a5egura la representatividad de la muestra. La segunda


condición se impone por simplicidad del análisis.

Supongamos que la población tiene un número, N, de elementos muy grande y que


el tamaño de la muestra, n, es relativamente pequeño. Si la fracción n/N es mayor
que 0,1 (es decir que muestreamos más del 10% de la población) los métodos que
presentaremos aquí son sólo aproximaciones. (En estos casos, existen
correcciones que es preciso usar.)

Para seleccionar una m.a.s de una población finita, hoy en día se utilizan dígitos
aleatorios simulados por ordenador. Si los métodos de simulación son correctos, se
puede considerar los dígitos resultantes como dígitos producidos por el siguiente
método. Empezamos con 10 trozos de papel, cada trozo del mismo tamaño. En el
primer trozo escribimos el dígito 0; en el segundo 1;... y en el décimo 9. Situamos
los 10 trozos de papel en un sombrero de copa, sacudimos el sombrero para
mezclar los trozos de papel. De esta manera, cuando elegimos un trozo de papel al
azar, cada dígito tiene la misma probabilidad de ocurrencia. Ahora, elegimos un
trozo de papel al azar y anotamos el dígito escrito en él. Después, reemplazamos el
trozo de papel y repetimos este proceso para obtener una serie de dígitos aleatorios.
Utilizando este procedimiento, producimos una serie de dígitos como la que sigue
(que ha sido simulada utilizando Minitab).

1 4 8 7 7 58 9 7 4 8 62 5 9 9 7 80 4 3 89 5 45 7 0 9 7 I 0 5 7 9 1 7 7 6

1 5 7 4 6 09 6 9 4 6 14 9 9 9 2 68 2 6 70 2 90 9 3 2 8 0 5 2 6 1 8 3 3 1

5 9 6 8 4 88 4 7 2 4 11 6 5 5 0 54 3 8 87 I 14 4 3 1 1 2 8 8 3 7 8 1 9 7

7 9 7 0 3 50 2 3 4 6 63 0 6 1 2 20 0 7 19 2 30 6 9 9 1 7 5 9 4 3 5 6 0 7

0 7 5 6 1 29 I 3 1 7 63 8 1 5 4 25 6 2 67 0 73 2 6 8 7 5 3 4 8 2 6 5 5 2

4 8 9 5 9 09 0 2 9 8 92 5 1 8 2 99 2 6 56 9 04 8 6 4 9 4 1 2 4 2 7 1 9 7

3 2 3 5 0 75 7 9 6 3 04 4 3 2 6 83 6 1 87 0 42 3 1 4 4 5 2 2 4 6 5 5 5 8

6 3 1 1 4 23 5 4 3 6 66 0 7 7 8 67 2 1 91 9 14 3 0 4 4 0 8 0 7 4 1 4 7 9

3 0 6 6 3 56 4 7 8 8 69 4 4 1 5 53 3 2 25 6 72 4 7 4 9 4 0 9 8 7 0 7 5 6

4 5 2 5 6 74 4 2 2 7 63 0 4 0 9 62 3 1 49 7 63 5 2 9 4 6 4 4 7 1 1 3 2 0

4 4 9 9 9 I 9 9 0 4 5 19 5 9 3 1 90 0 4 64 7 03 4 7 2 6 4 8 0 3 2 5 3 2 4

1 8 5 2 2 44 0 3 4 5 98 2 7 0 6 92 0 0 36 4 60 2 8 5 4 7 5 1 8 1 3 3 5 9

2 3 3 8 4 61 0 9 5 3 55 0 4 8 9 80 0 0 26 6 70 3 0 3 6 4 1 2 7 5 9 7 2 1

4 0 8 9 6 88 1 4 0 2 17 1 6 7 4 59 9 4 40 1 62 9 2 8 0 0 0 2 9 8 9 5 7 3

7 6 8 2 1 50 8 2 5 1 92 8 9 4 0 76 0 2 84 7 98 0 9 6 0 6 5 8 1 2 6 2 7 8

0 1 9 6 9 16 8 9 2 7 45 7 6 6 9 71 5 2 15 2 38 3 0 5 5 2 2 0 1 4 0 1 2 9

8 3 4 3 6 39 7 4 0 0 58 0 9 3 5 68 5 6 83 6 81 4 5 2 0 5 5 8 4 9 0 9 1 2

3 2 5 7 6 55 3 1 8 1 34 7 6 0 2 10 9 4 64 0 82 1 5 2 9 6 9 5 5 8 4 3 9 9

0 8 9 8 5 93 5 9 2 3 70 9 0 3 8 24 3 7 81 3 67 5 5 4 5 1 2 6 5 S4 0 1 9

7 8 1 5 2 79 4 1 1 5 66 5 4 8 0 86 2 8 56 2 78 5 0 7 3 1 1 9 1 7 9 2 6 6

3 4 3 6 9 85 6 0 1 2 05 1 1 9 0 35 3 0 33 8 09 6 0 1 8 0 0 5 2 5 6 3 7 1

5 0 4 6 0 18 3 3 1 2 56 1 1 5 6 95 2 0 05 7 11 0 5 9 4 8 1 8 2 0 9 8 8 2
7 5 3 2 0 57 6 1 7 8 57 3 8 4 0 35 8 6 09 9 83 7 9 1 0 8 5 3 9 7 5 1 1 5

5 7 1 5 5 35 1 0 0 9 61 7 8 1 6 31 7 1 13 5 91 5 8 9 8 9 6 4 8 4 7 4 9 3

1 1 3 8 4 93 2 5 4 1 38 3 2 7 0 74 1 4 46 4 68 1 0 0 6 8 8 7 4 0 7 6 4 5

5 1 9 6 6 97 6 3 3 0 24 6 8 9 5 13 2 0 60 4 3

Con una lista de dígitos aleatorios de este tipo, se selecciona una m.a.s de la
siguiente manera. Se numeran los elementos de la población (finita) de 1 a N y se
toman números construidos por los dígitos aleatorios, de tantas cifras como tenga
N. El valor del número construido indicará el elemento a seleccionar. Si el número
es más grande que N (lo que es posible si N ≠ 10,100,1000,...) ignoramos este
número y seguimos con el siguiente. Por ejemplo, supongamos que queremos una
m.a.s. de 10 estudiantes en un grupo de 253 estudiantes. Numerando los
estudiantes de 1 a 253, y utilizando la serie de dígitos aleatorios dados arriba, el
número formado por los tres primeros dígitos es 148. Este número corresponde a
uno de los estudiantes. Los cinco números próximos (775, 897, 486, 259, 978) no
se encuentran dentro del intervalo 1 - 253. El siguiente número es 043 que si está
entre 1 y 253. Los dos números próximos (895, 457) no corresponden a ningún
alumno. Los próximos dos números (097 y 105) identifican dos miembros más de la
muestra. Los dos números siguientes (791 y 776) no sirven para identificar otros
miembros de la muestra. Siguiendo este procedimiento, obtenemos los números
157, 052, 241, 165, 144 y 197 para los últimos 6 miembros de la muestra.
Resumiendo, la muestra consta de los 10 alumnos con los números de
identificación: 148, 043, 097, 105, 157,052, 241, 165, 144 y 197.

Una vez que hemos identificado los n elementos de la muestra, podemos medir el
valor de la variable de interés, X, para estos elementos. Antes de identificar los n
elementos de la muestra y medir sus valores de X, consideramos estas
observaciones potenciales como variables aleatorias denotadas por X1, X2,...,Xn,
donde X¡ representa el /-ésimo valor de la variable X que vamos a observar. Los
valores numéricos obtenidos después de la medición los denotamos por x1, x2,...,
xn. Debido a las condiciones idénticas bajo las cuales se seleccionan los elementos
de la muestra, es razonable suponer que las n variables aleatorias X 1, X2,...,Xn son
independientes y que cada una tiene la misma distribución de probabilidad que la
población. Decimos que las n variables aleatorias X1, X2,..., Xn son independientes
e idénticamente distribuidas (i.i.d.). Si f (•) es la función de densidad de la población
y f i (•) es la función de densidad de Xi:

f1(.) = f2(.) = …=fn(.) = f (.)

Además, las Xi son independientes y entonces la variable aleatoria n-dimensional


(X1, X2,..., Xn) tiene función de densidad conjunta:

F (x1, x2, …, xn) = f(x1) f(x2) … f(xn)

que es la condición matemática del muestreo aleatorio simple.

5.4 Estimación

5.4.1 Introducción

El método clásico de la inferencia estadística es seleccionar la forma de la


distribución inicial a la vista de los datos y el contexto del problema, y luego aplicar
métodos para estimar eficientemente sus parámetros desconocidos.

5.4.2 Identificación del modelo

El enfoque paramétrico supone que la forma del modelo es conocida. En realidad,


cuando realizamos un experimento aleatorio, los datos no vienen con el nombre de
un modelo pegado. En la práctica, tenemos una muestra y cierta información sobre
el experimento realizado para conseguir los datos de ella. Además, si con
anterioridad se han realizado experimentos similares, es posible que éstos también
proporcionen información útil. Resumiendo, al inicio del procedimiento de
estimación, tenemos que seleccionar un modelo a partir de los datos muéstrales, el
contexto del experimento actual, la variable de interés y experimentos similares.

En relación con el uso de información sobre el contexto del experimento,


supongamos que estamos interesados en la proporción de unidades defectuosas
producidas por una máquina. Si la probabilidad de producir una unidad defectuosa
es constante y el estado de cualquier unidad es independiente del de cualquier otra,
podemos considerar el estado de una unidad como una variable aleatoria de
Bernoulli. Si utilizamos la máquina para producir una muestra de n unidades,
entonces un modelo obvio para el número de unidades defectuosas en la muestra
es el binomial. Después de identificar este modelo, el problema consiste en estimar
el parámetro desconocido del modelo, es decir .

Si el contexto del experimento no sugiere un modelo específico, pero éste es


parecido a otros experimentos previos, es posible que las conclusiones de estos
experimentos indiquen un modelo apropiado. Por ejemplo, supongamos que la
variable de interés en un experimento es el tiempo de vida de un componente
electrónico y que los componentes en cuestión tienen características muy similares
a componentes utilizados en otros estudios. Si en estos otros estudios se dedujo
que puede considerarse el tiempo de vida de los componentes respectivos como
una variable exponencial, entonces un modelo exponencial es un candidato obvio
para el tiempo de vida de los componentes en el estudio nuevo. El problema se
convierte en la estimación del parámetro desconocido .

Por último, si no es posible identificar un modelo apropiado a partir de la información


sobre el contexto del experimento o información adicional, podemos investigar si los
mismos datos indican la forma de un modelo específico. Podemos producir gráficos,
como diagramas de barras o histogramas, esperando que estos gráficos sugieran
la forma de un modelo adecuado. Por ejemplo, es posible que el histograma de los
datos de una variable continua tenga una forma parecida a la función de densidad
de una distribución normal. Esto indicará que un modelo normal será apropiado para
la variable de interés. Luego, el problema ha reducido a la estimación de los dos
parámetros desconocidos de la distribución,  y .

5.4.3 Estadísticos

5.4.3.1 Concepto de un estadístico

A continuación supondremos que se observa una m.a.s. de una variable X, que


sigue una distribución conocida (binomial, Poisson, exponencial, normal, ...) pero
los parámetros de la distribución son desconocidos. El problema fundamental es
como se pueden estimar estos parámetros a partir de la información contenida en
los datos muéstrales.

Repetimos que en una m.a.s. X1, X2,...,Xn, las n variables aleatorias son i.i.d..
Cualquier función de estas variables se llama un estadístico. Como un estadístico
es una función de variables aleatorias es también una variable aleatoria.

5.4.3.2 Algunos estadísticos importantes

5.4.3.2.1 Estadísticos de tendencia central de la muestra

Si X(1), X(2),…, X(n) representa una m.a.s. de tamaño n, se define:


n

X i
1. La media muestral, X , como X  i 1

n
2. La moda muestral como el valor más frecuente en la muestra.
3. Si X(1), X(2),…, X(n) representan los valores muéstrales en orden creciente, se

define la mediana muestral, X , como:

 X  n 1 /2 si n es impar



X   X n /2  X
    n /21
 si n es par
 2

x i
Es importante notar que, por ejemplo, X toma el valor X  i 1
cuando Xl, tiene
n
el valor x1, X2 el valor x2, etcétera. En la práctica, se utiliza el mismo nombre para
designar al estadístico y a su valor en una muestra concreta. Por ejemplo, el término
media muestral se aplica tanto al estadístico X como a su valor observado X .

5.4.3.2.2 Estadísticos de variabilidad de la muestra

Se definen:

1. El rango de la muestra como X(n) - X(1).

2. La varianza muestral corregida (o cuasivarianza) como:


2
 n 
  Xi 
 X  X i2   i 1 
n n


2
i X
n
S2  i 1
 i 1
n 1 n 1

4. La desviación típica muestral como  S 2

5.4.4 Estimación puntual

5.4.4.1 Lógica básica

Si queremos una estimación única del valor de un parámetro desconocido,


decimos que realizamos estimación puntual. La lógica de este procedimiento es muy
sencilla utilizamos un estadístico (una función de las variables aleatorias de la
muestra) como estimador del parámetro desconocido. El valor observado del
estimador recibe el nombre de estimación puntual del parámetro desconocido.

5.4.4.2. Algunos estimadores importantes

5.4.4.2.1. Muestra de una distribución de Bernoulli

Supongamos que tenemos una m.a.s. 𝑋1, 𝑋2 , … 𝑋𝑛 de una distribución de Bernoulli,


con probabilidad de “éxito” p (desconocido). Un estimador natural de p es la
frecuencia relativa del suceso “éxito”, p, donde:

p= (Número de éxitos en la muestra)/n

Si representamos un “éxito” por el número 1, Y un “fracaso” por el número 0,


entonces, X; sólo toma los valores 0 y 1, y
𝑋1+𝑋2+ ⋯+𝑋 ∑𝑛
𝑖=1 𝑋𝑖
𝑃̂= 𝑛
= = 𝑋̅
𝑛 𝑛

Es decir, utilizamos la media muestral (de los valores de 0 y 1) como estimador de


p.

5.4.4.2.2. Muestras de una distribución de Poisson


Supongamos que tenemos una m.a.s. 𝑋1 , 𝑋2 , … , 𝑋𝑛 de una distribución de Poisson
con media µ (desconocida). El estimador natural de µ es la media de la muestra, 𝑋⃐.
Es decir:

∑𝑛
𝑋𝑖
𝜇̂ =𝑋̅= 𝑖=1
𝑛

5.4.4.2.2 Muestras de una distribución normal

Supongamos que tenemos una m.a.s. 𝑋1 , 𝑋2 , … , 𝑋𝑛 de una distribución normal con


media µ y varianza 𝜎 2 (los dos parámetros desconocidos). El estimador natural de
µ es, otra vez, media de la muestra, 𝑋⃐. El estimador más utilizado para la varianza
, 𝜎 2 , es cuasi varianza (o varianza corregida) 𝑆 2 .Es decir:

µ̂= 𝑋̅ y 𝛿̂ 2 = 𝑆 2

5.4.4.3 Propiedades de un buen estimador

5.4.4.3.1 Estimador insesgado

Sea 𝛩̂ un estimador cuyo valor observado, 𝜃̂, es una estimación puntual de algún
parámetro desconocido Θ. Es deseable que 𝛩̂ tuviera la esperanza igual al
parámetro estimado, es decir que 𝐸(𝛩̂)=Θ. Se dice que un estimador 𝛩̂ es un
estimador insesgado (o centrado) del parámetro 𝜃 si, satisface la condición 𝐸(𝛩̂)=𝜃.
Cuando un estimador no es centrado se dice que es sesgado. El sesgo del
estimador se define como:

   
sesgo   E   

Das könnte Ihnen auch gefallen