Sie sind auf Seite 1von 19

INFERENCIA ESTADÍSTICA

Introducción a la Inferencia Estadística


Índice.

1. Objetivos de la inferencia estadística


2. Inferencia paramétrica e inferencia no paramétrica
3. Principales procedimientos inferenciales: estimación y
contraste de hipótesis
4. Estimación puntual
5. Intervalos de Confianza
6. Contraste de hipótesis
Objetivos de la inferencia estadística

La Inferencia Estadística es la parte de la Estadística que se encarga de estudiar


procedimientos para la obtención de conclusiones, referentes al total de la
población, a partir de la información proporcionada por la muestra o muestras
seleccionadas.

Es de gran utilidad en todos aquellos estudios de investigación llevados a cabo en


poblaciones demasiado grandes como para poder realizar mediciones en todos y
cada uno de los individuos de dichas poblaciones.
Inferencia paramétrica e inferencia no paramétrica

Supongamos qeu estamos estudiando una variable X en una población


suficientemente grande.
Para poder llevar a cabo el proceso de Inferencia Estadística es habitual representar
a dicha variable como una variable aleatoria X sobre un espacio de probabilidad
(modelización del problema).
La distribución de probabilidad de esta variable aleatoria X se supone desconocida,
en todo o en parte.
•Si suponemos que la distribución de probabilidad de X es conocida en su totalidad
salvo por uno o varios parámetros, diremos que estamos ante un problema de
Inferencia Paramétrica.
•Si suponemos que la distribución de probabilidad es totalmente desconocida,
diremos que estamos ante un problema de Inferencia no paramétrica.
Inferencia paramétrica e inferencia no paramétrica

INFERENCIA PARAMÉTRICA
•Sea X una v.a. en una población cuya distribución de probabilida es conocida
salvo por un parámetro θ.
•El parámetro desconocido θ asociado a la distribución de probabilidad de X puede
ser, por ejemplo, la media poblacional, la varianza poblacional, la proporción
asociada a una distribución binomial, p, etc.
•Sean x1 ,......, xn las mediciones de la variable X sobre una muestra de la
población tomadas de forma independiente y bajo las mismas condiciones. A este
conjunto de mediciones se le llama Muestra Aleatoria Simple de la variable X.
•La Inferencia Paramétrica consiste en obtener información sobre el parámetro θ a
partir de la muestra aleatoria simple de X.
Principales procedimientos inferenciales

En términos generales, hay dos grandes tipos de procedimientos inferenciales:

•Los procedimientos de estimación


•Los procedimientos de contraste de hipótesis.

Teniendo en cuenta que las técnicas estadísticas a utilizar con cada uno de ellos
serán diferentes, es importante saber distinguir claramente cuando estamos ante
un problema de estimación y cuando estamos ante un problema de contraste de
hipótesis.
Principales procedimientos inferenciales

PROCEDIMIENTOS DE ESTIMACIÓN
Su finalidad es proporcionarnos las herramientas necesarias para poder
determinar buenas aproximaciones (a las que llamaremos estimaciones) a
aquellos valores desconocidos en la población (a los que técnicamente se les
denomina parámetros) y que estamos interesados en conocer.

PROCEDIMIENTOS DE CONTRASTE DE HIPÓTESIS.


Su finalidad es proporcionarnos los mecanismos necesarios para poder decidir,
con cierta probabilidad de error, sobre la veracidad o no de determinada
afirmación realizada en la población bajo estudio.
Principales procedimientos inferenciales

Definición: Supongamos que x1 ,......, xn constituye una muestra aleatoria simple


de una población. Entonces, cualquier función
T = T ( x1 ,......, xn )
de la muestra se denomina estadístico.
Estimación puntual

Un estimador puntual de un parámetro poblacional θ es un estadístico


θˆ = T ( x1 ,......, xn ) basado en una muestra aleatoria simple de la población que
se usa para estimar θ.

El valor observado θˆ = T ( x1 ,......, xn ) de un estimador puntual se denomina


estimación puntual.

Como un estimador puntual es una variable aleatoria, tiene una distribución.


Estimación puntual
Estimadores más usuales
Estimación puntual

Es deseable que los estimadores cumplan algunas propiedades:

1.- Insesgado.

Sesgo de un estimador

2.- Eficiencia
Estimación puntual

3.- Consistencia.
Intervalos de confianza
Intervalos de confianza
Definición: Supongamos que x1 ,......, xn constituye una muestra aleatoria simple
de una población con parámetro θ. Un intervalo de confianza para θ se construye a
partir de dos estimadores (T ( x ,....., x ), T ( x ,....., x ) ) tales que:
1 1 n 1 1 n

P(T < θ < T ) = 1 − α


1 2

El valor 1-α se denomina Nivel de Confianza del intervalo. El intervalo aleatorio se


denomina habitualmente como el Intervalo de Confianza al nivel 100(1-α)% para θ.

Se trata de asignar al parámetro poblacional desconocido θ un rango de valores


posibles, dentro de los cuales se encuentra el verdadero valor del parámetro con
un determinado nivel de confianza fijada de antemano y que permite precisar la
incertidumbre que existe en la estimación.
Intervalos de confianza

Intervalo de confianza para la media de una población normal con varianza


conocida.

T
2
T1

Intervalo de confianza al 100(1-α)% para μ:


Intervalos de confianza

Intervalo de confianza para la media de una población distinta de la normal

Aplicando el Teorema Central del Límite, la media muestral se aproxima


asintóticamente a una distribución normal:

Por lo tanto, para muestras grandes, n ≥ 30 el intervalo de confianza para la


media queda como sigue, sustituyendo σ por su estimador S’
Contraste de hipótesis

Una hipótesis estadística es una asunción relativa a una o varias poblaciones, que
puede ser cierta o no. Las hipótesis estadísticas se pueden contrastar con la
información extraída de las muestras y tanto si se aceptan como si se rechazan se
puede cometer un error.

La hipótesis formulada con intención de rechazarla se llama hipótesis nula y se


representa por H0. Rechazar H0 implica aceptar una hipótesis alternativa (H1).
La situación se puede esquematizar:

H0 cierta H0 falsa
H1 cierta
H0 rechazada Error tipo I (α ) Decisión correcta (*)
H0 no rechazada Decisión correcta Error tipo II (β )

α = p(rechazar H0|H0 cierta)


β = p(aceptar H0|H0 falsa)
Potencia =1-β = p(rechazar H0|H0 falsa)
Contraste de hipóteis

Detalles a tener en cuenta


1 a y b están inversamente relacionadas.
2 Sólo pueden disminuirse las dos, aumentando n.

Los pasos necesarios para realizar un contraste relativo a un parámetro θ son:

1. Establecer la hipótesis nula en términos de igualdad

2. Establecer la hipótesis alternativa, que puede hacerse de tres maneras,


dependiendo del interés del investigador
en el primer caso se habla de contraste bilateral o de dos colas, y en los otros dos
de lateral (derecho en el 2º caso, o izquierdo en el 3º) o una cola.

3. Elegir un nivel de significación: nivel crítico para α


Contraste de hipótesis

4. Elegir un estadístico de contraste: estadístico cuya distribución muestral se


conozca en H0 y que esté relacionado con θ y establecer, en base a dicha
distribución, la región crítica: región en la que el estadístico tiene una probabilidad
menor que a si H0 fuera cierta y, en consecuencia, si el estadístico cayera en la
misma, se rechazaría H0.

Obsérvese que, de esta manera, se está más seguro cuando se rechaza una
hipótesis que cuando no. Por eso se fija como H0 lo que se quiere rechazar.
Cuando no se rechaza, no se ha demostrado nada, simplemente no se ha podido
rechazar. Por otro lado, la decisión se toma en base a la distribución muestral en
H0, por eso es necesario que tenga la igualdad.

5. Calcular el estadístico para una muestra aleatoria y compararlo con la región


crítica y compararlo con α.

Das könnte Ihnen auch gefallen