Sie sind auf Seite 1von 18

TEMA 2

ANÁLISIS SOBRE UNA ÚNICA VARIABLE


1. ANÁLISIS SOBRE UNA VARIABLE

Se ha venido realizando una distinción entre variables categóricas y cuantitativas, esta


distinción sigue siendo válida a la hora de clasificar y elegir las herramientas.

Recordad que es importante para poder describir correctamente una variable atender a 3
características de su distribución: centro, dispersión y forma.

 Con una variable categórica: interesa estudiar cómo se reparten las frecuencias
entre las distintas categorías de la variable. Si la variable es dicotómica o
dicotomizada interesa dirigir la atención a la proporción o número de éxitos 
Contraste sobre una proporción  equivale a estudiar el centro de la distribución.
Si la variable es politómica interesa estudiar la forma de la distribución 
Contraste sobre la bondad de ajuste.
 Con una variable cuantitativa: interesa estudiar tanto el centro, la forma y el grado
de dispersión  Contraste sobre una media.

2. VARIABLE CATEGÓRICA

2.1 VARIABLE CUALITATIVA CON DOS NIVELES (DICOTÓMICA)

En psicología, es frecuente encontrarse con variables dicotómicas (por ejemplo, acierto-


error, verdadero-falso, tratados-no tratados, recuperados-no recuperados, aprobados-
suspensos, con una característica-sin ella,…). Se suele llamar de forma genérica éxito
(1) - fracaso (0) a los dos niveles de las variables de este tipo.

Sobre este tipo de variables se pueden hacer contrastes acerca de la proporción de éxitos
en una población π (o el número de éxitos) en un número de ensayos (n).
2.1.1 CONTRASTE SOBRE UNA PROPORCIÓN MUESTRAS PEQUEÑAS
(DISTRIBUCIÓN BINOMIAL)

Las condiciones de la distribución binomial son las siguientes: Es la distribución del


número de éxitos en una serie de n ensayos de Bernoulli1

Para que una v.a. discreta pueda considerarse binomial deben darse las siguientes
condiciones:

 Se basa en experimentos con resultados binarios (0, 1) descritos por una v.a. de
Bernoulli.

 El experimento se repite n veces o ensayos en las mismas condiciones.

 La probabilidad de éxito o de que se verifique la condición, p, en los n ensayos se


mantiene constante.

 Las n repeticiones son independientes, es decir los resultados de cada uno de los
ensayos no influyen en los restantes.

La distribución binomial aparece cuando estamos interesados en el número de veces que


un suceso A ocurre (éxitos) en n intentos independientes de un experimento. Por
ejemplo, el número de caras en n lanzamientos de una moneda. En tal caso, si A tiene
una probabilidad p (probabilidad de éxito) en un intento, entonces q = 1 – p es la
probabilidad de que A no ocurra (probabilidad de fracaso). En el ejemplo de la moneda
(siempre que esté equilibrada), tanto p como q valen 0.5.

La función de probabilidad y la función de distribución vienen dadas por:

Distribución binomial (donde


En cuanto a las propiedades de la distribución:
p es la proporción de éxitos):
- La esperanza matemática es: E(X) = np
𝐸(𝑝) = 𝜋
- La varianza es: Var(X) = npq = np(1 - p) 𝜋(1 − 𝜋)
- 𝑥 ~ 𝐵(𝑛, 𝜋) 𝑉(𝑝) =
𝑛
𝑝 ~ 𝐵(𝑛, 𝜋)
1
En la teoría de probabilidad y estadística, un ensayo de Bernoulli es un
experimento aleatorio en el que sólo se pueden obtener dos resultados
(habitualmente etiquetados como éxito y fracaso).
*En estadística la esperanza matemática (E(X)) (también llamada esperanza, valor
esperado, media poblacional o media) de una variable aleatoria, es el número que
formaliza la idea de valor medio de un fenómeno aleatorio.

(Yo creo que 𝜋 es la probabilidad de éxito)

Con la distribución binomial se pueden hacer contrates de hipótesis sobre una


proporción con n pequeño. El procedimiento es el siguiente:

1) Establecer las hipótesis de partida:

H0: 𝜋 = 𝜋0
- Contraste bilateral:
H1: 𝜋 ≠ 𝜋0

H0: 𝜋 = 𝜋0
- Contraste unilateral derecho:
H1: 𝜋 > 𝜋0

- Contraste unilateral izquierdo: H0: 𝜋 = 𝜋0


H1: 𝜋 < 𝜋0

2) Fijar el nivel de significación α.

3) Comprobar que se cumplen los siguientes supuestos:

- La v.a. Y es una variable dicotómica o dicotomizada con sólo dos valores


posibles en la población y con una probabilidad de éxito igual a π.
- Un muestreo aleatorio simple m.a.s. de n observaciones, manteniéndose
constante la probabilidad de éxito en cada extracción.

4) Calcular el estadístico de contraste (EC), empleando la distribución binomial.

- X (número de éxitos) y p (proporción de éxitos).

5) Tomar una decisión a partir del EC obtenido.

- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región


crítica (su probabilidad asociada es menor que α ó α/2).
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región
de aceptación (su probabilidad asociada es mayor que α ó α/2).
CONTRASTE SOBRE UNA PROPORCIÓN (DISTRIBUCIÓN NORMAL)

Las Distribuciones asociadas a la distribución normal como son:

 la distribución ji-cuadrado (útil al hacer inferencias sobre varianzas o, en general,


cantidades elevadas al cuadrado)
 la t de Student (necesaria para medias muestrales cuando la varianza poblacional es
desconocida),
 la distribución F (para tratar con razón de varianzas o razón de variables aleatorias
distribuidas según ji-cuadrado).

La distribución normal es una función matemática que describe muchos fenómenos


naturales, es frecuente encontrar variables con distribuciones muy similares a la de la
normal. Refleja el hecho de que la mayor parte de las personas, con respecto a
numerosas variables, se encuentran en los valores centrales y en menor medida en los
extremos.

La función de densidad de probabilidad de la distribución normal tiene una serie de


características:

- Puntos de Inflexión en: 𝜇 − 𝜎 y 𝜇 + 𝜎.


- Simétrica respecto a 𝑥 = 𝜇.
- Tiene un máximo en 𝑥 = 𝜇.
- Es asintótica respecto al eje de abscisas.
- Son más probables los valores próximos a la media o valor esperado, que divide
a la curva en dos zonas de igual área.
- Conforme nos separamos de ese valor, la probabilidad va decreciendo de igual
forma a derecha e izquierda.
Las características de la distribución normal tipificada o estandarizada son:

- No depende de ningún parámetro.


- Su media es 0, su varianza es 1 y su desviación típica es 1.
- Tiene dos puntos de inflexión en z = 1 y z = -1.

Para trabajar con la distribución normal tipificada, a partir de una distribución normal
no tipificada, el primer paso consiste en calcular la puntuación típica (Zx i)
correspondiente a una puntuación directa dada (xi):
𝑥𝑖 − 𝜇𝑥
𝑍𝑖 =
𝜎𝑥

Una vez tipificado el valor, se busca en las tablas de la curva normal la probabilidad
acumulada correspondiente al mismo, es decir, la probabilidad de que Z asuma un valor
inferior o igual a Zi.

Con la distribución normal (estandarizada) se pueden hacer contrates de hipótesis sobre


una proporción con n grande (generalmente, mayor de 25-30) (teorema del límite
central). El procedimiento es el siguiente:

1) Establecer las hipótesis de partida:

H0: 𝜋 = 𝜋0
- Contraste bilateral:
H1: 𝜋 ≠ 𝜋0

H0: 𝜋 = 𝜋0
- Contraste unilateral derecho:
H1: 𝜋 > 𝜋0
- Contraste unilateral izquierdo: H0: 𝜋 = 𝜋0
H1: 𝜋 < 𝜋0
2) Fijar el nivel de significación α.

3) Comprobar que se cumplen los siguientes supuestos:

- La v.a. Y es una variable dicotómica o dicotomizada con sólo dos valores


posibles en la población y con una probabilidad de éxito igual a π.
- Un m.a.s. de n observaciones, manteniéndose constante la probabilidad de éxito
en cada extracción.

4) Calcular el estadístico de contraste, Z, que se distribuye según N (0, 1):

5) Tomar una decisión a partir del EC obtenido y de la región crítica establecida:

- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región


crítica.
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región
de aceptación.

6) Calcular el nivel crítico (p) del estadístico de contraste:

- Contraste bilateral:

- Contraste unilateral derecho:

- Contraste unilateral izquierdo:


7) Calcular el intervalo de confianza (IC):

𝐿𝑖 = 𝑝 − |𝑍𝛼⁄2 |√𝑝(1 − 𝑝)/𝑛

𝐿𝑠 = 𝑝 + |𝑍𝛼⁄2 |√𝑝(1 − 𝑝)/𝑛

donde |𝑍𝛼⁄2 |√𝑝(1 − 𝑝)/𝑛 es el error máximo (Emáx).

VARIABLE CUALITATIVA CON MÁS DE DOS NIVELES U CUASI-


CUANTITATIVA (POLITÓMICAS) Y DISTRIBUCIÓN χ2

El concepto de bondad de ajuste es un concepto amplio que se refiere al grado de


parecido existente entre los pronósticos de un modelo estadístico y los datos que se
intentan pronosticar.

Con una sola variable, los contrastes sobre la bondad de ajuste contribuyen a comprobar
el grado de parecido existente entre la realidad y las ideas previas. En concreto,
permiten comprobar si la forma de la distribución de probabilidad empírica se ajusta a
una determinada distribución de probabilidad teórica; es decir, realizar un contraste
estadístico sobre la forma de la distribución de una v.a. en la población.

Estos contrastes pueden utilizarse para variables categóricas y cuantitativas. Con


variables dicotómicas se suelen utilizar para valorar el ajuste a una distribución
binomial (equivale al contraste sobre una proporción), con variables politómicas se
suelen utilizar para valorar el ajuste a una distribución multinomial, y con variables
cuantitativas se suele utilizar para valorar el ajuste a una distribución normal.

Para ello:

- En la hipótesis nula, se supone que en la población la variable sigue una


determinada distribución (H0).
- Se extrae una m.a.s. sobre la que se calcula el E.C.
- Se evalúa el grado de adecuación entre la distribución de la muestra y la que
cabría esperar si fuese cierta la H0.

Para evaluar si un resultado muestral se ajusta o no a una determinada distribución


teórica, la estrategia se basa en comparar las frecuencias observadas o empíricas (ni) con
las frecuencias esperadas o teóricas (mi).
Frecuencia esperada: 𝑚𝑖 = 𝑛𝜋𝑖
𝐼 Residuos: diferencia entre la
(𝑛𝑖 − 𝑚𝑖 )2
𝑋2 = ∑ frecuencia observada y esperada
𝑚𝑖 𝑅𝑖 = 𝑛𝑖 − 𝑚𝑖
𝑖=1
La distribución chi-cuadrado, χn2 (familia de distribuciones), es una distribución
derivada de la distribución normal. Sirve para realizar inferencias acerca de algunos
parámetros. Esta variable surge de una combinación de variables aleatorias normales, es
una suma de variables z elevadas al cuadrado. El número de valores sumados es el
único parámetro de este modelo (se denomina grados de libertad), es el parámetro por
el que se distinguen los distintos miembros de esta familia de distribuciones.

Las características de la distribución χn2 son:

- Sólo toma valores mayores o iguales a 0.


- Es una distribución asimétrica positiva.
- Es asintótica respecto al eje de abscisas.
- Si 𝑛 → ∞ la distribución se aproxima a la Normal.

La prueba χ2 permite averiguar si la distribución empírica de una variable se ajusta a


una distribución teórica de probabilidad. Para ello, se puede realizar un contraste de
hipótesis, utilizando la distribución χn2. El procedimiento es el siguiente:

1) Para el contraste de la H0 de bondad de ajuste compara:

- Función de distribución empírica F(Xi).


- Función de distribución teórica F0(Xi), es decir, la que cabría esperar si fuese
cierta la H0.

2) Fijar el nivel de significación α.

3) Comprobar que se cumple el siguiente supuesto: las observaciones son


independientes.

4) Calcular el estadístico de contraste, χ2:


5) Tomar una decisión a partir del EC obtenido y de la región crítica establecida:

- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región


crítica.
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región
de aceptación.

6) Calcular el nivel crítico (p) del estadístico de contraste:

VARIABLE CUANTITATIVA

CONTRASTE SOBRE UNA MEDIA (CON VARIANZA DESCONOCIDA)

Para realizar este tipo de contraste, se emplea la distribución t de Student (tn). Esta es
una distribución derivada de una distribución normal y otra χn2.

La distribución t de Student se basa en la composición de dos variables aleatorias


independientes, una normal estandarizada y una ji-cuadrado (con k o n grados de
libertad). Precisamente debido a la presencia de esta última, que está definida por sus
grados de libertad, la distribución t también variará en función de éstos.

Las características de la distribución tn son:

- Simétrica respecto a 𝑡𝑛 = 0.
- Tiene un máximo en 𝑡𝑛 = 0.
- Es asintótica respecto al eje de abscisas.
- Si 𝑛 → ∞ la distribución se aproxima a la Normal.
- Son más probables los valores próximos a la media o valor esperado, que divide
a la curva en dos zonas de igual área.
- Conforme nos separamos de ese valor la probabilidad va decreciendo de igual
forma a derecha e izquierda.
Se puede hacer el contraste sobre una media, con varianza conocida o con una n muy
grande, utilizando el estadístico Z, que se distribuye normalmente, N(0, 1). Pero,
generalmente, si se conoce la desviación típica de una población, también se conoce su
media y, por tanto, no será necesario hacer ningún tipo de inferencia sobre ella. Y, si
conociendo ambos parámetros, se desea averiguar si la media ha cambiado, lo razonable
será asumir que la desviación típica también habrá podido cambiar y que, por tanto,
habrá dejado de ser conocida. Por ello, al contrastar hipótesis sobre una media, lo
habitual es que los parámetros poblacionales sean desconocidos.

El procedimiento para el contraste de hipótesis sobre la media de una población


(tendencia central de una variable cuantitativa) con varianza desconocida es el
siguiente:

1) Establecer las hipótesis de partida:

H0: 𝜇 = 𝜇0
- Contraste bilateral:
H1: 𝜇 ≠ 𝜇0

H0: 𝜇 = 𝜇0
- Contraste unilateral derecho:
H1: 𝜇 > 𝜇0

- Contraste unilateral izquierdo: H0: 𝜇 = 𝜇0


H1: 𝜇 < 𝜇0
2) Fijar el nivel de significación α.

3) Comprobar que se cumplen los siguientes supuestos:

- Normalidad: la variable Y sigue una distribución Normal en la población de las


que ha sido extraída la muestra, 𝑌 → 𝑁(𝜇, 𝜎 2 ) (comprobación mediante pruebas
de bondad de ajuste a la distribución Normal) (muy importante en n pequeñas).
- Un m.a.s. de tamaños n (comprobación mediante test de rachas) (conocer el
resultado de una observación no dice nada acerca del resultado de las demás).

4) Calcular el estadístico de contraste, T, que se distribuye según el modelo de


probabilidad t de Student con n-1 grados de libertad:

5) Tomar una decisión a partir del EC obtenido y de la región crítica establecida:


- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región
crítica.
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región
de aceptación.

6) Calcular el nivel crítico (p) del estadístico de contraste:

- Contraste bilateral:

- Contraste unilateral derecho:

- Contraste unilateral izquierdo:

7) Calcular el intervalo de confianza (IC):

𝐿𝑖 = 𝑌̅ − |𝑡𝑛−1 𝛼⁄2 | 𝑆𝑦̅

𝐿𝑆 = 𝑌̅ + |𝑡𝑛−1 𝛼⁄2 | 𝑆𝑦̅

CONTRASTE SOBRE LA MEDIANA

La prueba sobre la mediana, la prueba de Wilcoxon, se utiliza cuando la distribución de


la variable en la población no es normal y el tamaño de la muestra es pequeño (es una
prueba no paramétrica, que se utiliza cuando no se dan las condiciones idóneas para
poder aplicar la prueba T de Student). Permite contrastar la hipótesis sobre el centro de
la distribución de una variable cualitativa sin necesidad de asumir normalidad.
El procedimiento es el siguiente:

1) Establecer las hipótesis de partida:

H0: 𝑀𝑑𝑛 = 𝑀𝑑𝑛0


- Contraste bilateral:
H1: 𝑀𝑑𝑛 ≠ 𝑀𝑑𝑛0

H0: 𝑀𝑑𝑛 = 𝑀𝑑𝑛0


- Contraste unilateral derecho:
H1: 𝑀𝑑𝑛 > 𝑀𝑑𝑛0

H0: 𝑀𝑑𝑛 = 𝑀𝑑𝑛0


- Contraste unilateral izquierdo:
H1: 𝑀𝑑𝑛 < 𝑀𝑑𝑛0

2) Fijar el nivel de significación α.

3) Comprobar que se cumplen los siguientes supuestos:

- La variable Y (medida con una escala de intervalos o de razón) tiene una


distribución simétrica.
- Un m.a.s. de tamaño n.

4) Calcular el estadístico de contraste:

𝑆+ = ∑ 𝑅𝑖(+)

Para calcular el estadístico:

1. Se compara cada valor con la Mdn y se calcula el valor absoluto de la diferencia


(se desechan las diferencias nulas, si existen):
𝐷𝑖 = 𝑌𝑖 − 𝑀𝑑𝑛0 , |𝐷𝑖 |
2. Se asignan rangos a dichas diferencias en valor absoluto, ordenando de menor a
mayor y promediando los empates (se promedian sumando los valores de los
rangos y dividiendo entre número de rangos promediados).
3. Se suman los rangos de las diferencias positivas.
4. Se calcula la distribución muestral exacta de S+

Si 𝑀𝑑𝑛0 es el verdadero valor de la mediana en la población, habrá tanto valores de Y


por debajo de 𝑀𝑑𝑛0 como por encima, o lo que es lo mismo, habrá tantas diferencias 𝐷𝑖
positivas como negativas. Si además la distribución de Y es simétrica, el tamaño de las
diferencias correspondientes a los valores Y > 𝑀𝑑𝑛0 será, en la población, idéntico al
de las diferencias correspondientes a los valores Y < 𝑀𝑑𝑛0 :

𝑆+ = ∑ 𝑅𝑖(+) ≈ 𝑆− = ∑ 𝑅𝑖(−)
Una fuerte discrepancia entre los valores muestrales de 𝑆+ y 𝑆− estaría indicando que
𝑀𝑑𝑛0 no es el verdadero valor de la mediana poblacional. Para que esto sea posible, es
necesario conocer la distribución muestral de 𝑆+ .

5) Zonas críticas:

- Contraste bilateral: 𝑆+ < 𝑠𝛼⁄2 y 𝑆+ > 𝑠1−𝛼⁄2 .


- Contraste unilateral derecho: 𝑆+ > 𝑠1−𝛼 .
- Contraste unilateral izquierdo: 𝑆+ < 𝑠𝛼 .

Se rechaza H0 si S+ cae en la zona crítica.

CONTRASTE SOBRE LA VARIANZA

Puede ocurrir que el centro de la distribución no siempre esté informando sobre cambios
que se producen en un conjunto de datos, que sí se pueden detectar analizando la
dispersión. Para realizar este tipo de contrastes, se puede emplear la varianza, que
informa sobre el grado de dispersión y tiene distribución muestral conocida.

El procedimiento es el siguiente:

1) Establecer las hipótesis de partida:

H0: 𝜎 2 = 𝜎02
- Contraste bilateral:
H1: 𝜎 2 ≠ 𝜎02

H0: 𝜎 2 = 𝜎02
- Contraste unilateral derecho:
H1: 𝜎 2 > 𝜎02

H0: 𝜎 2 = 𝜎02
- Contraste unilateral izquierdo:
H1: 𝜎 2 < 𝜎02
2) Fijar el nivel de significación α.

3) Comprobar que se cumplen los siguientes supuestos:

- La variable Y tiene una distribución Normal en la población de las que ha sido


extraída la muestra.
- Un m.a.s. de tamaño n.

4) Calcular el estadístico de contraste:

5) Tomar una decisión a partir del EC obtenido y de la región crítica establecida:


- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región
crítica.
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región
de aceptación.

7) Calcular el intervalo de confianza (IC):

𝑆2
𝐿𝑖 = (𝑛 − 1) 𝑌⁄ 2
𝜒𝑛−1;1−𝛼⁄2

𝑆2
𝐿𝑆 = (𝑛 − 1) 𝑌⁄ 2
𝜒𝑛−1;𝛼⁄2

CONTRASTE SOBRE LA FORMA DE LA DISTRIBUCIÓN

Para realizar este contraste se utiliza la prueba de Kolmogorov-Smirnov. Sirve para


contrastar la bondad de ajuste de una variable cuantitativa, y se basa en la comparación
de dos funciones de distribución: función empírica (estimada a partir de los datos
(𝐹(𝑌𝑖 ) = 𝑖 ⁄𝑛)) y función teórica (depende de la distribución concreta propuesta en la
hipótesis nula).El procedimiento es el siguiente:

1) Establecer las hipótesis de partida:

H0 = F(x) sigue una distribución determinada en la población (ej: Normal)

H1 = F(x) no sigue una distribución determinada en la población (ej: Normal)

H0: 𝐹(𝑥) = 𝐹0 (𝑥)


H1: 𝐹(𝑥) ≠ 𝐹0 (𝑥)
2) Fijar el nivel de significación α.

3) Comprobar que se cumplen el siguiente supuesto:

- Un m.a.s. de tamaño n.

4) Calcular el estadístico de contraste:

𝑚á𝑥|𝐷𝑖 | = diferencia máxima


5) Tomar una decisión a partir del EC obtenido y de la región crítica establecida (es un
contraste unilateral derecho, por el estadístico de contraste |𝐷𝑖 |):

- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región


crítica y afirmamos que la variable no sigue la distribución propuesta en la
hipótesis nula.
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región
de aceptación y mantenemos que la variable sigue la distribución propuesta en la
hipótesis nula.

6) Calcular el nivel crítico (p) del estadístico de contraste:

También se puede utilizar la prueba de Shapiro-Wilk. Si existe discrepancia entre


Shapiro-Wilk y Kolmogorov-Smirnov, se debe confiar más en Shapiro-Wilk (depende
menos del tamaño muestral que Kolmogorov-Smirnov).
TEST DE RACHAS

El test de rachas permite comprobar la independencia de las observaciones dentro de


una muestra (es un test de la aleatoriedad de las observaciones). El concepto de racha se
refiere a una secuencia de observaciones de un mismo tipo (por ejemplo, en CCCXXX
hay dos rachas). La lógica es que si se obtienen secuencias con muy pocas o demasiadas
rachas, la secuencia obtenida no parece aleatoria, así pues, la prueba determina si el
número de rachas permite decir si las observaciones son independientes.

NO DEBE CONFUNDIRSE CON LA HIPÓTESIS DE BONDAD DE AJUSTE O CON LA


PRUEBA BINOMIAL.

El procedimiento es el siguiente:

1) Establecer las hipótesis de partida:

H0: Las observaciones son independientes entre sí.

H1: Las observaciones no son independientes entre sí.

2) Fijar el nivel de significación α.

3) Calcular el estadístico de contraste. Para ello:

- Se dividen las observaciones en dos categorías (exhaustivas y mutuamente


exclusivas) (por ejemplo, por encima y por debajo de la mediana).
- Se contabiliza en número de rachas en las que hay observaciones de una única
categoría. R = rachas
N = ensayos
N1 = ensayos por debajo Mdn
N2 = ensayos por encima Mdn
E(R) = rachas esperadas
σR = dt de las rachas esperadas
Si n < 50 se utiliza la corrección por continuidad.

Si p > 0,05, no hay razón para pensar que las pruebas no son independientes.

RESUMEN:

Contraste de
Tipo de Variables
hipótesis Prueba Condiciones
Prueba binomial
Dicotómica Sobre una proporción Crear intervalos de confianza
sobre el parámetro π1
Cómo se distribuyen
Cualitativa Prueba X^2 de Pearson Valora variables
las frecuencias
discretas o categóricas
asociadas a cada
Politómica Contruir intervalos de
categoria de la
confianza sobre la
variable -- Bondad de
proporción teórica de cada
ajuste
categoría
Independencia de las
observaciones y
normalidad de la
Sobre el valor de la población muestreada
Cuantitativa
media poblacional T de student (muestras mayores)
Contruir intervalos de
confianza sobre el parámetro
μ1

Describir Variables Cuantitativas


Propiedades de la
distribución Estudio Aplicación Usos Asume

Permite contrastar hipótesis sobre


Cuando no se dan las el centro de una variable Simetría
Prueba de condiciones para aplicar cuantitativa sin necesidad de
Centro Wilcoxon una T de student. Sirve asumir normalidad (mediana)
para contrastar el centro Solo exige nivel de
de una distribución Permite contrastar hipótesis sobre medida ordinal (la
Prueba de el centro de una distribución mediana es un
los signos (sobre la mediana) estadístico ordinal)
Informa sobre el grado
Muestra aleatoria de
Contraste de dispersión y además
Dispersión tamaño n extraída de una
sobre una posee una distribución
población normal
varianza muestral conocida
Comprobar la hipótesis
sobre la bondad de Sirve para valorar variables
Muestra aleatoria de
ajuste en variables continuas. Se usa para contrastar
Forma tamaño n de una variable
Prueba de cuanitativas (similar a la hipótesis de bondad de ajuste
cuantitativa Y
Kolmogorov- ji de Pearson para para variables cuantitativas.
Smirnov cualitativas) Estudio de normalidad (Q-Q).

Das könnte Ihnen auch gefallen