Beruflich Dokumente
Kultur Dokumente
Mtodos no paramtricos
Los mtodos presentados en los captulos anteriores, se basaban en el conocimiento de las distribuciones
muestrales de las diferencias de porcentajes o promedios, cuando las muestras provenan de una misma
poblacin. Se aceptaba entonces usar la aproximacin normal, la distribucin de t de Student o la
distribucin F de Fisher en el anlisis de varianza, bajo el supuesto de que la hiptesis nula es cierta. Dado
que en esos mtodos se estiman los parmetros de las poblaciones de origen, esas tcnicas estadsticas
reciben el nombre de paramtricas.
Hay situaciones en que, por el escaso nmero de observaciones, o por el nivel de medicin de las
variables, no es correcto o no es posible hacer supuestos sobre las distribuciones muestrales subyacentes.
En tales casos se usan los mtodos no paramtricos o de distribucin libre.
Aqu presentaremos algunos ejemplos de pruebas no paramtricas para el caso de dos muestras
independientes, para el caso de dos muestras dependientes o pareadas y para la comparacin de ms de dos
grupos en que no son aplicables los mtodos paramtricos.
Las pruebas paramtricas, asumen como distribucin muestral la distribucin Normal, este supuesto no
siempre se cumple, sin embargo recurrimos a que estos mtodos paramtricos son robustos. Adems
estos mtodos son preferidos porque tienen mayor potencia.
Pero qu hacemos cuando no se cumple la normalidad o tenemos muy pocos datos?
Opciones:
1.
2.
3.
Tambin existen mtodos paramtricos que asumen otras distribuciones, por ejemplo para
el tiempo que demora en fallar un producto se usa una distribucin de Weibull (ver
diagrama adjunto).
4.
Test Paramtrico
Test no paramtrico
Una muestra
Test t simple
Muestras pareadas
Test t simple
Ms de dos muestras
independientes
ANOVA de un factor
Test de Kruskal-Wallis
Ji cuadrado de Friedman
Existen dos grandes tipos de test no paramtricos, los que usan cuentas o nmeros y los que usan
rangos. En este captulo revisaremos del test de suma de rangos de Wilcoxon y el Test de KruskalWallis.
Se define poder o potencia del test como la capacidad del test para detectar hiptesis nulas falsas. Potencia = 1-
3
Hiptesis
En este problema la hiptesis nula es que la maleza no afecta la produccin de maz. La hiptesis
alternativa es que la produccin es menor cuando hay maleza. Si estamos dispuestos a asumir que la
produccin de maz es Normal, o si tenemos un tamao muestral razonablemente grande, usamos el
test t para medias independientes. Las hiptesis son:
H 0 : 1 = 2
H1 : 1 > 2
Cuando la distribucin no es Normal, podemos re-escribir las hiptesis en trminos de medianas:
H 0 : mediana1 = mediana2
H1 : mediana1 > mediana2
Qu tipo de test (paramtrico o no paramtrico) ser el adecuado en este caso?
Hacemos la prueba de normalidad:
Pruebas de normalidad
a
YIELD
WEEDS
0
3
Kolmogorov-Smirnov
Estadstico
gl
Sig.
.241
4
.341
4
Shapiro-Wilk
Estadstico
gl
.938
4
.819
4
.
.
Sig.
.640
.140
Para WEEDS= 3
1.0
.5
.5
0.0
0.0
Normal esperado
Normal esperado
Para WEEDS= 0
1.0
-.5
-1.0
164
166
168
Valor observado
170
172
174
176
178
-.5
-1.0
150
160
170
180
Valor observado
Tenemos muy pocos datos por lo tanto ser adecuado hacer un test no paramtrico.
Pasar de los datos a sus rangos, es equivalente a transformar los datos. Los rangos retienen solamente el
orden de las observaciones y no el valor numrico.
Si la presencia de maleza afecta la produccin de maz esperamos que los rangos ms pequeos sean de
ese grupo. Podemos comparar la suma de los rangos de los dos tratamientos:
Tratamiento Suma de rangos
Sin maleza
23
Con maleza
13
n(n +1) 89
=
= 36, donde n es el nmero total de
2
2
observaciones.
Por lo tanto podemos calcular la suma en uno de los grupos y el otro tiene que ser la diferencia (3623=13)
Si no hay diferencia entre los tratamientos esperamos que los rangos sean la mitad en cada grupo, es
decir 18.
Test de suma de rangos de Wilcoxon
Se tiene una m.a.s de tamao n1 de una poblacin, y una segunda m.a.s de tamao n2 de otra poblacin.
Hay n observaciones en total, donde n = n1 + n2. Se calcula el rango de las n observaciones. El test
estadstico ser la suma W de los rangos del grupo con menor suma de rangos, este ser el estadstico
de suma de rangos de Wilcoxon. Si las dos poblaciones tienen la misma distribucin continua,
entonces W tiene media:
W =
n1 (n + 1)
n n (n +1)
y desviacin estndar: W = 1 2
2
12
Donde n1 ser el tamao muestral del grupo con menor suma de rangos.
El test de suma de rangos de Wilcoxon rechaza la hiptesis nula de que las dos poblaciones tienen la
misma distribucin cuando la suma de rangos W est lejos de su media.
Este test fue creado por el qumico Frank Wilcoxon (1892-1965) en 1945.
6
4(8 +1)
4 4(8 + 1)
= 18 y desviacin estndar: W =
= 3,4641
12
2
U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintt. (bilateral)
Sig. exacta [2*(Sig.
unilateral)]
Sig. exacta (bilateral)
Sig. exacta (unilateral)
Probabilidad en el punto
.200
.200
.100
.043
La salida de SPSS nos da el valor p exacto para la distribucin muestral de W. El valor p para la
hiptesis unilateral es 0,1 (valor p exacto segn SPSS).
Si comparamos con el equivalente test paramtrico t = - 1,554, valor p=0,171/2=0,0855, llegamos a la
conclusin similar (recuerde que las hiptesis son distintas).
Prueba de muestras independientes
Prueba de Levene
para la igualdad de
varianzas
F
YIELD
Se han asumido
varianzas iguales
No se han asumido
varianzas iguales
1.256
Sig.
.305
gl
Sig. (bilateral)
Diferencia
de medias
Error tp. de
la diferencia
95% Intervalo de
confianza para la
diferencia
Inferior
Superior
-1.554
.171
-9.175
5.9056
-23.6254
5.2754
-1.554
4.495
.187
-9.175
5.9056
-24.8832
6.5332
La aproximacin Normal
El estadstico de suma de rangos W se aproxima a la distribucin Normal cuando n es grande. Entonces
podemos formar un test z para estandarizar a W:
z=
W W
z=
13 18
= 1,44
3,4641
Esperamos rechazar para valores grandes de W si la hiptesis alternativa es verdadera, por lo que el
valor p aproximado es:
Rangos
Absorcin
Tipo de aceite
Animal
Vegetal
Total
N
12
12
24
Rango
promedio
15.29
9.71
Suma de
rangos
183.50
116.50
U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintt. (bilateral)
Sig. exacta [2*(Sig.
unilateral)]
Absorcin
38.500
116.500
-1.936
.053
a
.052
Empates
La distribucin exacta de test de Wilcoxon para suma de rangos se obtiene asumiendo que todas las
observaciones tienen diferentes valores y por lo tanto su rango. En la prctica ocurre que muchas veces
tenemos valores iguales. Lo que hacemos es asignar el valor promedio del rango que ocupan.
Ejemplo:
Observacin 153 155 158 158 161 164
6
1
2 3,5 3,5 5
Rango
La distribucin exacta del test de Wilcoxon se aplica a datos sin empates, por lo que deberemos ajustar
la desviacin estndar en la presencia de empates.
Comida
La comida que se vende en eventos al aire libre puede ser menos segura que la de restoranes porque se
prepara en lugares no acondicionados y a menudo por voluntarios. Qu pensar la gente acerca de la
seguridad de la comida en ferias? Un estudio pregunt a asistentes a este tipo de eventos:
Qu tan a menudo piensa usted que se enferma la gente que consume comida en eventos al aire libre?
Las respuestas posibles eran:
1 = raramente
2 = de vez en cuando
3 = a menudo
4 = muy frecuentemente
5 = siempre
En total 303 personas respondieron a la pregunta. De estos 196 eran mujeres y 107 hombres.
Existe evidencia que hombres y mujeres difieren en su percepcin acerca de la seguridad en la comida
de ferias al aire libre?
Tabla de contingencia Sexo * Respuesta
Recuento
1
Sexo
F
M
Total
2
13
22
35
108
57
165
Respuesta
3
50
22
72
5
23
5
28
2
1
3
Total
196
107
303
Sexo
Total
F
M
1
6.6%
20.6%
11.6%
2
55.1%
53.3%
54.5%
Respuesta
3
25.5%
20.6%
23.8%
4
11.7%
4.7%
9.2%
5
1.0%
.9%
1.0%
Total
100.0%
100.0%
100.0%
Respuesta
Sexo
F
M
Total
N
196
107
303
Rango
promedio
163.25
131.40
Suma de
rangos
31996.50
14059.50
Estadsticos de contrastea
Respuesta
8281.500
14059.500
-3.334
.001
.001
.000
.000
U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintt. (bilateral)
Sig. exacta (bilateral)
Sig. exacta (unilateral)
Probabilidad en el punto
Tenemos suficiente evidencia para concluir que existen diferencias significativas entre la percepcin
acerca de la seguridad de la comida al aire libre entre hombres y mujeres.
Como el tamao de la muestra es grande podramos haber usado el test paramtrico:
Prueba de muestras independientes
Prueba de Levene
para la igualdad de
varianzas
F
Respuesta
Se han asumido
varianzas iguales
No se han asumido
varianzas iguales
3.031
Sig.
.083
gl
Sig. (bilateral)
Diferencia
de medias
Error tp. de
la diferencia
3.361
301
.001
.33
.099
3.365
218.856
.001
.33
.099
Pero en este caso, tenemos argumentos a favor del test no paramtrico. El test paramtrico asume que
las respuestas tienen valor numrico y en realidad en una escala cualitativa. Usar rangos es ms
apropiado en este caso.
10
n
4
4
4
4
.5
.5
0.0
0.0
Normal esperado
Normal esperado
Para WEEDS= 0
1.0
-.5
-1.0
164
166
168
170
172
174
176
178
-.5
-1.0
156
160
162
164
Valor observado
Valor observado
Para WEEDS= 3
1.0
.5
.5
0.0
0.0
-.5
-1.0
150
Valor observado
160
166
168
Para WEEDS= 9
1.0
Normal esperado
Normal esperado
158
170
180
-.5
-1.0
140
150
160
170
Valor observado
Ya analizamos que en este caso es difcil probar normalidad con tan pocos datos, por lo tanto ser
conveniente usar un mtodo no paramtrico.
11
Hiptesis y supuestos
El test F de ANOVA responde a la hiptesis:
H 0 : 1 = 2 = ... = k
H1 : al menos dos medias no son iguales.
Los datos deben provenir de k poblaciones independientes, con distribucin normal y con la misma
desviacin estndar.
El test de Kruskal_Wallis es un test de rangos que reemplaza al test F de ANOVA. El supuesto acerca
de la independencia de las poblaciones sigue siendo importante, pero ya no necesitamos normalidad.
Asumiremos que la respuesta tiene una distribucin continua en cada poblacin.
H0: las k distribuciones son iguales
H1: una de ellas tiene valores sistemticamente mayores
Si todas las distribuciones tienen la misma distribucin, esta hiptesis la podemos simplificar.
H0: las k poblaciones tienen la misma mediana
H1: no todas las medianas son iguales
Recordemos la idea del ANOVA: tenemos una variacin total observada de la respuesta como la suma
de dos partes, una que mide la variacin entre los grupos o tratamientos (suma de cuadrados entre
tratamientos, SCE) y la otra que mide la variacin entre las mediciones de un mismo tratamiento (suma
de cuadrados dentro de los tratamientos, SCD). El test F de ANOVA rechaza la hiptesis nula de que
las medias son iguales si la SCE es grande relativa a la SCD.
La idea del test de Kruskal-Wallis es calcular los rangos de todas las respuestas y luego aplicar el
ANOVA a los rangos en vez de las observaciones originales.
Test de Kruskal-Wallis
Se tienen k muestras aleatorias de tamaos n1, n2,...,nk. Hay n observaciones en total, donde n es la
suma de los ni. Se calcula el rango de las n observaciones y sea Ri la suma de los rangos en el i-esima
muestra o grupo. El estadstico de Kruskal-Wallis es:
k
Ri2
12
H=
3(n + 1)
n(n + 1) i =1 ni
Cuando los tamaos ni son grandes y las k poblaciones tienen la misma distribucin, H tiene
aproximadamente una distribucin de Ji-cuadrado con (k-1) grados de libertad.
El test de Kruskal-Wallis rechaza la hiptesis nula de que todas las poblaciones tienen la misma
distribucin cuando H es grande.
12
Vemos que as como el test de suma de rangos de Wilcoxon, el test de Kruskal-Wallis est basado en
suma de rangos, mientras mayor sea la diferencia entre los rangos de los grupos mayor evidencia de
que las respuestas son diferentes.
La distribucin exacta del estadstico H de Kruskal-Wallis bajo la hiptesis nula depende de los
tamaos muestrales n1, n2,...,nk, por lo tanto las tablas son terribles. El clculo de la distribucin exacta
es tan complicado que los softwares generalmente usan la aproximacin de 2 para obtener el valor p.
Veamos lo rangos para el problema de las malezas.
Como antes, tambin tenemos que corregir cuando existen empates.
Revisemos los datos de las malezas:
Malezas por metro
0
1
3
9
166,7
166,2
158,6
162,8
Produccin
172,2 165,0
157,3 166,7
176,4 153,1
142,4 162,7
176,9
161,1
156,0
162,4
Tenemos que calcular los rangos de todos los datos ordenados. Luego calcular H. En SPSS podemos
calcular los rangos con: Transformar, Asignar rangos a casos
2
Ri
Grupos Suma de Rangos
0
52,5
2756,25
1
33,5
1122,25
3
25,0
625,0
9
25,0
625,0
Total
136
H=
16(17)
4
4
4
4
H=
12
(1282,125) 51 = 5,56
272
Estadsticos de contrastea,b
Rangos
Produccin
Maleza x mt2
0
1
3
9
Total
N
4
4
4
4
16
Rango
promedio
13.13
8.38
6.25
6.25
Chi-cuadrado
gl
Sig. asintt.
Sig. exacta
Probabilidad en el punto
Produccin
5.573
3
.134
.130
.000
a. Prueba de Kruskal-Wallis
b. Variable de agrupacin: Maleza x mt2
13
La diferencia con el clculo de SPSS se debe a la correccin por empates. Esta correccin hace que la
aproximacin de Ji cuadrado sea ms precisa. Es importante hacerla si hay muchos empates.
Podemos comparar este test no paramtrico con su equivalente paramtrico:
ANOVA
Produccin
Inter-grupos
Intra-grupos
Total
Suma de
cuadrados
340.667
785.543
1126.209
gl
3
12
15
Media
cuadrtica
113.556
65.462
F
1.735
Sig.
.213
Vemos que llegamos a la misma conclusin, es decir que las malezas no afectan significativamente la
produccin de maz.
Ustedes qu creen?
14
Vienesas
Se tienen datos del contenido en caloras y sodio de 3 tipos de vienesas: cerdo, mixtas, y de ave.
220
200
180
160
140
CALORIAS
120
100
80
60
N=
20
17
17
carne
mixto
ave
TIPOS
Descriptivos
CALORIAS
N
carne
mixto
ave
Total
20
17
17
54
Media
155.80
158.71
122.47
146.22
Desviacin
tpica
25.220
25.236
25.483
29.696
Error tpico
5.639
6.121
6.181
4.041
Mnimo
90
107
86
86
Mximo
190
195
170
195
gl1
gl2
2
51
Sig.
.741
ANOVA
CALORIAS
Inter-grupos
Intra-grupos
Total
Suma de
cuadrados
14074.369
32664.965
46739.333
gl
2
51
53
Media
cuadrtica
7037.184
640.490
F
10.987
Sig.
.000
15
CALORIAS
a,b
HSD de Tukey
TIPOS
ave
carne
mixto
Sig.
N
17
20
17
Rangos
CALORIAS
TIPOS
carne
mixto
ave
Total
Rango
promedio
32.83
33.53
15.21
N
20
17
17
54
Chi-cuadrado
gl
Sig. asintt.
CALORIAS
15.179
2
.001
a. Prueba de Kruskal-Wallis
b. Variable de agrupacin: TIPOS
HSD de Tukey
TIPOS
ave
carne
mixto
Sig.
N
17
20
17
16
Lo que hicimos fue calcular los rangos de la variable respuesta (caloras) y luego analizamos
paramtricamente la nueva variable. Esta propuesta no es absolutamente convencional y fue publicada
por:
Conover, W. Iman, R. (1981) Rank transformation as a bridge between parametric and non parametric
studies. The American Statistician, 35: 124-133.
Fisher, L. Van Belle, G. En Biostatistics, Wiley (1993 ) proponen rutinariamente hacer tanto el anlisis
paramtrico como su equivalente no paramtrico (cuando existe) y si las conclusiones son divergentes
investigar el motivo.
Revisemos el ejemplo de los tomates
Prueba de Kruskal-Wallis
Rangos
Fertilizantes
A
B
C
Total
N
5
5
5
15
Rango
promedio
4.10
13.00
6.90
Estadsticos de contrastea,b
Chi-cuadrado
gl
Sig. asintt.
Sig. exacta
Probabilidad en el punto
Altura de las
plantas (cm)
10.448
2
.005
.000
.000
a. Prueba de Kruskal-Wallis
b. Variable de agrupacin: Fertilizantes
17
Rank of altura
a
HSD de Tukey
Fertilizantes
A
C
B
Sig.
N
5
5
5
HSD de Tukey
Fertilizantes
A
C
B
Sig.
N
5
5
5
18
6 (R( X i ) R(Yi ) )
rs = 1
n3 n
Donde: R( X i ) es el rango del i-simo dato X y R (Yi ) es el rango del i-simo dato Y.
Se puede mostrar que si los datos no tienen empates, la r de Pearson se reduce algebraicamente a la
ecuacin anterior.
Ejemplo: Suponga que una gran corporacin est interesada en calificar a un grupo de 12 aspirantes a
gerentes segn su capacidad de liderazgo. Se contrata a dos psiclogos para realizar el trabajo. Como
resultado de sus exmenes y entrevistas, cada uno de los psiclogos, de manera independiente, han
clasificado a los aspirantes segn su capacidad de liderazgo. Los rangos van de 1 a 12, donde 1
representa el nivel mximo de liderazgo. Los datos aparecen en la tabla. Cul es la correlacin entre
las clasificaciones de los dos psiclogos?
Orden de
Orden de
Sujeto Psiclogo 1 Psiclogo 2 Diferencias
1
6
5
1
2
5
3
2
3
7
4
3
4
10
8
2
5
2
1
1
6
3
6
-3
7
9
10
-1
8
1
2
-1
9
11
9
2
10
4
7
-3
11
8
11
-3
12
12
12
0
rs = 1
(R( X i ) R(Yi ) )2
1
4
9
4
1
9
1
1
4
9
9
0
52
6 52
= 1 0,182 = 0,818
123 12
Spearman, C. (1904) "The proof and measurement of association between two things", American Journal of Psychology,
15: 72-101.
19
PSI1
PSI2
Coeficiente de
correlacin
Sig. (bilateral)
N
Coeficiente de
correlacin
Sig. (bilateral)
N
PSI2
1.000
.818**
.
12
.001
12
.818**
1.000
.001
12
.
12
Correlaciones
PSI1
PSI1
PSI2
Correlacin de Pearson
Sig. (bilateral)
N
Correlacin de Pearson
Sig. (bilateral)
N
1
.
12
.818**
.001
12
PSI2
.818**
.001
12
1
.
12
12
10
PSI1
0
0
10
12
14
PSI2
En este caso los dos coeficientes de correlacin son iguales, pero tenemos argumentos a favor de usar
un mtodo no paramtrico.
20