Sie sind auf Seite 1von 20

Captulo 12.

Mtodos no paramtricos
Los mtodos presentados en los captulos anteriores, se basaban en el conocimiento de las distribuciones
muestrales de las diferencias de porcentajes o promedios, cuando las muestras provenan de una misma
poblacin. Se aceptaba entonces usar la aproximacin normal, la distribucin de t de Student o la
distribucin F de Fisher en el anlisis de varianza, bajo el supuesto de que la hiptesis nula es cierta. Dado
que en esos mtodos se estiman los parmetros de las poblaciones de origen, esas tcnicas estadsticas
reciben el nombre de paramtricas.
Hay situaciones en que, por el escaso nmero de observaciones, o por el nivel de medicin de las
variables, no es correcto o no es posible hacer supuestos sobre las distribuciones muestrales subyacentes.
En tales casos se usan los mtodos no paramtricos o de distribucin libre.
Aqu presentaremos algunos ejemplos de pruebas no paramtricas para el caso de dos muestras
independientes, para el caso de dos muestras dependientes o pareadas y para la comparacin de ms de dos
grupos en que no son aplicables los mtodos paramtricos.
Las pruebas paramtricas, asumen como distribucin muestral la distribucin Normal, este supuesto no
siempre se cumple, sin embargo recurrimos a que estos mtodos paramtricos son robustos. Adems
estos mtodos son preferidos porque tienen mayor potencia.
Pero qu hacemos cuando no se cumple la normalidad o tenemos muy pocos datos?
Opciones:
1.

Si hay valores extremos y el tamao muestral es pequeo cualquier mtodo de inferencia es


dudoso.

2.

A veces podemos transformar los datos (log es la transformacin ms usada)

3.

Tambin existen mtodos paramtricos que asumen otras distribuciones, por ejemplo para
el tiempo que demora en fallar un producto se usa una distribucin de Weibull (ver
diagrama adjunto).

4.

Finalmente, existen los mtodos que no asumen una distribucin, llamados no


paramtricos.

Los mtodos no paramtricos son la manera ms directa de solucionar el problema de falta de


normalidad. Estos mtodos son muy simples de usar y estn disponibles en SPSS. Pero tienen dos
desventajas. Primero que tienen menos poder1 que las equivalentes soluciones paramtricas. Tambin
es importante distinguir que las pruebas de hiptesis no paramtricas NO contestan a la misma
pregunta que las pruebas paramtricas. Por ejemplo si queremos hacer un test para docimar sobre el
centro de la distribucin, el test no paramtrico establece la hiptesis en trminos de la mediana y el
test paramtrico usa la media.
Anlisis

Test Paramtrico

Test no paramtrico

Una muestra

Test t simple

Test del signo de rangos de


Wilcoxon

Muestras pareadas

Test t simple

Test del signo de rangos de


Wilcoxon

Dos muestras independientes

Test t para muestras


independientes

Test de suma de rangos de


Wilcoxon

Ms de dos muestras
independientes

ANOVA de un factor

Test de Kruskal-Wallis

Diseo en bloques aleatorios

ANOVA con bloques

Ji cuadrado de Friedman

Existen dos grandes tipos de test no paramtricos, los que usan cuentas o nmeros y los que usan
rangos. En este captulo revisaremos del test de suma de rangos de Wilcoxon y el Test de KruskalWallis.

Se define poder o potencia del test como la capacidad del test para detectar hiptesis nulas falsas. Potencia = 1-
3

Solucin no paramtrica a la comparacin de dos muestras independientes Test de suma de


rangos de Wilcoxon
Ejemplo: Se tienen dos parcelas experimentales. En una de las parcelas se sac completamente la
maleza y en la otra se dej hasta 3 malezas por metro cuadrado. Daar la presencia de maleza la
produccin de maz?
Malezas
por metro cuadrado
Produccin de maz
0
166,7 172,2 165,0 176,9
3
158,6 176,4 153,1 156,0

Hiptesis
En este problema la hiptesis nula es que la maleza no afecta la produccin de maz. La hiptesis
alternativa es que la produccin es menor cuando hay maleza. Si estamos dispuestos a asumir que la
produccin de maz es Normal, o si tenemos un tamao muestral razonablemente grande, usamos el
test t para medias independientes. Las hiptesis son:

H 0 : 1 = 2
H1 : 1 > 2
Cuando la distribucin no es Normal, podemos re-escribir las hiptesis en trminos de medianas:

H 0 : mediana1 = mediana2
H1 : mediana1 > mediana2
Qu tipo de test (paramtrico o no paramtrico) ser el adecuado en este caso?
Hacemos la prueba de normalidad:

Pruebas de normalidad
a

YIELD

WEEDS
0
3

Kolmogorov-Smirnov
Estadstico
gl
Sig.
.241
4
.341
4

Shapiro-Wilk
Estadstico
gl
.938
4
.819
4

.
.

Sig.
.640
.140

a. Correccin de la significacin de Lilliefors

Grfico Q-Q normal de YIELD

Grfico Q-Q normal de YIELD

Para WEEDS= 3
1.0

.5

.5

0.0

0.0

Normal esperado

Normal esperado

Para WEEDS= 0
1.0

-.5

-1.0
164

166

168

Valor observado

170

172

174

176

178

-.5

-1.0
150

160

170

180

Valor observado

Tenemos muy pocos datos por lo tanto ser adecuado hacer un test no paramtrico.

Test de suma de rangos de Wilcoxon2


Este es un test de rangos. El primer paso ser calcular los rangos de las observaciones.
Transformacin a rangos
Ordenamos los datos de menor a mayor:
Produccin 153,1 156,0 158,6 165,0 166,7 172,2 176,4 176,9
Rango
1
2
3
7
4
5
6
8

Pasar de los datos a sus rangos, es equivalente a transformar los datos. Los rangos retienen solamente el
orden de las observaciones y no el valor numrico.
Si la presencia de maleza afecta la produccin de maz esperamos que los rangos ms pequeos sean de
ese grupo. Podemos comparar la suma de los rangos de los dos tratamientos:
Tratamiento Suma de rangos
Sin maleza
23
Con maleza
13

Por definicin la suma de rangos de 1 a 8 es:

n(n +1) 89
=
= 36, donde n es el nmero total de
2
2

observaciones.
Por lo tanto podemos calcular la suma en uno de los grupos y el otro tiene que ser la diferencia (3623=13)
Si no hay diferencia entre los tratamientos esperamos que los rangos sean la mitad en cada grupo, es
decir 18.
Test de suma de rangos de Wilcoxon
Se tiene una m.a.s de tamao n1 de una poblacin, y una segunda m.a.s de tamao n2 de otra poblacin.
Hay n observaciones en total, donde n = n1 + n2. Se calcula el rango de las n observaciones. El test
estadstico ser la suma W de los rangos del grupo con menor suma de rangos, este ser el estadstico
de suma de rangos de Wilcoxon. Si las dos poblaciones tienen la misma distribucin continua,
entonces W tiene media:

W =

n1 (n + 1)
n n (n +1)
y desviacin estndar: W = 1 2
2
12

Donde n1 ser el tamao muestral del grupo con menor suma de rangos.
El test de suma de rangos de Wilcoxon rechaza la hiptesis nula de que las dos poblaciones tienen la
misma distribucin cuando la suma de rangos W est lejos de su media.

Este test fue creado por el qumico Frank Wilcoxon (1892-1965) en 1945.
6

En el ejemplo del maz queremos docimar:


H0: no hay diferencias en la distribucin de la produccin de maz en los dos grupos
H1: la produccin es mayor en el tratamiento sin malezas
Nuestro test estadstico W=13
Bajo Ho W tiene media: W =

4(8 +1)
4 4(8 + 1)
= 18 y desviacin estndar: W =
= 3,4641
12
2

Valor p = P(W 13 | H 0 ) Necesitamos conocer la distribucin muestral de W bajo la hiptesis nula.


Existen tablas que dependen de n1 + n2.
Veamos la salida qu nos da SPSS:
Estadsticos de contrasteb
YIELD
3.000
13.000
-1.443
.149

U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintt. (bilateral)
Sig. exacta [2*(Sig.
unilateral)]
Sig. exacta (bilateral)
Sig. exacta (unilateral)
Probabilidad en el punto

.200
.200
.100
.043

a. No corregidos para los empates.


b. Variable de agrupacin: WEEDS

La salida de SPSS nos da el valor p exacto para la distribucin muestral de W. El valor p para la
hiptesis unilateral es 0,1 (valor p exacto segn SPSS).
Si comparamos con el equivalente test paramtrico t = - 1,554, valor p=0,171/2=0,0855, llegamos a la
conclusin similar (recuerde que las hiptesis son distintas).
Prueba de muestras independientes
Prueba de Levene
para la igualdad de
varianzas

F
YIELD

Se han asumido
varianzas iguales
No se han asumido
varianzas iguales

1.256

Sig.
.305

Prueba T para la igualdad de medias

gl

Sig. (bilateral)

Diferencia
de medias

Error tp. de
la diferencia

95% Intervalo de
confianza para la
diferencia
Inferior
Superior

-1.554

.171

-9.175

5.9056

-23.6254

5.2754

-1.554

4.495

.187

-9.175

5.9056

-24.8832

6.5332

La aproximacin Normal
El estadstico de suma de rangos W se aproxima a la distribucin Normal cuando n es grande. Entonces
podemos formar un test z para estandarizar a W:

z=

W W

El valor de z en el ejemplo del maz nos da:

z=

13 18
= 1,44
3,4641

Esperamos rechazar para valores grandes de W si la hiptesis alternativa es verdadera, por lo que el
valor p aproximado es:

Valor p = P(Z 1,44) = 1 0,9251 = 0,0749


SPSS da el valor p exacto para W y el asinttico o aproximado que utiliza la aproximacin a la Normal.
Adems SPSS nos entrega el estadstico U de Mann-Whitney, este es equivalente al test de suma de
rangos de Wilcoxon.
Revisemos la solucin no paramtrica del ejemplo del Tipo de aceite
Estadsticos de contrasteb

Rangos

Absorcin

Tipo de aceite
Animal
Vegetal
Total

N
12
12
24

Rango
promedio
15.29
9.71

Suma de
rangos
183.50
116.50

U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintt. (bilateral)
Sig. exacta [2*(Sig.
unilateral)]

Absorcin
38.500
116.500
-1.936
.053
a

.052

a. No corregidos para los empates.


b. Variable de agrupacin: Tipo de aceite

Empates
La distribucin exacta de test de Wilcoxon para suma de rangos se obtiene asumiendo que todas las
observaciones tienen diferentes valores y por lo tanto su rango. En la prctica ocurre que muchas veces
tenemos valores iguales. Lo que hacemos es asignar el valor promedio del rango que ocupan.
Ejemplo:
Observacin 153 155 158 158 161 164
6
1
2 3,5 3,5 5
Rango

La distribucin exacta del test de Wilcoxon se aplica a datos sin empates, por lo que deberemos ajustar
la desviacin estndar en la presencia de empates.

Comida
La comida que se vende en eventos al aire libre puede ser menos segura que la de restoranes porque se
prepara en lugares no acondicionados y a menudo por voluntarios. Qu pensar la gente acerca de la
seguridad de la comida en ferias? Un estudio pregunt a asistentes a este tipo de eventos:
Qu tan a menudo piensa usted que se enferma la gente que consume comida en eventos al aire libre?
Las respuestas posibles eran:
1 = raramente
2 = de vez en cuando
3 = a menudo
4 = muy frecuentemente
5 = siempre
En total 303 personas respondieron a la pregunta. De estos 196 eran mujeres y 107 hombres.
Existe evidencia que hombres y mujeres difieren en su percepcin acerca de la seguridad en la comida
de ferias al aire libre?
Tabla de contingencia Sexo * Respuesta
Recuento
1
Sexo

F
M

Total

2
13
22
35

108
57
165

Respuesta
3
50
22
72

5
23
5
28

2
1
3

Total
196
107
303

Comparamos los porcentajes por filas:


Tabla de contingencia Sexo * Respuesta
% de Sexo

Sexo
Total

F
M

1
6.6%
20.6%
11.6%

2
55.1%
53.3%
54.5%

Respuesta
3
25.5%
20.6%
23.8%

4
11.7%
4.7%
9.2%

5
1.0%
.9%
1.0%

Total
100.0%
100.0%
100.0%

Es la diferencia entre sexos significativa?


H0: hombres y mujeres no difieren en sus respuestas
H1: uno de los dos sexos da sistemticamente mayores respuestas que el otro
La hiptesis alternativa es de dos colas.
Como las respuestas posibles son slo 5 hay muchos empates.

Veamos la salida de SPSS:


Rangos

Respuesta

Sexo
F
M
Total

N
196
107
303

Rango
promedio
163.25
131.40

Suma de
rangos
31996.50
14059.50

Estadsticos de contrastea
Respuesta
8281.500
14059.500
-3.334
.001
.001
.000
.000

U de Mann-Whitney
W de Wilcoxon
Z
Sig. asintt. (bilateral)
Sig. exacta (bilateral)
Sig. exacta (unilateral)
Probabilidad en el punto

a. Variable de agrupacin: Sexo

Tenemos suficiente evidencia para concluir que existen diferencias significativas entre la percepcin
acerca de la seguridad de la comida al aire libre entre hombres y mujeres.
Como el tamao de la muestra es grande podramos haber usado el test paramtrico:
Prueba de muestras independientes
Prueba de Levene
para la igualdad de
varianzas

F
Respuesta

Se han asumido
varianzas iguales
No se han asumido
varianzas iguales

3.031

Sig.
.083

Prueba T para la igualdad de medias

gl

Sig. (bilateral)

Diferencia
de medias

Error tp. de
la diferencia

3.361

301

.001

.33

.099

3.365

218.856

.001

.33

.099

Pero en este caso, tenemos argumentos a favor del test no paramtrico. El test paramtrico asume que
las respuestas tienen valor numrico y en realidad en una escala cualitativa. Usar rangos es ms
apropiado en este caso.

10

Solucin no paramtrica a la comparacin de ms de dos muestras independientes - Test de


Kruskal-Wallis
El test de suma de rangos de Wilcoxon sirve para comparar dos tratamientos. Ahora veremos una
alternativa no paramtrica al ANOVA de un factor, es decir, para comparar ms de dos tratamientos,
que corresponde al test de Kruskal-Wallis.
Veamos una nueva versin del problema de las malezas. El investigador en realidad prob 4 tipos
de malezas 0, 1, 3 y 9 por metro cuadrado.
Descripcin de la produccin bajo distintas condiciones de maleza:
Maleza
0
1
3
9

n
4
4
4
4

Media Desviacin estndar


170.200
5.4216
162.825
4.4687
161.025
10.4933
157.575
10.1181

Grfico Q-Q normal de YIELD

Grfico Q-Q normal de YIELD


Para WEEDS= 1
1.0

.5

.5

0.0

0.0

Normal esperado

Normal esperado

Para WEEDS= 0
1.0

-.5

-1.0
164

166

168

170

172

174

176

178

-.5

-1.0
156

160

162

164

Valor observado

Valor observado

Grfico Q-Q normal de YIELD

Grfico Q-Q normal de YIELD

Para WEEDS= 3
1.0

.5

.5

0.0

0.0

-.5

-1.0
150

Valor observado

160

166

168

Para WEEDS= 9

1.0

Normal esperado

Normal esperado

158

170

180

-.5

-1.0
140

150

160

170

Valor observado

Ya analizamos que en este caso es difcil probar normalidad con tan pocos datos, por lo tanto ser
conveniente usar un mtodo no paramtrico.

11

Hiptesis y supuestos
El test F de ANOVA responde a la hiptesis:

H 0 : 1 = 2 = ... = k
H1 : al menos dos medias no son iguales.
Los datos deben provenir de k poblaciones independientes, con distribucin normal y con la misma
desviacin estndar.
El test de Kruskal_Wallis es un test de rangos que reemplaza al test F de ANOVA. El supuesto acerca
de la independencia de las poblaciones sigue siendo importante, pero ya no necesitamos normalidad.
Asumiremos que la respuesta tiene una distribucin continua en cada poblacin.
H0: las k distribuciones son iguales
H1: una de ellas tiene valores sistemticamente mayores
Si todas las distribuciones tienen la misma distribucin, esta hiptesis la podemos simplificar.
H0: las k poblaciones tienen la misma mediana
H1: no todas las medianas son iguales
Recordemos la idea del ANOVA: tenemos una variacin total observada de la respuesta como la suma
de dos partes, una que mide la variacin entre los grupos o tratamientos (suma de cuadrados entre
tratamientos, SCE) y la otra que mide la variacin entre las mediciones de un mismo tratamiento (suma
de cuadrados dentro de los tratamientos, SCD). El test F de ANOVA rechaza la hiptesis nula de que
las medias son iguales si la SCE es grande relativa a la SCD.
La idea del test de Kruskal-Wallis es calcular los rangos de todas las respuestas y luego aplicar el
ANOVA a los rangos en vez de las observaciones originales.
Test de Kruskal-Wallis
Se tienen k muestras aleatorias de tamaos n1, n2,...,nk. Hay n observaciones en total, donde n es la
suma de los ni. Se calcula el rango de las n observaciones y sea Ri la suma de los rangos en el i-esima
muestra o grupo. El estadstico de Kruskal-Wallis es:
k
Ri2
12
H=
3(n + 1)
n(n + 1) i =1 ni

Cuando los tamaos ni son grandes y las k poblaciones tienen la misma distribucin, H tiene
aproximadamente una distribucin de Ji-cuadrado con (k-1) grados de libertad.
El test de Kruskal-Wallis rechaza la hiptesis nula de que todas las poblaciones tienen la misma
distribucin cuando H es grande.

12

Vemos que as como el test de suma de rangos de Wilcoxon, el test de Kruskal-Wallis est basado en
suma de rangos, mientras mayor sea la diferencia entre los rangos de los grupos mayor evidencia de
que las respuestas son diferentes.
La distribucin exacta del estadstico H de Kruskal-Wallis bajo la hiptesis nula depende de los
tamaos muestrales n1, n2,...,nk, por lo tanto las tablas son terribles. El clculo de la distribucin exacta
es tan complicado que los softwares generalmente usan la aproximacin de 2 para obtener el valor p.
Veamos lo rangos para el problema de las malezas.
Como antes, tambin tenemos que corregir cuando existen empates.
Revisemos los datos de las malezas:
Malezas por metro
0
1
3
9

166,7
166,2
158,6
162,8

Produccin
172,2 165,0
157,3 166,7
176,4 153,1
142,4 162,7

176,9
161,1
156,0
162,4

Tenemos que calcular los rangos de todos los datos ordenados. Luego calcular H. En SPSS podemos
calcular los rangos con: Transformar, Asignar rangos a casos
2

Ri
Grupos Suma de Rangos
0
52,5
2756,25
1
33,5
1122,25
3
25,0
625,0
9
25,0
625,0
Total
136
H=

12 2756,25 1122,25 625,0 625,0


+
+
+
3(17)

16(17)
4
4
4
4

H=

12
(1282,125) 51 = 5,56
272
Estadsticos de contrastea,b

Rangos

Produccin

Maleza x mt2
0
1
3
9
Total

N
4
4
4
4
16

Rango
promedio
13.13
8.38
6.25
6.25

Chi-cuadrado
gl
Sig. asintt.
Sig. exacta
Probabilidad en el punto

Produccin
5.573
3
.134
.130
.000

a. Prueba de Kruskal-Wallis
b. Variable de agrupacin: Maleza x mt2

13

La diferencia con el clculo de SPSS se debe a la correccin por empates. Esta correccin hace que la
aproximacin de Ji cuadrado sea ms precisa. Es importante hacerla si hay muchos empates.
Podemos comparar este test no paramtrico con su equivalente paramtrico:

ANOVA
Produccin

Inter-grupos
Intra-grupos
Total

Suma de
cuadrados
340.667
785.543
1126.209

gl
3
12
15

Media
cuadrtica
113.556
65.462

F
1.735

Sig.
.213

Vemos que llegamos a la misma conclusin, es decir que las malezas no afectan significativamente la
produccin de maz.
Ustedes qu creen?

14

Vienesas
Se tienen datos del contenido en caloras y sodio de 3 tipos de vienesas: cerdo, mixtas, y de ave.
220
200
180
160
140

CALORIAS

120
100
80
60
N=

20

17

17

carne

mixto

ave

TIPOS

Descriptivos
CALORIAS

N
carne
mixto
ave
Total

20
17
17
54

Media
155.80
158.71
122.47
146.22

Desviacin
tpica
25.220
25.236
25.483
29.696

Error tpico
5.639
6.121
6.181
4.041

Intervalo de confianza para


la media al 95%
Lmite
Lmite inferior
superior
144.00
167.60
145.73
171.68
109.37
135.57
138.12
154.33

Mnimo
90
107
86
86

Mximo
190
195
170
195

Prueba de homogeneidad de varianzas


CALORIAS
Estadstico
de Levene
.301

gl1

gl2
2

51

Sig.
.741

ANOVA
CALORIAS

Inter-grupos
Intra-grupos
Total

Suma de
cuadrados
14074.369
32664.965
46739.333

gl
2
51
53

Media
cuadrtica
7037.184
640.490

F
10.987

Sig.
.000

15

CALORIAS
a,b

HSD de Tukey

TIPOS
ave
carne
mixto
Sig.

N
17
20
17

Subconjunto para alfa


= .05
1
2
122.47
155.80
158.71
1.000
.937

Se muestran las medias para los grupos en los subconjuntos


homogneos.
a. Usa el tamao muestral de la media armnica =
17.895.
b. Los tamaos de los grupos no son iguales. Se utilizar
la media armnica de los tamaos de los grupos. Los
niveles de error de tipo I no estn garantizados.

Cmo hacemos el anlisis no paramtrico?


Estadsticos de contrastea,b

Rangos

CALORIAS

TIPOS
carne
mixto
ave
Total

Rango
promedio
32.83
33.53
15.21

N
20
17
17
54

Chi-cuadrado
gl
Sig. asintt.

CALORIAS
15.179
2
.001

a. Prueba de Kruskal-Wallis
b. Variable de agrupacin: TIPOS

Qu informamos a los consumidores de vienesas?


RANK of CALORIAS
a,b

HSD de Tukey

TIPOS
ave
carne
mixto
Sig.

N
17
20
17

Subconjunto para alfa


= .05
1
2
15.206
32.825
33.529
1.000
.987

Se muestran las medias para los grupos en los subconjuntos


homogneos.
a. Usa el tamao muestral de la media armnica =
17.895.
b. Los tamaos de los grupos no son iguales. Se utilizar
la media armnica de los tamaos de los grupos. Los
niveles de error de tipo I no estn garantizados.

16

Lo que hicimos fue calcular los rangos de la variable respuesta (caloras) y luego analizamos
paramtricamente la nueva variable. Esta propuesta no es absolutamente convencional y fue publicada
por:
Conover, W. Iman, R. (1981) Rank transformation as a bridge between parametric and non parametric
studies. The American Statistician, 35: 124-133.
Fisher, L. Van Belle, G. En Biostatistics, Wiley (1993 ) proponen rutinariamente hacer tanto el anlisis
paramtrico como su equivalente no paramtrico (cuando existe) y si las conclusiones son divergentes
investigar el motivo.
Revisemos el ejemplo de los tomates
Prueba de Kruskal-Wallis
Rangos

Altura de las plantas (cm)

Fertilizantes
A
B
C
Total

N
5
5
5
15

Rango
promedio
4.10
13.00
6.90

Estadsticos de contrastea,b

Chi-cuadrado
gl
Sig. asintt.
Sig. exacta
Probabilidad en el punto

Altura de las
plantas (cm)
10.448
2
.005
.000
.000

a. Prueba de Kruskal-Wallis
b. Variable de agrupacin: Fertilizantes

Hacemos las comparaciones mltiples en los rangos de la variable altura:

17

Rank of altura
a

HSD de Tukey

Fertilizantes
A
C
B
Sig.

N
5
5
5

Subconjunto para alfa


= .05
1
2
4.10000
6.90000
13.00000
.202
1.000

Se muestran las medias para los grupos en los subconjuntos


homogneos.
a. Usa el tamao muestral de la media armnica = 5.000.

Comparamos con el resultado paramtrico:


Altura de las plantas (cm)
a

HSD de Tukey

Fertilizantes
A
C
B
Sig.

N
5
5
5

Subconjunto para alfa


= .05
1
2
34.00
36.40
43.20
.170
1.000

Se muestran las medias para los grupos en los subconjuntos


homogneos.
a. Usa el tamao muestral de la media armnica = 5.000.

18

Correlacin por rangos de Spearman*


Hasta ahora hemos analizado la correlacin mediante el coeficiente de correlacin lineal r de Pearson,
sin embargo existen otros coeficientes de correlacin tiles, particularmente el coeficiente de
correlacin por rangos de Spearman (rs). El uso de este coeficiente es apropiado cuando la escala de
medida de las variables de inters no es cuantitativa sino que es ordinal.
La r de Spearman es en realidad el coeficiente de correlacin lineal r de Pearson, aplicado a los datos
que satisfacen los requisitos de una escala ordinal. La ecuacin ms sencilla para el clculo de rs
cuando no existen empates, o existen pocos, con respecto al nmero de pares de datos (x, y) es:

6 (R( X i ) R(Yi ) )

rs = 1

n3 n

Donde: R( X i ) es el rango del i-simo dato X y R (Yi ) es el rango del i-simo dato Y.
Se puede mostrar que si los datos no tienen empates, la r de Pearson se reduce algebraicamente a la
ecuacin anterior.
Ejemplo: Suponga que una gran corporacin est interesada en calificar a un grupo de 12 aspirantes a
gerentes segn su capacidad de liderazgo. Se contrata a dos psiclogos para realizar el trabajo. Como
resultado de sus exmenes y entrevistas, cada uno de los psiclogos, de manera independiente, han
clasificado a los aspirantes segn su capacidad de liderazgo. Los rangos van de 1 a 12, donde 1
representa el nivel mximo de liderazgo. Los datos aparecen en la tabla. Cul es la correlacin entre
las clasificaciones de los dos psiclogos?
Orden de
Orden de
Sujeto Psiclogo 1 Psiclogo 2 Diferencias
1
6
5
1
2
5
3
2
3
7
4
3
4
10
8
2
5
2
1
1
6
3
6
-3
7
9
10
-1
8
1
2
-1
9
11
9
2
10
4
7
-3
11
8
11
-3
12
12
12
0

rs = 1

(R( X i ) R(Yi ) )2
1
4
9
4
1
9
1
1
4
9
9
0
52

6 52
= 1 0,182 = 0,818
123 12

Spearman, C. (1904) "The proof and measurement of association between two things", American Journal of Psychology,
15: 72-101.
19

Comparemos con la salida de SPSS:


Correlaciones
PSI1
Rho de Spearman

PSI1

PSI2

Coeficiente de
correlacin
Sig. (bilateral)
N
Coeficiente de
correlacin
Sig. (bilateral)
N

PSI2

1.000

.818**

.
12

.001
12

.818**

1.000

.001
12

.
12

**. La correlacin es significativa al nivel 0,01 (bilateral).

Correlaciones
PSI1
PSI1

PSI2

Correlacin de Pearson
Sig. (bilateral)
N
Correlacin de Pearson
Sig. (bilateral)
N

1
.
12
.818**
.001
12

PSI2
.818**
.001
12
1
.
12

**. La correlacin es significativa al nivel 0,01


(bilateral).
14

12

10

PSI1

0
0

10

12

14

PSI2

En este caso los dos coeficientes de correlacin son iguales, pero tenemos argumentos a favor de usar
un mtodo no paramtrico.
20

Das könnte Ihnen auch gefallen