Beruflich Dokumente
Kultur Dokumente
INDICE
1. Finalidad del anlisis de varianza..........................................................................
10
12
13
15
18
19
19
22
23
24
(X M)2
N
[1]
1 Utilizamos M como smbolo de la media aritmtica (no X ) y (y no s) como smbolo de la desviacin tpica
de la muestra (dividiendo por N, no por N -1); por razones de simplicidad y as lo vemos adems en otros autores
(como Guilford y Fruchter, 1978, que reconocen la falta de una prctica comn en el uso de estos smbolos). Es por
otra parte frecuente referirse a la desviacin tpica como sigma, el nombre del smbolo. En muchas calculadoras con
programacin estadstica de uso frecuente se utilizan los smbolos n y n-1 para referirse a la desviacin tpica de la
muestra (dividiendo por N) y de la poblacin (dividiendo por N - 1) respectivamente y son posiblemente los smbolos
ms claros. Otros autores (como Spatz, 1993) prefieren S (mayscula) para designar la desviacin tpica de la muestra
y s (minscula) para la desviacin tpica de la poblacin; otros en cambio (Rosenthal, 1987, 1991; Rosenthal y
Rosnow, 1991) utilizan S para la poblacin y para la muestra. Los smbolos para la desviacin tpica de la
poblacin y s para la desviacin tpica de la muestra (la prctica ms comn) son originarios de William S. Gossett
(Pearson y Kendall, Eds., 1978) al que debemos tambin la distribucin de la t de Student. Algn autor prescinde casi
de todo tipo de smbolos (Guguen, 1997). En nuestro caso el smbolo () no se presta a confusin porque
prcticamente siempre se trata de la desviacin tpica de la muestra a no ser que indiquemos expresamente que se trata
de la desviacin tpica de la poblacin; en este caso tambin utilizaremos ocasionalmente el smbolo n-1 para referirnos
a la desviacin tpica de la poblacin y n para designar la desviacin tpica de la muestra.
caso no sera legtimo comparar todas las medias de dos en dos, en un mismo
planteamiento, por las razones dichas antes.
3. Qu comprobamos mediante el anlisis de varianza: relacin entre la diferencia
entre varianzas y la diferencia entre medias
Con la t de Student comprobamos si existe una diferencia estadsticamente
significativa entre las medias de dos muestras o grupos; es decir, comprobamos si las dos
medias difieren ms de lo que consideramos normal cuando las muestras proceden de la
misma poblacin o, lo que es lo mismo, si las medias no difieren entre s ms de lo que es
normal que difieran los sujetos entre s.
Con el anlisis de varianza comprobamos si existen diferencias estadsticamente
significativas entre ms de dos grupos, es decir, comprobamos si las diversas muestras
podemos considerarlas muestras aleatorias de la misma poblacin. Es el mtodo
apropiado cuando tenemos ms de dos grupos en el mismo planteamiento; en vez de
comparar las medias de dos en dos, utilizamos el anlisis de varianza (y ya veremos por
qu).
Cuando tenemos solamente dos muestras tambin podemos utilizar el anlisis de
varianza para comparar dos muestras en vez de la t de Student, pero con slo dos
muestras es ms cmodo utilizar los procedimientos tradicionales del contraste de medias
(t de Student).
Lo que directamente comprobamos en el anlisis de varianza es si entre dos o ms
varianzas existen diferencias estadsticamente significativas, pero lo que realmente
deseamos comprobar es si hay diferencias entre una serie de medias.
Lo primero que hay que comprender, al menos de una manera simple e intuitiva, es
que al comprobar si hay diferencia entre dos varianzas (enseguida veremos de qu dos
varianzas estamos hablando), llegamos a una conclusin sobre si hay diferencias entre las
medias.
Vamos a verlo en un ejemplo sencillo, con slo dos muestras de seis sujetos cada
una, representadas en la figura 1.
Media
de A:
4
Media
Total:
6.5
Media
de B:
9
10
10
8
5
3
10
8
5
3
Muestra A
Muestra B
Figura 1
En la figura 1 tenemos representados dos grupos o muestras, muestra A y muestra
B, cada una con su media. La media del grupo A es Ma = 4 y la media del grupo B es Mb
= 9.
10B
10B
8B
5A
8B
5A
3A
10B
8B
5A
3A
3A
Figura 2
Cuando pensamos en trminos del anlisis de varianza la imagen de la figura 1
debera ser la de la figura 2, donde tenemos un solo grupo integrado por los dos grupos
iniciales: es la varianza de este nuevo grupo la que vamos a analizar o descomponer.
De cada sujeto conservamos la informacin sobre su grupo inicial de pertenencia (A o B).
Observando las diferencias entre los sujetos de este grupo total podemos
preguntarnos: De dnde vienen las diferencias en este grupo total formado por las
muestras A y B?
De que los sujetos son muy distintos entre s dentro de cada grupo? No, en este
ejemplo los sujetos dentro de cada grupo tienen un grado semejante de homogeneidad o
variabilidad: dentro de cada grupo las diferencias entre sujetos (las varianzas) son iguales
(si nos fijamos en la figura 1, vemos que en ambos grupos las diferencias entre cualquier
par de sujetos o son igual a 0 o son igual a 2).
Lo que sucede es que las medias son distintas: las medias de los grupos difieren
entre s ms que los sujetos entre s dentro de cada grupo. Si calculamos la varianza
dentro de cada uno de los dos grupos (representados en las figuras 1 y 2), veremos que su
valor es igual a 1; en cambio si calculamos la varianza entre los grupos (utilizando las
dos medias como si se tratara de datos de dos sujetos, o utilizando los datos de todos los
sujetos, pero asignando a cada uno la media de su grupo) veremos que la varianza es
igual a 6.25: es mayor la varianza (diferencias entre) de los grupos que la de los sujetos.
La media total ((4+9)/2) es de 6.5; las medias de cada grupo se apartan ms de la
media total que los sujetos de su propia media. Y sta ser la conclusin importante:
Si las medias entre s difieren ms que los sujetos entre s,
podemos concluir que las medias son distintas.
Dicho de otra manera, si las medias difieren entre s ms que los sujetos entre s,
concluiremos que las medias pertenecen a muestras que proceden de poblaciones distintas
con distinta media; hay una variabilidad mayor entre las medias que entre los sujetos.
En la figura 3 tenemos un caso distinto, con otros dos grupos de seis sujetos. Los
dos grupos tienen idntica media, no difieren en cuanto grupos, pero entre los sujetos,
dentro de cada grupo, s hay diferencias.
Media
de A:
6
Media
Total:
6
Media
de B:
6
7
6
5
4
Muestra A
Muestra B
Figura 3
Uniendo ambos grupos, podramos calcular la varianza total, y preguntarnos de
nuevo: De dnde viene esa varianza (esas diferencias)? De que los grupos son distintos,
con media distinta, como en el caso anterior? O las diferencias en el grupo total vienen
simplemente de que los sujetos dentro de cada grupo son distintos?
En este caso las diferencias no vienen de diferencias entre los grupos, que tienen
idntica media, sino de que los sujetos dentro de cada grupo son muy distintos.
Vamos a suponer que estas puntuaciones son de autoestima, y que los dos grupos
pertenecen a dos aulas distintas de alumnos. Si comprobamos que la varianza o
diversidad dentro de los grupos es mayor, o ms o menos igual, que la varianza o
diversidad entre los grupos, nuestra conclusin sera que, por lo que respecta a la
autoestima, estamos ante un nico grupo, o ante dos muestras que representan a la misma
poblacin. La hiptesis de dos grupos, o de dos muestras procedentes de poblaciones
distintas con distinta media en autoestima, no se sostendra.
Podemos imaginar un ejemplo todava ms sencillo: tenemos dos grupos, uno de
enanos y otro de gigantes:
Cada grupo tiene su media en altura; la media de los gigantes es mayor que la
media de los enanos.
Dentro de cada grupo hay tambin diferencias; no todos los enanos son igualmente
bajitos ni todos los gigantes son igualmente altos.
Pero cul sera nuestra conclusin si comprobamos que la diferencia entre las
medias de los gigantes y de los enanos es ms o menos igual a las diferencias que
podemos encontrar entre los sujetos dentro de cada grupo? Pues sencillamente que no
tenemos ni enanos ni gigantes, la hiptesis es falsa, y por lo que respecta a estatura,
podemos considerar que todos pertenecen al mismo grupo (o hablando con ms
propiedad, que todos pertenecen a la misma poblacin por lo que respecta a la altura).
media
media
media
media
Caso A
Las medias no difieren entre s ms de lo que los
sujetos difieren entre s; la varianza entre los grupos es
ms o menos igual a la varianza dentro de los grupos.
Caso B
Las medias difieren entre s ms de lo que los sujet
difieren entre s; la varianza entre los grupos es mu
mayor que la varianza dentro de los grupos.
Figura 4
Expresado de otra manera: la diversidad o variacin que encontramos dentro de los
grupos (expresada por la varianza dentro de los grupos) es la diversidad normal,
aleatoria; lo normal es que no todos los sujetos de una muestra sean idnticos en una
Introduccin al Anlisis de Varianza
(X - M)2
N -1
La suma de las diferencias de todos los datos con respecto a la media, elevadas
previamente al cuadrado [(X-M)2] es el numerador de la varianza. A este numerador se
le denomina Suma de Cuadrados y su smbolo habitual es SC. No es raro encontrarse con
el smbolo SS, que significa lo mismo pero en ingls (Sum of Squares).
La expresin (X-M)2 tambin suele simbolizarse x2 (la equis minscula, x, es
smbolo frecuente de X- M), y tambin se utiliza a veces d2 (d = diferencia de cada
puntuacin individual con respecto a la media).
(X - M)2
N
(X-M)2 = N2
4 Por otra parte el valor de la desviacin tpica, y otros datos, podemos encontrarlo ya calculado y no tenemos
necesidad de conocer todos los datos de todos los sujetos para hacer un anlisis de varianza; sobre esto mismo
insistiremos en otras ocasiones porque el caer en la cuenta de esta posibilidad es sumamente prctico. Si disponemos
solamente de estos datos, N, M y (y puede ser un caso frecuente) no podemos hacer un anlisis de varianza con los
programas habituales de ordenador (como el SPSS) y s podemos hacerlo con una simple calculadora y en algunos
programas de Internet que slo requieren esos datos.
5 En EXCEL a la varianza o Cuadrados Medios se le denomina Promedio de los Cuadrados.
10
Suma de Cuadrados
SC
(X -M) 2
Varianza: =
= Cuadrados Medios =
= CM =
Grados de Libertad
gl
N -1
2
La varianza tiene una propiedad que la hace muy til: puede descomponerse y esto
permite numerosos anlisis.
En el ejemplo de dos (o ms) muestras, la varianza total (uniendo las dos muestras
en una sola) puede descomponerse en dos varianzas:
1) Una varianza que indica la variabilidad dentro de los grupos
2) Otra varianza que expresa la variabilidad (diferencias) entre los grupos (entre las
medias).
El que la varianza puede descomponerse podemos captarlo en un sencillo ejemplo
grfico. Es muy til entenderlo aunque slo sea de manera intuitiva y observando con
detencin la figura 5, para poder comprender toda la informacin que nos da el anlisis
de varianza.
En la figura 5 tenemos representados esquemticamente (y de manera muy
exagerada para hacer ms claro el esquema):
1. Dos grupos o muestras, cada uno con su media (M1 y M2),
2. El grupo formado por las dos muestras con la media del total de ambos grupos
(MT),
3. La puntuacin (X) de un sujeto del primer grupo.
Los puntos indicados en la figura 5 representan las dos medias, la media total y la
puntuacin X de un sujeto concreto del grupo 1 (y podra hacerse la misma
representacin con todos los sujetos de todos los grupos).
Puntuacin
de un sujeto
del grupo 1
Media
del grupo 1
Media total
uniendo
los dos
grupos
Media
del grupo 2
X
X-MT
X-M1
M1-MT
Figura 5
Si vamos a calcular la varianza del grupo total (el que resultara al unir a todos los
sujetos en un solo grupo) con media MT, sta ser la frmula:
2
total
[X - M total ]2
=
N -1
11
ms
Para todos los sujetos tendramos lo mismo, tal como se indica en la figura 6.
Suma de Cuadrados
total
2
[X - MT]
variabilidad total
diferencias de los sujetos con
respecto a la media total
Suma de Cuadrados
dentro de los grupos
[X - Mn]
Suma de Cuadrados
entre los grupos
[Mn - MT]
12
grados de libertad de la
varianza dentro de los grupos
(N - k)
k = nmero de grupos
En cada grupo los grados de
libertad son n 1 (n = nmero de
sujetos en cada grupo); si se trata
de tres grupos, los grados de
libertad son: (n1 -1)+(n2 -1)+(n3-1)
o lo que es lo mismo, N- 3
grados de libertad de la
varianza entre los grupos
(k - 1)
o nmero de grupos
menos uno
13
Para comparar dos varianzas no restamos una de la otra (como hacemos cuando
comparamos dos medias) sino que dividimos una por la otra calculando la razn F de
Snedecor:6
2mayor
F= 2
[2]
menor
o segn los trminos convencionales del anlisis de varianza,
CM entre
F=
[3]
CM dentro
donde CM = Cuadrados Medios, o varianza.
Para entender mejor lo que hacemos mediante la razn F del anlisis de varianza
podemos pensar en una analoga con la t de Student7. Con muestras de idntico tamao
sta es la frmula que utilizamos:
M1 M 2
t=
[4]
21 + 22
1
En el numerador tenemos la diferencia entre las medias de dos muestras. En el
denominador vemos las varianzas de los dos grupos, un indicador de las diferencias
6 Las tablas de la distribucin de F son de Snedecor (y por eso se llaman tablas de la F de Snedecor) pero se
bas en un trabajo previo de Sir Ronald Aymer Fisher (1890-1962), y en su honor denomin F a este cociente. El
anlisis de varianza se lo debemos fundamentalmente a Fisher. George Waddle Snedecor (1881-1974) fue el primero
en fundar en EE.UU. un departamento de estadstica en Iowa State University.
7 Tomamos esta analoga de McGuigan (1994).
14
dentro de los grupos8; es lo mismo que vemos en la frmula [3], diferencias entre medias
en el numerador y diferencias entre sujetos en el denominador.
15
pero no hace falta consultar las tablas. En lugar de poner p<.05 p<.01, pondremos p>
.05 (si nuestro nivel de confianza es = .05) o simplemente no significativo.
d) En cualquier caso, al consultar las tablas, donde dice grados de libertad del
cuadrado mayor hay que entender grados de libertad de la varianza del numerador y
donde dice grados de libertad del cuadrado menor hay que entender grados de libertad
de la varianza del denominador.
e) Si la razn F es igual a 1, las dos varianzas son iguales. En la medida en que la
varianza del numerador sea mayor que la del denominador, el cociente ir siendo mayor
que 1. Si los sujetos pertenecen a la misma poblacin y el pertenecer a un grupo u otro no
tiene nada que ver con la variable dependiente, es muy improbable obtener valores de F
muy grandes. La probabilidad de obtener un cociente F por azar es lo que consultamos en
las tablas de Snedecor. Si nuestra F es muy poco probable (p < .05) en el caso de que no
haya deferencias entre los grupos, nuestra conclusin ser que s hay diferencias. El
razonamiento es el mismo que nos hacemos en el contraste de medias.
Normalmente vienen en las tablas dos valores; el primero es el valor que se dara
por azar el 5% de las veces (p = .05) y el segundo el 1% de las veces (p = .01); si se
superan estos valores lo expresamos as: p<.05 p<.01. En estos casos consideramos que
la probabilidad de que la diferencia entre las dos varianzas haya sido una casualidad es
muy pequea, y por eso afirmamos que las varianzas son distintas, o que el valor de F es
estadsticamente significativo.
Algunos textos traen tablas con otros valores, pero .05 y .01 son las probabilidades
que utilizamos habitualmente para aceptar la decisin de no diferencia, como es usual en
la investigacin experimental en las ciencias sociales. En programas de ordenador (y de
Internet) nos viene la probabilidad exacta, y si disponemos de esta informacin, es la que
deberamos utilizar y comunicar.
El ejemplo explicado corresponde al planteamiento ms sencillo, en el que se
comparan varias muestras independientes. Si el valor de F es estadsticamente
significativo, e indica por lo tanto que la varianza que corresponde al numerador
(diferencias entre los grupos) es mayor que lo que podramos esperar por puro azar;
pasamos ya a comprobar qu pares de medias difieren significativamente, y segn los
casos, podemos hacer tambin otros clculos adicionales.
8. Explicacin alternativa: relacin entre variables cualitativas o criterios de
clasificacin (variable independiente) y variables cuantitativas (variable
dependiente)
16
b) Informacin cualitativa. Tenemos adems otra informacin sobre los sujetos: los
criterios o categoras que hemos utilizado para clasificar a los sujetos (variable
independiente), como pueden ser (en los planteamientos ms comunes del anlisis de
varianza):
1. La pertenencia a un grupo u otro, utilizando como nico criterio de clasificacin
el grupo al que pertenecen (en el anlisis de varianza para muestras
independientes);
2. Las preguntas a las que han respondido, experiencias o condiciones por las que
han pasado, etc. (anlisis de varianza para muestras relacionadas, los sujetos
son los mismos en las diversas condiciones o columnas);
3. Los dos o ms criterios que nos han servido para clasificarlos, para organizar a
los sujetos al disponer la tabla de datos, como en el anlisis de varianza de
diseos factoriales (tablas de doble entrada); con dos o ms criterios de
clasificacin, en los que cada criterio est dividido en dos o ms niveles, as el
criterio sexo tiene dos niveles, hombre-mujer, etc.
II. Mediante el anlisis de varianza podemos relacionar los dos tipos de
informacin:
La informacin cuantitativa, que son los datos obtenidos y tabulados (variable
dependiente)
La informacin cualitativa, que son los criterios para clasificar a los sujetos,
como el pertenecer a uno u otro grupo (variable independiente).
1 Nos hacemos estas preguntas, que son equivalentes:
o La varianza, la diversidad que encontramos en la variable dependiente (la
variable medida y tabulada) Est influida por, tiene que ver con los
criterios de clasificacin?;
o El criterio de clasificacin (pertenecer a un grupo u otro, etc.) Tiene que
ver con las diferencias que encontramos en la variable dependiente?
o Este criterio de clasificacin, Es una fuente de varianza, de diversidad
en la variable dependiente? (los criterios de clasificacin Son orgenes o
causas hipotticas de varianza o diversidad en la variable dependiente?).
o Son los sujetos distintos en la variable dependiente, en la variable
medida, porque tambin son distintos en el criterio de clasificacin (unos
han seguido el mtodo A, otros el mtodo B, etc.)?
17
Hay diferencias entre los sujetos en la variable medida porque tambin son
diferentes en el criterio de clasificacin (o lo que est puesto en el numerador de la razn
F: la varianza correspondiente a un criterio de clasificacin o la varianza correspondiente
a la relacin entre dos o ms criterios).
Cuando decimos que hay diferencias en la variable medida porque tambin las hay
en el criterio de clasificacin no estamos implicando una relacin causal; podramos
decir con ms propiedad (o de manera ms descriptiva) que si la razn F es significativa,
las diferencias en la variable medida estn asociadas de hecho a pertenecer a un grupo u
otro9.
III. Una razn F significativa nos permite afirmar que la varianza o diversidad del
numerador de la razn F (el pertenecer a un grupo a otro) est relacionada con la varianza
o diversidad en la variable medida. Pero nos falta todava informacin para interpretar
bien los resultados.
a) Podemos comprobar entre qu grupos hay una diferencia significativa cuando sea
apropiado; la razn F nos dice que hay diferencias entre las medias, pero no
entre qu grupos se da esa diferencia.
b) Podemos cuantificar la magnitud de los resultados mediante los clculos
apropiados (coeficientes de fiabilidad en el caso de muestras relacionadas, y
otros coeficientes de asociacin en otros planteamientos que iremos viendo).
Esta cuantificacin (de 0 a 1) nos ayuda a interpretar los resultados, o a
comparar dos F significativas y valorar su importancia.
Una razn F (o un valor de t o su equivalente) no cuantifica la diferencia;
simplemente nos permite afirmar que hay diferencias por encima de lo aleatorio, sin
responder de manera clara al mucho o poco de la diferencia. Sin embargo disponemos de
anlisis adicionales para apreciar la magnitud de las diferencias (de la misma manera que
en el contraste de medias disponemos del tamao del efecto, concepto que tambin es
aplicable aqu).
c) Siempre hace falta una valoracin conceptual, lgica, de los resultados, en
funcin del diseo, de otros datos que ya conocemos, etc., y con frecuencia nuestras
conclusiones nos sugerirn otras hiptesis, otros diseos, o una repeticin del
experimento, con otras muestras o en otras circunstancias, para confirmar los resultados.
9 Para inferir causalidad tenemos que poder excluir otras explicaciones, y esto lo intentamos a travs del
muestreo aleatorio y del control de otras variables con un diseo apropiado.
18
19
En los modelos tericos en los que se basa el anlisis de varianza se hacen tres
suposiciones; 1) escalas de intervalo, 2) distribucin normal y 3) homogeneidad de
varianzas, pero las tres suposiciones son de importancia muy desigual.
1) En la variable dependiente (en la que medimos a los sujetos) tenemos unidades
de intervalo, (y observaciones independientes)
La primera suposicin es que utilizamos escalas de intervalo, con una unidad en
sentido propio. Esto no suele ser lo habitual en los instrumentos de medicin educacional
y psicolgica (tests, escalas de diverso tipo, preguntas con respuestas graduadas, etc.),
pero la mayora de los autores coinciden en afirmar que con estos instrumentos el anlisis
de varianza, como otros muchos anlisis, son seguros, y as lo confirma la prctica ms
habitual10
2) La variable dependiente (la que medimos) sigue la distribucin normal;
Sobre el presupuesto de normalidad en la variable dependiente (la que medimos),
una abundante investigacin confirma que en general la violacin de estos presupuestos
no invalida de manera apreciable los resultados del anlisis de varianza. La violacin de
la normalidad es menos importante (prcticamente irrelevante, Glass y Stanley,
1974:373), como est confirmado por numerosos estudios; de hecho las medias tienden a
la distribucin normal aunque las poblaciones de donde proceden no sean normales
(Guilford y Fruchter, 1973: 277).
3) Las varianzas de las distintas poblaciones representadas en las muestras no
difieren significativamente entre s.
La condicin previa de homogeneidad de varianzas (denominada homoestacidad)
es sin duda la ms importante, aunque la distorsin en los resultados (en relacin al error
10 Los mtodos habituales de obtencin de datos (como escalas tipo-Likert, etc.) se aproximan suficientemente
a las escalas de intervalo y las distorsiones que se pueden introducir son pequeas; es ms lo que se gana que lo se
pierde con estos mtodos que dan por hecho que se da una unidad aproximada (Guilford, 1954; Nunnally, 1978 y
muchos otros). Este punto lo tratamos con ms detalle en Morales (2006), cap. 1, apartado 2.3
20
11 Recordamos cul es el error Tipo I: aceptar la diferencia cuando realmente no la hay (rechazar, o no aceptar,
la Hiptesis Nula cuando es verdadera). Es el tipo de error que en principio nos interesa evitar., no equivocarnos al
afirmar que hay diferencias superiores a lo normal entre los grupos.
12 Si las varianzas son muy desiguales puede suceder que un valor de F tenga una probabilidad de .05 en las
tablas y realmente est entre .04 y .07 (Guilford y Fruchter, 1973:277) o entre .07 y .09 (Linton, Gallo y Logan, 1975,
que no recomiendan la comprobacin previa de estos requisitos).
13 Lix, Keselman y Keselman (1996), Jaccard (1998: 81); sobre este punto puede verse tambin Hernndez,
Borges y Ramrez (1996).
14 El test de Bartlett se basa en el ji cuadrado y se encuentra programado en Internet (Homogeneity of Multivariances: The Bartlett's Test http://home.ubalt.edu/ntsbarsh/Business-stat/otherapplets/BartletTest.htm, basta
introducir de cada muestra el nmero de sujetos y las varianzas (no las desviaciones tpicas) y si p > .05 podemos
aceptar la homogeneidad de varianzas. Esta direccin se encuentra en la Home Page de Hossein Arsham
http://home.ubalt.edu/ntsbarsh/Business-stat/home.html en JavaScript E-labs Learning Objects (Equality of Multvariances)
15 Estas pruebas se encuentran en numerosos textos; una explicacin muy clara puede verse en Escotet (1980).
Mtodos para verificar la homogeneidad de varianzas hay muchos; en Zhang, Shuqiang (1998) se encuentra una
exposicin crtica de 14 de estas pruebas.
16 El test de Levene est bien explicado en NIST/SEMATECH e-Handbook of Statistical Methods,
http://www.itl.nist.gov/div898/handbook/ Levene Test for Equality of variances
http://www.itl.nist.gov/div898/handbook/eda/section3/eda35a.htm (consultado 7, Oct., 2007).
21
Todas estas pruebas previas son sin embargo problemticas por diversas razones;
son muy sensibles a la no normalidad (menos la de Levene) y con frecuencia tienen poca
potencia (no controlan bien el error Tipo I) cuando se utilizan como control previo al
anlisis de varianza.17
Sobre qu hacer en la prctica se pueden dar unas orientaciones generales que
podemos ver en diversos autores. Aunque los programas de anlisis estadstico como el
SPSS suelen dar los dos resultados (lo mismo que cuando se hace un contraste de medias)
suponiendo varianzas iguales y suponiendo varianzas desiguales conviene tener en cuenta
estas orientaciones.
a) Las varianzas desiguales no deben preocuparnos si las muestras son de idntico
tamao18; por varianzas desiguales podemos entender que la mayor no es ms de tres
veces mayor que la varianza ms pequea.
b) Tampoco deben preocuparnos las varianzas desiguales si las muestras son de
distinto tamao con tal de que 1) los tamaos de las muestras no difieran mucho y 2) las
muestras no tengan menos de 20 sujetos (Jaccard, 1998:81).
c) Por otra parte ya veremos en su lugar que cuando no se cumplen las condiciones
previas del anlisis de varianza, hay contrastes posteriores muy seguros (como el de
Scheff) y al menos hay un contraste posterior especfico para cuando los tamaos de las
muestras son distintos y las varianzas son desiguales.19
d) En algunos casos de varianzas muy desiguales (mucho mayores que las dems)
podemos examinar si en alguna muestra hay sujetos atpicos con puntuaciones muy
extremas (outliers). Si hay sujetos muy atpicos, podemos considerar el eliminar de la
muestra a estos sujetos (responsables de una varianza mucho mayor). En estos casos
habr que comprobar si estos sujetos tienen alguna caracterstica comn para no
generalizar los resultados a ese tipo de sujetos. Por ejemplo, podemos encontrarnos con
que un subgrupo de sujetos con puntuaciones muy atpicas tienen tambin una edad muy
distinta a la de la mayora, o una procedencia distinta, etc.
e) Cuando las varianzas son notablemente distintas, y sobre todo si los grupos son
de tamao distinto, hay otras alternativas al anlisis de varianza menos conocidas20 Con
grupos pequeos, de tamao desigual y con varianzas muy distintas, siempre tenemos las
alternativas no paramtricas.21
Las violaciones de estos presupuestos afectan al anlisis de varianza cuando se trata
en sentido propio de estadstica inferencial, es decir, de llegar a conclusiones acerca de
22
las poblaciones representadas por las muestras (como es lo habitual). Si con el anlisis de
varianza se pretende llegar a un resumen descriptivo de lo que est sucediendo en las
muestras analizadas, estos supuestos dejan de ser importantes.22
10.2. Tamao de los grupos y prdida de sujetos
23
2 Categoras aleatorias
Son las escogidas aleatoriamente entre una poblacin mayor. Un ejemplo puede ser
ste:
Se desea comprobar, por ejemplo, si el rendimiento escolar depende del tipo de
centro o del tipo de profesor. Las categoras de clasificacin van a ser en estos casos
profesor y centro escolar, pero son muchos los posibles centros y los posibles profesores
en una zona dada. Si en este caso escogemos profesores y centros aleatoriamente,
tenemos categoras aleatorias, y las conclusiones podremos generalizarlas a las
poblaciones de centros o de profesores.
Un ejemplo clsico de categoras aleatorias se da en las investigaciones en las que
se pretende comprobar si el orden con que se presentan las preguntas de un cuestionario
influye en cmo se responde a estas preguntas. En un cuestionario de seis preguntas se
pueden hacer 720 combinaciones alterando el orden. Evidentemente son demasiadas
posibilidades. El investigador puede escoger un nmero limitado de versiones del mismo
cuestionario, por ejemplo cinco o seis, a cada versin responde una muestra de sujetos y
24
DENENBERG, VICTOR H., (1976). Statistics and Experimental Design for Behavioral and
Biological Researchers. New York: John Wiley & Sons,
GLASS, GENE V. y STANLEY, JULIAN C., (1974). Mtodos Estadsticos Aplicados a las
Ciencias Sociales. Madrid, Prentice-Hall Internacional.
GUGUEN, NICOLAS (1997). Manuel de Statistique pour Psychologues. Paris: Dunod.
GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la
educacin, Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology
and Education, 1973. New York: McGraw-Hill].
HAYS, WILLIAM L. (1981). Statistics. Third Edition. New York: Holt, Rinehart and
Wilson. 713 pp.
HERNNDEZ, JUAN A.; BORGES, FRICA y RAMREZ, GUSTAVO (1996). Anlisis de la
robustez del ANOVA en el caso de tamaos muestrales distintos y no proporcionales
frente a los contrastes de aleatorizacin. Psicolgica, 17, 127-141.
JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The
Practical Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole.
LIX, LISA M., KESELMAN, JOANNE C. and KESELMAN, H.J., (1996). Consequences of
Assumption Violations Revisited: A Quantitative Review of Alternatives to the OneWay Analysis of Variance F Test. Review of Educational Research, 66 (4) 579-619.
MCGUIGAN, F. J., (1994) Experimental Psychology, Methods of Research. Sixth edition.
Englewood Cliffs, N.J.: Prentice Hall.
23 Este ejemplo, y algunas variantes del mismo, puede verse bien explicado en Iversen y Norpoth (1987)
25
Anlisis de varianza
para varias muestras independientes
Pedro Morales Vallejo
Universidad Pontificia Comillas, Madrid,
Facultad de Ciencias Humanas y Sociales
(ltima revisin 15 de Septiembre de 2011).
ndice
1. Introduccin...............................................................................................................
2. Cundo podemos utilizar la t de Student para comparar grupos de dos en dos ........
3
4
3. Anlisis de varianza...................................................................................................
16
16
18
18
19
19
20
20
20
20
21
22
24
25
25
26
26
26
28
28
29
29
30
31
1 En ingls tambin suele denominarse one-way-ANOVA; expresin que a veces se ve traducida al espaol como
anlisis de varianza de una va (en espaol es muy frecuente el uso de anglicismos en la terminologa estadstica). En
EXCEL se denomina anlisis de varianza de un factor.
2Esta mayor probabilidad de error al aceptar la diferencia entre dos muestras cuando tenemos en el mismo
planteamiento ms de dos muestras y consiguientemente ms de dos contrastes entre medias, suele denominarse error de
familia (family error en ingls); la familia es en este caso el conjunto de contrastes posibles entre medias.
3 Los contrastes de Bonferroni estn ms explicados en el anexo II (Carlo Emilio Bonferroni elabor su teora sobre
la probabilidad en 1936).
La crtica hecha a este contraste es que es muy conservador; tiene poca potencia para
rechazar la Hiptesis Nula cuando realmente es falsa (Hancock y Klockars, 1996; Jaccard,
1998, Perneger, 1998) (diramos que da muchos falsos negativos) y en definitiva la
interpretacin de un resultado depende de que el anlisis se haga en solitario o junto con otros
anlisis4.
2.2. Condiciones para utilizar la t de Student cuando tenemos ms de dos muestras
Cuando tenemos ms de dos grupos podemos utilizar la t de Student para comparar
grupos de dos en dos si se dan todas estas condiciones:
1. Cuando antes de recoger los datos tenemos hiptesis explcitas acerca de la diferencia
entre dos grupos en particular. No podemos comparar todo con todo, pero s podemos
utilizar el contraste de medias normal de la t de Student cuando tenemos alguna
hiptesis a priori, formulada y justificada de manera explcita. Esta posibilidad (una
hiptesis sobre la diferencia entre dos grupos en particular cuando tenemos ms de dos
grupos) no es lo habitual, pero tampoco hay que excluirlo rutinariamente.
2. Cuando no vamos a combinar medias de varios grupos en una sola media para comparar
esta nueva media con otras medias. Para este tipo de comparaciones (uniendo
subgrupos) tenemos los contrastes de Scheff, posteriores al anlisis de varianza, que
veremos ms adelante.
3. Cuando no vamos a hacer todas las comparaciones posibles, ya que, suponiendo que se
cumplen las dos condiciones anteriores, el nmero de comparaciones que podemos
hacer con la t de Student cuando hay ms de dos grupos es limitado: no puede ser
superior a los grados de libertad, es decir, no puede ser superior al nmero de grupos
menos uno. Por ejemplo, con tres grupos (A, B y C) se podran hacer tres
comparaciones (entre A y B, entre A y C y entre B y C) pero slo podemos hacer dos
con la t de Student, con cuatro grupos podemos hacer tres comparaciones, etc., si
adems se cumplen las dos condiciones anteriores.
3. Anlisis de varianza:
3.1. Fases del proceso
Al explicar el procedimiento seguiremos el proceso que es til tener claro desde el
comienzo y que, ms o menos, seguiremos en la presentacin de otros modelos de anlisis de
varianza, porque responde a los pasos lgicos que debemos seguir:
1 Explicacin del procedimiento con un ejemplo resuelto paso a paso. Aadiremos una
serie de aclaraciones metodolgicas que nos pueden ayudar a entender mejor lo que realmente
estamos haciendo.
2 Con el anlisis de varianza propiamente dicho (razn F) no termina nuestro anlisis.
Dos tipos de clculos posteriores completan el proceso:
a) Contrastes posteriores, para poder comparar las medias de dos en dos en el caso
de que la razn F sea estadsticamente significativa.
4 Una crtica bien razonada a los ajustes de Bonferroni puede verse en Perneger (1998): this paper advances the
view, widely held by epidemiologists, that Bonferroni adjustments are, at best, unnecessary and, at worst, deleterious to
sound statistical inference... The main weakness is that the interpretation of a finding depends on the number of other tests
performed The likelihood of type II errors is also increased, so that truly important differences are deemed nonsignificant... Bonferroni adjustments imply that a given comparison will be interpreted differently according to how many
other tests were performed.
(X - M)2
N
[1]
tpicas. Huck y Malgady (1978) exponen un procedimiento similar para el anlisis de varianza de los diseos factoriales. Las
ventajas de estos procedimientos es que permiten resolver el anlisis de varianza sin ms informacin de cada grupo que el
nmero de sujetos, la media y la desviacin, sin necesidad de disponer de todas las puntuaciones individuales. Tambin, con
slo estos datos (a veces los nicos disponibles), disponemos de programas de Internet para resolver el anlisis de varianza.
6 El ejemplo propuesto aqu est tomado de Downie y Heath (1981); slo tomamos los datos (se puede comprobar
que los resultados son los mismos que con el procedimiento tradicional); el procedimiento que seguimos es el que acabamos
de proponer simplificando el clculo de las sumas de cuadrados.
Grupo 1
12
18
16
8
6
12
10
n1 =
7
M1 = 11.714
1 =
3.917
Grupo 2
18
17
16
18
12
17
10
n2 =
7
M2 = 15.428
2 =
2.92
Grupo 3
6
4
14
4
6
12
14
n3 =
7
M3 =
8.571
3 =
4.237
clculos previos
1 Calculamos la media y desviacin tpica de
cada uno de los tres grupos;
Tabla 1
1. del total:
457.79
292.75
b) Si los grupos son de distinto tamao ( y tambin si son iguales), la frmula es:
n2 = [7 x (3.917)2 ] + [7 x (2.92)2+ [7 x (4.237)2] =
292.75
3. Entre los grupos:
a) si los grupos son de idntico tamao: N 2M = (21)(2.802)2 =
(multiplicamos la varianza de las medias por el nmero total de sujetos)
164.87
n(M - Mt)2
En este caso necesitamos calcular el valor de la media total (Mt); en este ejemplo, como
los grupos constan del mismo nmero de sujetos, la media total es igual a la media de las
medias = 11.904, y la suma de cuadrados entre los grupos ser:
[7 x (11.714 - 11.904)2]+ [7 x (15.428 - 11.904)2]+ [7 x (8.571 - 11.904)2]=
164.94
Los resultados del anlisis de varianza se presentan en una tabla semejante a la tabla 2;
es la tabla clsica para presentar los resultados del anlisis de varianza.
Origen de la variacin
Suma de
Cuadrados (SC)
Grados de
libertad (gl)
(numerador de
la varianza)
(denominador
de la varianza)
Cuadrados
Medios
CM =
SC
gl
F=
CM entre
CM dentro
(varianza)
SCentre =164.87
2
CMentre=
Diferencias entre los
82.435
grupos
Diferencias entre los
18
CMdentro=
SCdentro =
sujetos dentro de los
292.75
16.26
grupos
SCtotal = 457.79
20
Variabilidad total
Tabla 2: Tabla de resultados del anlisis de varianza
5.069
(p < .05)
La suma de cuadrados del total nos sirve para comprobar que no hay errores, pues debe
ser igual a la suma de cuadrados entre los grupos ms la suma de cuadrados dentro de los
grupos. En este caso 164.87 + 292.75 = 457.62. Las sumas no siempre cuadran porque
solemos redondear decimales, pero la discrepancia debe ser pequea. En los grados de
libertad el resultado debe ser exacto: 2+ 18 = 20 (= N-1).
El valor de F que encontramos en las tablas para 2 grados de libertad de la varianza
mayor (k-1) y 18 de la varianza menor (N - k) es de 3.55; si alcanzamos o superamos este
valor, podemos afirmar que la diferencia entre ambas varianzas est por encima de lo
puramente aleatorio, con una probabilidad de error inferior al 5% p< .05 (si hubiramos
superado el valor de 6.01 la probabilidad de error hubiera sido inferior al 1%, p <.01)8.
La variabilidad entre los grupos (entre las medias) es en este caso significativamente
ms alta que la variabilidad dentro de los grupos; podemos por lo tanto concluir que entre las
medias existen diferencias significativas: la variabilidad total se explica ms por las
diferencias entre las medias (entre los grupos) que por las diferencias intra-grupales. Dicho de
otra manera: afirmamos que dos grupos son distintos cuando sus medias difieren entre s ms
que los sujetos entre s.
Un resumen del procedimiento lo tenemos en la tabla 3 (para muestras de idntico
tamao):
Origen de la
variacin
Numerador de la varianza
o Suma de Cuadrados (SC)
N (nmero total
de sujetos)
por la varianza
de las medias
Dentro de los
grupos (varianza
parcial: expresa
las diferencias
entre los sujetos)
n (nmero de
sujetos en cada
grupo) por la
suma de las
varianzas de los
grupos
Varianza total
N (nmero total
de sujetos) por
la varianza total
(de todos los
sujetos)
Denominador
de la varianza
(Grados de
libertad)
N 2
medias
Nmero de
grupos (k)
menos uno
k-1
2
n grupos
Nmero total
de sujetos
menos nmero
de grupos
N-k
2
N de
todos
Varianza
o Cuadrados
Medios (CM)
CM entre
CM dentro
Nmero total
de sujetos
menos uno
N-1
Tabla 3
8 El valor exacto de la probabilidad asociada a cualquier valor de F puede verse fcilmente en varias direcciones de
Internet puestas en al apartado n 9.
10
Suma de Cuadrados dentro de los grupos:n2 : en cada grupo: nmero de sujetos del
grupo por la varianza.
La variabilidad entre los grupos (representados por sus medias) est lgicamente
relacionada con la varianza de las medias.
La Suma de Cuadrados entre grupos es simplemente SC = (CM)(Grados de libertad);
nos puede interesar para completar la tabla de resultados convencional y para calcular el
coeficiente 2 que veremos despus.
Si las muestras son de tamao distinto tendremos que calcular en primer lugar la media
total (media de las medias ponderadas por el nmero de sujetos).
En este caso (podemos hacerlo aunque las muestras sean de idntico tamao) la media
total ser:
Mediatotal =
9 Adems en los programas de Internet para hacer el anlisis de varianza (reseados en el apartado 9) las
desviaciones tpicas requeridas suelen ser las de la poblacin.
11
La Suma de Cuadrados ser la que hubiramos obtenido si todos los sujetos de cada
grupo tuvieran idntica puntuacin igual a la media de su grupo. En cada grupo por lo tanto
calculamos la diferencia entre la media del grupo y la media total, la elevamos al cuadro y
multiplicamos por el nmero de sujetos del grupo: sta es la contribucin de cada grupo a la
suma de cuadrados total.
La Suma de cuadrados entre grupos de tamao desigual ser por lo tanto
SCentre = n(M-Mtotal) donde n es el nmero de sujetos de cada grupo.
En nuestro ejemplo tendremos:
SCentre = (7)(11.714-11.9)2 + (7)(15.428-11.9) 2 + (7)(8.571-11.9) 2 = 164.9
Los grados de libertad son los mismos, nmero de grupos menos uno.
b) Varianza o cuadrados medios dentro de los grupos
(X - M) 2
y ya hemos visto que la suma de cuadrados ser (X-M)2 = n2,.
n
n 2n
n 1
[2]
10 Esta combinacin de varianzas o varianza comn es la misma que se utiliza en el contraste de medias para
calcular el tamao del efecto propuesto por Cohen (1988); en este caso se trata de la desviacin tpica.
12
n 2n
Si los grupos son del mismo tamao: CMdentro =
k
[4]
n 2n
Si los grupos son de distinto tamao: CMdentro =
N k
[5]
Otra manera de expresar lo mismo es sta: la variabilidad total dentro de los grupos
(cuadrados medios dentro) viene dada por la varianza media de los grupos, calculando estas
varianzas dividiendo por N-1 (se trata de la estimacin de la varianza media de las
poblaciones representadas por esas muestras).
Cuando los grupos son de idntico tamao se ve muy fcilmente. Calculamos con los
datos de nuestro ejemplo (tabla 1) las desviaciones tpicas de las poblaciones representadas
por los tres grupos:
n-1 =
Grupo 1
Grupo 2
4.2341
3.1547
2
n1
Grupo 3
4.5773
Tenemos el mismo resultado obtenido antes (cuadrados medios dentro de los grupos,
tabla 2). Esto podemos hacerlo siempre que tengamos muestras independientes de idntico
tamao.
Si las muestras son de distinto tamao se trata de una media ponderada por el nmero
de sujetos: para calcular esta varianza media habr que 1 multiplicar cada varianza por su n,
y 2 dividir estos productos por N (no por k). Vamos a hacerlo con los mismos datos, ya que
los procedimientos para muestras de distinto tamao son tambin vlidos cuando son del
mismo tamao.
n 2n1 (7 x 4.23412 ) + (7x 3.1547 2 ) + (7x 4.57732 )
Varianza media =
=
= 16.27
21
N
[6]
13
Grupo 1
12
18
16
8
6
12
10
11.714
Grupo 2
18
17
16
18
12
17
10
15.428
Grupo 3
6
4
14
4
6
12
14
8.571
n
n-1
3.917
4.231
2.921
3.1547
4.237
4.577
n=7
2
n 1
Desviacin tpica
de las medias
(dividiendo por N -1)
Varianza de
las medias
= A
2
n 1
n-1
3.4324
11.7817
Estas desviaciones tpicas (dividiendo por N)
son tiles como dato descriptivo
media de las varianzas (n-1)
17.904
9.952
20.952
n2 1 =
k
= B
16.267
Tabla 4
F=
Con una calculadora con programacin estadstica hacemos los clculos enmarcados en
una doble lnea con toda facilidad.
1 Calculamos en cada grupo la media y las dos desviaciones tpicas; la desviacin
tpica normal (de la muestra, dividiendo por N), como dato descriptivo til, y la
desviacin tpica dividiendo por N -1 que elevamos al cuadrado directamente (nos
interesan las varianzas), y que es lo que anotamos (no hay necesidad de anotar el
valor de n-1 sin elevarlo al cuadrado).
14
2
n 1
N 2n
1
Un valor de F significativo nos indica que hay diferencias entre las medias por encima
de lo aleatorio, o que las diferencias entre las medias (entre los grupos) son mayores que las
diferencias entre los sujetos dentro de los grupos, pero no nos dice entre qu medias est o
estn las diferencias. Para comparar las muestras de dos en dos hay diversos mtodos.
En estos casos no utilizamos la t de Student, comparando cada media con todas las
dems. Si lo hacemos podemos encontrarnos con valores de t significativos, al nivel de
confianza que utilicemos, que sin embargo pueden ser casuales; al hacer varias
comparaciones de dos en dos aumenta la probabilidad de error. Cuando en el mismo
planteamiento tenemos ms de dos medias, se utilizan otros tipos de contrastes ms rigurosos
y apropiados. Estas comparaciones posteriores no se hacen si el valor de F no es significativo.
A pesar de lo que acabamos decir, y como ya indicamos antes, se puede utilizar la t de
Student convencional para comparar dos medias en el caso de que tengamos hiptesis previas
y justificadas acerca de alguna determinada diferencia entre dos medias. Esto sin embargo no
suele ser lo frecuente cuando planteamos un anlisis de varianza en el que simultneamente
analizamos ms de dos muestras.
11 Segn Kirk (1995) actualmente se utilizan ms de 30 contrastes; este mismo autor describe 22 procedimientos.
15
12 Puede ser til adems consultar alguna obra especializada, como Klockars y Sax (1986) y Toothaker (1993).
13 Hablando con propiedad habra que decir no aceptar en vez de la expresin habitual rechazar.
14 Los contrastes de Bonferroni no los tratamos aqu; nos hemos referido a ellos al comienzo y estn comentados en
el Anexo II; tampoco fueron pensados especficamente como contrastes posteriores al anlisis de varianza. Tambin estn
programados en el SPSS.
16
1) Se trata de un mtodo seguro, que se puede aplicar siempre. Es vlido para todo tipo
de contrastes; se pueden comparar las medias de dos en dos, o una media con una
combinacin lineal de otras, etc., y las muestras pueden ser tanto de idntico tamao como de
tamao desigual. La flexibilidad de este contraste lo ha hecho muy popular, aunque esta
flexibilidad tiene un precio; como iremos viendo su rigor puede ser excesivo.
2) Es un mtodo ms fiable y ms seguro cuando se violan los supuestos de normalidad
y de homogeneidad de varianzas, y con mayor razn cuando las muestras son de tamao muy
desigual. Esta es una buena razn para utilizarlo cuando dudamos de la legitimidad del
anlisis de varianza porque no se cumplen los requisitos previos.
3) A pesar de la aplicabilidad tan general de este procedimiento (prcticamente siempre
es vlido aunque no siempre es el mejor o el ms recomendable, como vamos indicando)
conviene consultar otras posibilidades (que iremos mencionando) antes de aplicar
rutinariamente el contraste de Scheff, sobre todo cuando tenemos hiptesis muy especificas,
las muestras son de idntico tamao o cuando vamos a hacer menos comparaciones de las
posibles.
4) El problema con este mtodo es que es muy conservador, y se puede aceptar la
Hiptesis Nula cuando podramos rechazarla legtimamente con otros procedimientos. En
trminos ms propios, se trata de un contraste con poco poder (se puede aceptar la Hiptesis
Nula de no diferencia cuando es falsa y podramos haber afirmado la diferencia). Es un
mtodo muy blindado contra el error denominado Tipo I (consiste en rechazar o no aceptar la
15 Todos estos contrastes pueden verse en numerosos textos; tambin en Internet se encuentran con facilidad
expuestos y valorados los diversos contrastes, por ejemplo en Lane, David M. (1993-2007). HyperStat Online Statistics
Textbook (en Introduction to Between-Subjects ANOVA) y en Dallal (2001) (puede verse adems el apartado 9, sobre
anlisis de varianza en Internet).
17
Hiptesis Nula cuando es verdadera; este error se comete cuando aceptamos la diferencia y
en realidad no la hay; las medias proceden de la misma poblacin). Por esto decimos que se
trata de un mtodo muy conservador: esto significa que cuesta ms rechazar la Hiptesis
Nula.
5) Precisamente porque es un procedimiento muy conservador es especialmente til
cuando no hay hiptesis previas y simplemente exploramos diferencias entre grupos o entre
combinaciones de grupos. Si no aceptamos la Hiptesis Nula (y afirmamos que s hay
diferencias entre las medias), no nos equivocamos. Es un buen procedimiento cuando
comparamos grupos por mera curiosidad.
6) Es un procedimiento adecuado para comparar medias de grupos de tamao distinto;
esto hace que con frecuencia sea muy utilizado; en casi todos los otros mtodos se supone que
las muestras son de idntico tamao. Aun as, cuando las muestras son de tamao distinto,
disponemos de otras alternativas que no conviene pasar por alto y que iremos mencionando o
explicando16.
7) Con este procedimiento se puede hacer algo que frecuentemente puede ser de inters:
combinar varias muestras en una sola para comparar la nueva media con la de otras muestras.
Si tenemos, por ejemplo, tres grupos, se puede comparar cada media con las otras dos, pero
tambin podemos unir dos medias para compararla con una tercera.
Estas combinaciones de muestras (y medias) pueden ser de mucho inters, porque con
frecuencia encontramos que algunas muestras participan de una caracterstica comn y tiene
sentido unirlas para comparar la nueva muestra (combinacin de varias muestras) con una
tercera. Precisamente porque este procedimiento est diseado para hacer mltiples
comparaciones (incluso combinando medias entre s) es un mtodo ms conservador que los
dems.
Esta posibilidad de combinar muestras (posibilidad a veces poco aprovechada) permite
ampliar los anlisis y enriquecer la interpretacin. Adems combinando medias aumentamos
el nmero de sujetos y se rechaza con ms facilidad la hiptesis nula.
8) Como es un mtodo muy riguroso, sucede a veces que la razn F es significativa, y a
ese mismo nivel de confianza no encontramos diferencias significativas entre las medias.
Cuando la F es significativa y ninguna comparacin posterior lo es, el investigador suele
quedarse a veces perplejo, y pensando dnde se habr equivocado; por eso conviene conocer
de antemano esta posibilidad.
El que la razn F sea significativa y luego al comparar las medias de dos en dos no
encontremos diferencias significativas puede suceder aunque no es lo habitual. Realmente con
una F significativa encontraremos al menos una diferencia significativa entre dos medias,
pero no necesariamente entre las medias de dos grupos, sino entre combinaciones de medias
que pueden no tener un inters especfico17. Cuando encontramos una razn F significativa y
16 Contrastes posteriores que admiten muestras de tamao desigual son al menos los de Fisher, Tukey-Kramer y
Games-Howell; el contraste de Tukey y otros tambin son vlidos cuando las muestras son de tamao ligeramente distinto;
en estos casos el nmero de sujetos que se utiliza (porque entra en las frmulas) es la media armnica.
17 La posibilidad de obtener una F significativa y despus no obtener diferencias significativas al comparar los
grupos entre s es una posibilidad no frecuente en los dems contrastes, y lo mismo sucede a la inversa: puede haber un
contraste significativo y una F no significativa. Esta posibilidad puede verse discutida en Hancock y Klockars (1996) y en
Hancock y Klockars (1998: Scheffe's test which is commonly used to conduct post hoc contrasts among k group means, is
unnecessarily conservative because it guards against an infinite number of potential post hoc contrasts when only a small set
would ever be of interest to a researcher). La prueba inicial de F (en definitiva el anlisis de varianza) ofrece una proteccin
18
luego no vemos diferencias estadsticamente significativas entre los grupos, una buena
sugerencia es acudir a los contrastes de Games y Howell (explicados despus) vlidos para
muestras con tamaos y varianzas desiguales (programado en el SPSS).
9) Por tratarse de un mtodo muy conservador, hay autores que sugieren o recomiendan
utilizar con el contraste de Scheff un nivel de confianza ms liberal, de = .10 en vez del
usual = .0518 En general en todos los casos lo ms recomendable es indicar la probabilidad
exacta (p = .03, p = .006) en vez de los usuales p < .05 p< .01
b) Procedimiento
t' =
| M1 - M2 |
1
1
CMdentro ( + )
n 1 n2
11.714 15.4281
1 1
(16.26)( + )
7 7
[7]
= 1.723
Cuando los grupos son de igual tamao se simplifica el clculo porque el denominador
es siempre el mismo. Los valores de t' para los diversos pares de grupos de este ejemplo son:
entre el 1 y el 2, t' = 1.723
entre el 1 y el 3, t' = 1.458
entre el 2 y el 3, t' = 3.181
2 A partir de a) nmero de grupos (k) y b) de los valores de F que vienen en las tablas,
y ya consultados en el anlisis de varianza previo, calculamos los valores significativos de t'
(construimos nuestras propias tablas) mediante la frmula [8]:
t' = (k -1)F
[8]
contra el error tipo I (rechazar (o no aceptar) la Hiptesis Nula cuando es verdadera) que puede resultar excesiva y no faltan
autores que recomiendan pasar directamente a los contrastes posteriores cuando hay hiptesis experimentales claras (Jaccard,
1998:28, 67). El encontrar una F significativa y no ver diferencias entre los grupos es ms frecuente cuando las muestras son
de tamao desigual (varias explicaciones, comentarios y alternativas metodolgicas en Overseas Chinese Association for
Institucional Research ( h t t p : / / w w w . o c a i r . o r g / ) I R & S t a t i s t i c s , S u m m a r i e s o f O n - l i n e D i s c u s s i o n
http://www.ocair.org/files/KnowledgeBase/Statistics/Anova.asp consultado 24, 08, 2007)
18 Esta recomendacin la vemos en Rodrigues (1977), Escotet (1980), Martnez Garza (1988) y en otros autores. En
las tablas de la F muchos textos se limitan a = .05 y .01, pero en bastantes se pueden ver tambin los valores de F para =
.10; adems tablas con =.10 las tenemos en Internet, y tambin en Internet podemos encontrar la probabilidad exacta de
cualquier valor de F; al final dedicamos un apartado a recursos de Internet en relacin con el anlisis de varianza. Tambin
convine tener en cuenta que el contaste de Games y Howell puede ser una buena alternativa al de Scheffe.
19
| M 1 - M2 |= t' CMdentro (
1
n1
1
n2
[9]
Calculamos los valores de t' tal como lo hicimos antes y hallamos los valores
significativos de |M1 - M2|, que en este ejemplo sern:
para un nivel de confianza de =.05: |M1 - M2| = 2.664
1 1
(16.26)( + ) = 5.74
7 7
1 1
(16.26)( + ) = 7.47
7 7
Ahora nos basta calcular las diferencias entre medias y comprobar si alcanzan los
valores sealados:
Entre el grupo 1 y 2: |11.71-15.43| = 3.72, inferior a 5.74 (p> .05); no significativa;
Entre el grupo 1 y 3: |11.71- 8.57| = 3.14, inferior a 5.74 (p> .05); no significativa;
Entre el grupo 2 y 3: |15.43- 8.57| = 6.86, superior a 5.74 (p< .05); significativa.
2) Utilizando un nivel de confianza ms liberal ( = .10)
Como ya hemos indicado, el mtodo de Scheff no slo sirve para comparar dos grupos
entre s (es lo ms habitual) sino tambin para comparar medias combinando varios grupos.
20
| 15.43 10.1425 |
= 2.83, p< .05
1 1
(16.26)( + )
7 14
CM dentro
n
[10]
Valor del rango estudentizado que hay que consultar en las tablas apropiadas
para los grados de libertad del trmino del error (Cuadrados Medios dentro de
los grupos) y para k (nmero de grupos o de medias)19.
19 Tablas de Tukey en el documento con tablas estadsticas y las direcciones de Internet del apartado n 9.
21
En nuestro ejemplo el valor de q para tres grupos y 18 grados de libertad es 3.61 (p <
.05) por lo que para rechazar la Hiptesis Nula habra que alcanzar una diferencia de:
DHS = 3.61
16.26
= 5.50
7
Esta diferencia es algo menor que la que nos indica el mtodo de Scheff. El contraste
de Tukey detecta mejor las diferencias significativas que el de Scheff y se puede utilizar en
cualquier planteamiento de anlisis de varianza, con tal de que el nmero de sujetos sea igual
(o casi) en todos los grupos.
Aunque quizs lo ms frecuente sea calcular la diferencia mnima necesaria para
rechazar la Hiptesis Nula que acabamos de ver [10], tambin se puede calcular directamente
el valor de q (como hacemos con la t de Student); podemos despejar el valor de q en la
frmula [10]; DHS es ahora la diferencia entre las medias que queremos contrastar:
| M1 - M 2 |
q=
[11]
CMdentro
n
Vamos a comparar las medias de los grupos 2 (M = 15.428) y 3 (M = 8.571) (tabla 1);
los cuadrados medios dentro de los grupos son igual a 16.26 (tabla 2):
q=
| 15.428 - 8.571 |
= 4.499
16.26
7
20 Cuando se utiliza la media harmnica suele emplearse la expresin unweighted means analysis, y no debe
utilizarse con muestras muy pequeas (<10) y con diferencias entre las muestras mayores de 2 en nmero de sujetos (Dallal,
2001). La recomendacin de utilizar la media armnica de n cuando los grupos son de tamao ligeramente desigual se
encuentra en muchos autores (por ejemplo Wildt y Ahtola, 1978 y Klockars y Sax, 1986).
22
k
media armnica de n* = 1
1
1
1
+
+ +
n 1 n 2 n3
nk
n* =
k
1
( )
n
[12]
t' =
Mi M k
1 1
CMdentro ( + )
ni n k
[13]
Calculamos el valor crtico de t' a partir del valor de q (al nivel de confianza deseado;
tablas de q):
t' =
q
2
[14]
23
q
2
CMdentro (
1
1
+ )
ni nk
[15]
Mi Mk
[16]
(1 / n i ) + (1 / n k )
CM dentro
Conviene caer en la cuenta de que ambas frmulas ([13] y [16]) son en ltima instancia
equivalentes, para evitar confusiones si encontramos distintas frmulas en distintos lugares.
Vamos a ver la equivalencia de estos procedimientos con un ejemplo que adems
clarifica el uso de estas frmulas. En la tabla 4 tenemos los datos de tres grupos de tamao
distinto (A, B y C).
A
10
8.00
3.898
n=
M=
n =
B
9
11.55
4.7868
C
8
14.125
4.780
Tabla 4
El nmero total de sujetos es N = 27. Suponemos que la razn F es significativa
(realmente lo es).
Los cuadrados medios dentro de los grupos (que necesitamos para aplicar las frmulas
[13] y [16]) son, como ya sabemos (frmula [5]), igual a n2/N - k = 22.539
Contrastamos las medias de los grupos C y A, primero con la frmula [13]:
14.125 8.00
t' =
= 2.7198
1 1
22.539 ( + )
8 10
3
24
(nmero de grupos)
(N-k, grados de libertad dentro de los grupos)
24
Para hacer este mismo contraste vamos a calcular ahora directamente el valor de q
(frmula [16]):
q=
14.125 8.00
(1 / 10) + (1 / 8)
22.539
= 3.846
q
2
3.846
= 2.719
2
4.1.4. Contraste de Games y Howell (GH) para muestras de distinto tamao y varianzas
desiguales
Cuando no estamos seguros de que las varianzas de las poblaciones a las que pertenecen
nuestras muestras sean iguales, disponemos del contraste de Games y Howell (suele
simbolizarse simplemente como GH) (est programado en el SPSS).
El procedimiento y las frmulas son idnticos al contraste anterior de Tukey-Kramer
[13]; la diferencia est en los grados de libertad dentro de los grupos para buscar el valor de
q en las tablas; estos grados de libertad quedan reducidos y har falta un valor mayor de F.
En este caso la frmula de los grados de libertad es la siguiente (Klockars y Sax, 1986;
Toothaker, 1993)22:
grados de libertad =
[(
2
i
) (
/ n i + k2 / n k
)]
( i2 / n i ) 2 ( k2 / n k ) 2
+
n1 1
nk 1
[17]
Esta frmula se puede expresar de una manera ms simple que facilita el clculo:
grados de libertad =
(d i d k )
d i2
d2
+ k
n i 1 n k 1
[18]
donde d =
2
n
Como vemos en [17] los grados de libertad para consultar las tablas de q no son N-k,
sino que los calculamos a partir de los valores de las desviaciones tpicas (de las muestras) y
del nmero de sujetos que tenemos en los grupos que comparamos. Lo normal es que
obtengamos una cifra con decimales que podemos redondear al nmero entero ms prximo.
Podemos hacer la misma comparacin entre las medias de los grupos C y A (tabla 4)
asumiendo que las varianzas son muy diferentes. El valor de q ya lo tenemos calculado
(3.846), lo que necesitamos son los grados de libertad; aplicando la frmula [17] tenemos:
22 Es la frmula de Satterthwaite (Dallal, 2001, en Significance Tests / Hypothesis Testing); como indica el mismo
autor (Dallal, 2001) ste es el procedimiento utilizado por el programa SPSS en esta situacin (muestras de tamao distinto y
varianzas desiguales).
25
grados de libertad =
[(
(
2
C / nC ) +
2
2
C / nC )
nC 1
( A2 / n A )
( A2 / n A ) 2
nA 1
[(4.78
/ 8) + (3.8982 /10)]
=
=13.46
(4.782 / 8)2 (3.8982 / 10) 2
+
8 1
10 1
2
Los grados de libertad son ahora 13 (redondeando decimales), bastante menos que los
24 (N-k) que tenamos antes. Para grados de libertad 3 (nmero de grupos) y 13, y = .05
necesitamos un valor de q de 3.73 (mayor que q = 3.53 con 24 grados de libertad que
tenamos antes), por lo que nuestro valor de q = 3.846 (mayor que 3.73) sigue siendo
suficiente para no aceptar (rechazar) Hiptesis Nula.
Esta frmula de los grados de libertad de los cuadrados medios dentro de los grupos es
aparentemente laboriosa, pero con muestras de tamao muy distinto y varianzas claramente
desiguales, este procedimiento es una buena alternativa al de Scheff23.
4.1.5. Contraste de Newman-Keuls
Con este contraste se utilizan las mismas tablas de la t de Student y se puede utilizar con
muestras de distinto tamao. La diferencia con la t de Student est en que en el denominador
de la t (donde figura el error tpico de la diferencia entre medias) colocamos los Cuadrados
Medios dentro, por lo tanto la frmula es:
M1 M 2
[20]
t (Fisher) =
1
1
CM dentro [ + ]
n1 n2
Cuando n = n esta frmula es idntica a la de Dunnett pero las tablas que hay que
consultar en el contraste de Dunnett son distintas.
Este contraste (LSD) slo se debe utilizar si la F es significativa; es uno de los
contrastes ms liberales (es ms fcil no aceptar la Hiptesis Nula).
23 Estos grados de libertad tambin son vlidos, y recomendables, para consultar las tablas de la t de Student cuando
comparamos dos muestras con tamao y varianzas muy desiguales (Hinkle, Wiersma y Jurs, 1994; Coombs, Algina y
Oltman, 1996).
26
a) Vlido para comparar las medias de los grupos experimentales (tratamientos) con
un grupo de control; no para comparar los tratamientos entre s (est pensado para k-1
comparaciones; por eso se rechaza la Hiptesis Nula con ms facilidad; estn previstas menos
comparaciones). Es til precisamente en estos casos, cuando tenemos varios grupos
experimentales y un grupo de control (est programado en el SPSS).
b) Supone idntico nmero de sujetos en cada grupo (n) aunque tambin podemos
utilizar la media armnica de n, como vimos en el mtodo de Tukey, cuando el nmero de
sujetos es desigual pero muy parecido.
Media tratamiento - Mediacontrol
Frmula del contraste de Dunnett: t' =
[19]
2CMdentro
n
CMdentro, o cuadrados medios del error, son, como siempre en estos casos, los
cuadrados medios (o varianza) dentro de los grupos. Este contraste tiene sus propias tablas
para verificar la probabilidad de un determinado valor de t'24.
4.1.8. Contrastes ortogonales
No todos los contrastes vistos son igualmente rigurosos, con unos es ms fcil que con
otros rechazar la Hiptesis Nula.
En la lista siguiente27 aparecen los ms comunes, situados en un continuo segn sean
ms liberales o ms conservadores (segn sea ms fcil o ms difcil rechazar la Hiptesis
Nula).
24 Tablas de Dunnett en el documento con tablas estadsticas y en las direcciones de Internet indicadas en el
apartado n 9.
25 Si por ejemplo nuestra hiptesis es que los grupos A+C (dos grupos unidos en uno solo) tienen una media mayor
que los grupos B+D (otros dos grupos unidos en uno solo), no podemos plantearnos tambin si la media de A es mayor que
la de B, porque parcialmente esta comparacin est incluida en la anterior. El trmino ortogonal (orthogonality) fu usado
por primera vez por Yates en 1933 (StatSoft, Inc., 2007).
26 Los contrastes ortogonales no suelen venir explicados en textos de carcter ms bien bsico, pero s en los de un
nivel medio o superior, pues son algo ms complejos que los que exponemos aqu. Pueden verse explicados en Klockars y
Sax (1986), Guilford y Fruchter (1978) y Kirk (1995) entre muchos otros.
27
ms liberal
ms conservador
Algunos autores recomiendan no utilizar los contrastes de Fisher, Duncan y NewmanKeuls cuando tenemos ms de tres grupos; en este caso son contrastes demasiado liberales
(se rechaza con demasiada facilidad la Hiptesis Nula)28. Esta lista no incluye el test de
Dunnett porque no est concebido para comparaciones mltiples, sino slo para comparar
distintas muestras experimentales con una sola muestra de control.
Al disponer de tantas posibilidades distintas de hacer los contrastes posteriores, puede
parecer que este paso, necesario por otra parte para llegar a las conclusiones finales, es
complicado. En la prctica una buena orientacin es escoger entre Scheff y Tukey (son los
que con ms frecuencia aparecen en los libros de texto) o el de Dunnett cuando se trata de
comparar varios grupos experimentales con un grupo de control o de referencia. Los
contrastes de Tukey-Kramer y Games y Howell (variantes de Tukey) tambin son los
oportunos en las circunstancias indicadas al comentar estos contrastes (ambos contrastes
coinciden en el tamao desigual de las muestras). Al decidir sobre la eleccin de alguno de
estos contrastes es conveniente tener a la vista las observaciones hechas a propsito de los
mismos29.
Estos contrastes suelen dividirse en dos tipos: planificados de antemano (a priori) y no
planificados de antemano (a posteriori o post hoc); el trmino post hoc se emplea
frecuentemente para designar los contrastes hechos despus de inspeccionar los datos. Los
diversos contrastes para comparar las medias de dos en dos (como el de Tukey) suelen
incluirse ente los mtodos a posteriori, pero tambin pueden planificarse de antemano, por lo
que esta distincin no es tan ntida; en un anlisis exploratorio tambin se pueden especificar
a priori los contrastes de inters30.
27 Tomada de Huck, Cormier, y Bounds (1974); Black (1999) y Gerstman (2003) presentan cuadros semejantes y los
mismos contrastes aparecen con el mismo orden.
28 Toothhaker (1993); Kirk (1995); Hancock y Klockars (1996)
29 Hancock y Klockars (1996) tienen una buena revisin crtica de todos estos contrastes. Entre los pocos que en
ltima instancia recomiendan son Scheff (para explorar), Tukey (para comparar entre s todas las medias de dos en dos en
muestras de idntico tamao) y Dunnett (no para hacer todas las comparaciones posibles sino nicamente para comparar
muestras experimentales con una muestra de control). Keselman y otros (1998) tienen un interesante estudio sobre las
preferencias metodolgicas en los diversos tipos del anlisis de varianza, tal como aparecen en investigaciones publicadas
en 17 revistas de prestigio (Child Development, Developmental Psychology, American Educational Research Journal,
Journal of Applied Psychology, etc.). Los contrastes posteriores ms utilizados son por este orden: Tukey, Newman-Keuls,
Scheff y Fisher Least Significant Difference. Tambin es posible utilizar contrastes distintos para comparar distintos pares
de medias entre s: Most analysts agree that Fisher's LSD is too liberal. Some feel that Tukey's HSD is too conservative.
While it is clear that the largest difference between two means should be compared by using Tukey's HSD, it is less obvious
why the same criterion should be used to judge the smallest difference. The [Student]-Newman-Keuls Procedure is a
compromise between LSD and HSD I use Tukey's HSD for the most part One general approach is to use both Fisher's
LSD and Tukey's HSD. Differences that are significant according to HSD are judged significant; differences that are not
significant according to LSD are judged nonsignificant; differences that are judged significant by LSD by not by HSD are
judged open to further investigation (Dallal, 2001). Este autor tiene una buena exposicin (online) sobre los distintos
contrastes.
30 Hancock y Klockars (1996) reservan el trmino a posteriori exclusivamente al contraste de Scheff; en Jaccard
(1998:27) pueden verse discutidos estos trminos.
28
En los programas de ordenador con frecuencia aparecen de manera rutinaria una serie
de contrastes (aqu no estn expuestos o mencionados todos los posibles); lo recomendable es
repasar la informacin disponible sobre estos contrastes para escoger e interpretar el (o los)
que se estime ms idneo para una situacin determinada.
4.2. Relevancia prctica de los resultados: proporcin de varianza relacionada con la
variable-criterio de clasificacin y tamao del efecto
29
[19]
k = nmero de grupos,
n = nmero de sujetos en cada grupo,
F = la razn F obtenida en el anlisis.
(3 1)(5.069 1)
= .28
(3 1)(5.069 - 1) + (3)(7)
Este resultado nos indica que aproximadamente (se trata de una estimacin) el 28% de
la varianza (diferencias en los datos analizados) est relacionado con la pertenencia a uno u
otro grupo. Con una F significativa slo sabamos que esta relacin era superior a cero (que
haba relacin, pero no cunta).
Esta otra frmula del coeficiente 2 da una estimacin semejante:
2 =
[22]
164.87 (3 1)16.26
= .28
457.79 +16.26
[23]
k = nmero de grupos
N/k = tamao medio de
los grupos
En nuestro ejemplo, aunque los grupos son de idntico tamao, aplicando esta frmula
tendramos:
2 =
164.87 - (3 - 1)(16.26)
= .28
21
164.87 + [3( 1)16.26] + 16.26
3
30
4.2.1.2. El coeficiente 2
Otro coeficiente, muy sencillo y muy utilizado y que da una aproximacin menos exacta
de la proporcin de la variable dependiente atribuible a los criterios de clasificacin es el
coeficiente eta al cuadrado:
SC entre
=
SCtotal
2
[24]
La misma frmula ya nos est indicando que se trata de una proporcin: la proporcin de
varianza de la variable dependiente explicada por la variable cuya suma de cuadrados est en el
numerador32. En este planteamiento, varias muestras independientes, lo que tenemos en el
numerador son las diferencias asociadas a pertenecer a uno u otro grupo. No se puede
extrapolar a la poblacin, se refiere solamente la muestra. Suele dar valores mayores que el
coeficiente 2
164.87
= .36
457.79
[25]
(5.069)(2)
= .36
(5.069)(2) +18
No sobra observar el parecido de la frmula [25] con la que utilizamos para transformar
el valor de t en un coeficiente de correlacin [26]:
31
rbp =
t2
t 2 + ( N1 + N2 - 2)
[26]
32
Los coeficientes de asociacin que hemos visto tambin son denominados tamao del
efecto, pero este trmino puede ser aqu equvoco en el sentido de que no cuantifican la
diferencia entre dos medias; ahora nos referimos al tamao del efecto en cuanto diferencia
tipificada, propia del contraste de dos medias entre s.
En el anlisis de varianza vemos dos tipos de tamao del efecto: uno es semejante al
habitual en el contraste de medias y nos cuantifica la diferencia entre dos medias; el otro nos
da una apreciacin global (como el coeficiente ) y en su uso e interpretacin es anlogo a
los coeficientes de asociacin.
4.2.2.1. El tamao del efecto en la diferencia entre dos medias
No es tan frecuente ver calculado el habitual tamao del efecto como complemento a
los contrastes posteriores, pero podemos hacerlo como en cualquier contraste de medias. Ya
sabemos que el tamao del efecto es una diferencia estandarizada: la diferencia entre dos
medias dividida por la desviacin tpica comn a ambas muestras. Nos expresa la diferencia
entre dos medias en unas magnitudes fcilmente interpretables y comparables con cualquier
otro tamao del efecto aunque las escalas de medicin sean muy distintas. Por otra parte
disponemos de los criterios de Cohen (1988), muy seguidos habitualmente, para valorar estas
magnitudes (en torno a .20 diferencia pequea, en torno a .50 diferencia moderada y .80 o
ms diferencia grande).
En el caso del anlisis de varianza la desviacin tpica que ponemos en el denominador
puede ser la desviacin tpica combinada de las dos muestras que comparamos, pero tambin
podemos utilizar (y es ms sencillo) la desviacin tpica combinada de todas las muestras de
35 Estas valoraciones las propone Cohen (1988:284-288) y son habitualmente tenidas en cuenta (un ejemplo
indicativo es el conocido texto de Kirk, 1995:178); tambin se aplican a coeficientes anlogos como 2
36 Por ejemplo en Hedges y Olkin (1985:101ss), Kirk (1995) y otros.
33
nuestro planteamiento sobre todo si desconocemos las desviaciones tpicas de las muestras o
si las desviaciones tpicas de todas las muestras no difieren mucho entre s37. Esta desviacin
tpica, como ya sabemos, no es otra cosa que la raz cuadrada de los cuadrados medios
dentro de los grupos (porque estos cuadrados medios son la varianza comn, no la desviacin
tpica comn).
La frmula del tamao del efecto (que simbolizamos como d) es por lo tanto38:
| Mi Mk |
[29]
d=
CMdentro
Podemos calcular el tamao del efecto de los grupos correspondiente a la diferencia
entre los grupos 2 y 3 (tabla 1); el denominador (cuadrados medios dentro de los grupos) lo
tomamos de la tabla 2.
| 15.428 8.571 | 6.857
d=
=
= 1.70 ; podemos valorar esta diferencia como grande.
16.26
4.03
Si utilizamos en el denominador la desviacin tpica combinada de estos dos grupos
nada ms (algo que tambin podemos hacer), el tamao del efecto que obtenemos es de 1.88,
ligeramente mayor.
Cuando la informacin disponible es slo la razn F y el tamao de los grupos,
Thalheimer y Cook (2002) proponen esta frmula para calcular una estimacin del tamao del
efecto.
n + n 2 n1 + n 2
d = F 1
(n 1 )(n 2 ) (n 1 + n 2 2)
[30]
4.2.2.2. El tamao del efecto como apreciacin global de la magnitud de las diferencias
entre todas las medias
Cuando tenemos solamente dos grupos, el tamao del efecto es igual a la diferencia
entre las dos medias dividida por la desviacin tpica combinada. Cuando hay ms dos grupos
simultneamente, como sucede en el anlisis de varianza, disponemos de un tamao del
efecto que no se refiere a la diferencia entre dos medias, sino a todas las diferencias de las
medias con respecto a la media total. Lo que en este caso tenemos en el numerador es una
cuantificacin de la dispersin o de las desviaciones de todas las medias con respecto a la
media comn; comparamos estas diferencias entre todos los grupos con las diferencias entre
los sujetos39.
Expresado este concepto del tamao del efecto en trminos no convencionales, la
frmula sera sta [31]:
tamao del efecto =
[31]
34
2
1 2
[32]
Este tamao del efecto asociado a la razn F se simboliza como f (Rosenthal y Rosnow
(1991:450; que en esta frmula proponen 2 en vez de 2). Naturalmente este tamao del
efecto no nos dice a quin favorece la diferencia, y no se puede utilizar para calcular el
tamao del efecto medio tal como se hace en el meta-anlisis.
Los valores de referencia para valorar la magnitud de este tamao del efecto
corresponden a los ya vistos de 2:
tamao del efecto
2
f
pequeo
.01
.10
moderado
.06
.25
grande
.14
.40
Hacemos un primer lugar una observacin de inters y que justifica este apartado. Los
procedimientos que suelen exponerse para resolver el anlisis de varianza parten del supuesto
de que conocemos todos los datos de todos los sujetos. Lo mismo sucede con los programas
de ordenador (o de una hoja de clculo como EXCEL); hay que introducir todos los datos
individuales. Sin embargo ste no es siempre el caso: de varias muestras podemos conocer
solamente (o simplemente tener a mano) los valores del nmero de sujetos, la media y la
desviacin tpica. O podemos encontrar estos datos publicados en algn lugar.
En estos casos, sin ms datos de cada muestra (solamente n, M, ), podemos resolver el
anlisis de varianza, y adems de una manera muy simple; de hecho ya lo hemos visto en los
apartados anteriores aunque en todos los ejemplos disponamos de todos los datos
individuales.
Cuando no tenemos los datos de todos los sujetos, lo nico que hay que tener previsto
es cmo combinar medias y desviaciones tpicas, y es lo que vamos a exponer aqu (las
frmulas estn recogidas y demostradas en el anexo III).
Vamos a verlo con dos ejemplos; en uno tenemos en cada grupo un nmero distinto de
sujetos y en otro tenemos muestras de idntico tamao.
5.1. Cuando el nmero de sujetos es distinto en cada grupo
35
n
Media
Desviacin tpica
A
1112
3.48
1.09
B
1214
3.97
1.06
C
400
4.34
1.10
Tabla 5
Lo primero que hacemos es calcular la media total (media ponderada por el nmero de
sujetos en cada grupo):
Mt =
264.8525
3169.2176
Origen de la variacin
Suma de
Cuadrados (SC)
Grados de libertad
(gl)
Entre grupos
264.8525
3 -1 = 2
132.426
3169.2176
2726 - 3 = 2723
1.1638
CM =
SC
gl
F=
CM entre
CM dentro
113.78
(p < .01)
Tabla 6
Podemos afirmar con mucha seguridad que los grupos pertenecen a poblaciones
distintas por lo que respecta a cmo juzgan la calidad global del profesorado; el criterio de
clasificacin (variable independiente, facultades) tiene que ver con la variable dependiente,
aunque est relacin no es grande (2 = .08). Los contrastes posteriores adecuados seran los
de Scheff (muestras de tamao muy desigual).
Lo que no hemos hecho es calcular la suma de cuadrados del total; nos puede interesar
para calcular 2, o para comprobar que las sumas de cuadrados estn bien hechas, o para
presentar completa la tabla de resultados. Podemos hacerlo sin dificultad, pero antes
necesitamos la varianza de los totales (de las tres muestras juntas).
Para combinar varianzas utilizamos esta frmula40: 2t =
2
A + B +C =
n(M 2 + 2 )
- M 2t
n
[33]
-242= 1.2594
Esta varianza de los totales multiplicada por el nmero total de sujetos nos da la suma
de cuadrados del total = (1.2594)(2726) = 3433.12.
40 Esta y otras frmulas para combinar medias y varianzas estn explicadas en el Anexo III.
36
Si sumamos las dos sumas de cuadrados entre y dentro tenemos 264.8525 + 3169.2176
= 3434. Las dos sumas de cuadrados del total no son exactamente idnticas (calculadas por
caminos distintos con distinto redondeo de decimales) por el diferente redondeo de decimales
en cada paso, pero la diferencia es negligible.
5.2. Cuando el nmero de sujetos es el mismo en cada grupo
El procedimiento es similar, aunque algo ms sencillo. Vamos a utilizar los datos del
primer ejemplo (tabla 1, reproducidos en la tabla 7).
A
Media
11.714
15.428
8.571
Desv. tpica
3.917
2.921
4.237
Tabla 7
Como clculo auxiliar previo nos interesa la varianza de las medias, 2 = 7.854
Esta varianza, multiplicada por el nmero total de sujetos (N = 21) nos va dar la suma de
cuadrados entre los grupos, y la suma de las tres varianzas de los grupos multiplicada por el
nmero de sujetos que hay en cada grupo (n = 7) nos va dar la suma de cuadrados dentro de
los grupos.
2 + 2
- M2t
k
[34]
La media total (Mt) , cuando las muestras son de idntico tamao, es igual a la media de
las medias = 11.90
En nuestro caso:
2
A + B+C
La suma de cuadrados de los totales ser = (21 = N)(21.902) = 459.95 que es casi (por
no utilizar en todos los casos los mismos decimales) igual a las sumas de cuadrados obtenidas
antes (164.934 + 292.79 = 458, tabla 2).
37
Queda claro que a partir del nmero de sujetos, la media y la desviacin tpica de cada
muestra (datos que con frecuencia estn disponibles, porque los hemos calculado
previamente, estn publicados, etc.) es rpido y sencillo hacer todos los clculos del anlisis
de varianza, sin necesidad de partir de todas las puntuaciones individuales (ni de utilizar un
programa de ordenador).
Tambin con slo estos datos, N, M y , disponemos de programas de Internet que nos
resuelven el anlisis de varianza (direcciones en el ltimo apartado); en estos programas de
Internet la desviacin tpica que hay que introducir es la de la poblacin (n-1, dividiendo por
N-1).
6. Anlisis de varianza para dos muestras independientes
Grupo B
12
16
10
10
4
6
17
14
14
10
10
n2 =
M2 = 11.3
2=
3.95
Clculos previos
Tabla 8
Sumas de Cuadrados (numerador de las varianzas):
1. Del total:
N t = (20)(5.328)2 =
567.75
n( 21 + 22 ) = (10)(3.1562 + 3.952) =
n 112 + n 2 22 = (10 x 3.1562 )+ (10 x 3.952) =
255.63
255.63
41 Cabe preguntarse si cuando se ensea y aprende el contraste de medias (t de Student) no sera preferible comenzar
con el anlisis de varianza, que se podra despus aplicar con menor dificultad de comprensin a otras situaciones. De hecho
la explicacin dada en la introduccin al anlisis de varianza est referida al caso de dos muestras por ser ms fcil de
captar. Una limitacin de utilizar el anlisis de varianza con slo dos muestras puede estar en que los valores de F se refieren
solamente a pruebas bilaterales (Guguen. 1997), pero tambin es verdad que son las pruebas que habitualmente utilizamos.
38
N 2M = (20)(3.95)2 =
n1(M1 - Mt )2 + n2 (M2 - Mt)2
= [10(19.2-15.25)2] + [10(11.3-15.25)2] =
312.05
312.05
Suma de
Cuadrados
(SC)
Grados de
libertad
(gl)
Cuadrados
Medios
SC
varianza =
gl
312.05
312.05
255.63
567.75
18
19
Tabla 9
F=
CM entre
CM dentro
21.97
(p < .01)
14.20
Con slo dos grupos de idntico tamao los Cuadrados Medios entre los grupos se
pueden calcular directamente de manera ms sencilla (coinciden con la Suma de Cuadrados,
numerador de la varianza, porque los grados de libertad, el denominador, es igual a 1):
CM entre =
n(M1 M2 ) 2
2
[33]
Si calculamos la t de Student: t =
=
19.2- 11.3
3.156 2 3.952
+
9
9
10(19.2 11.3) 2
= 312.05
2
= 4.687
F=
[6]
39
Grupo A: n = 3.156
2
n-1
2
n-1
n 2n
=
n 1
[2]
(10)(3.1562 )
=
= 11.067
10 1
(10)(3.952 )
=
= 17.336
10 1
11.067 + 17.336
= 14.20
2
2
n-1
Grupo B: n = 3.95
CMdentro = 2n 1 / k =
3. Y finalmente
F=
2
n-1 (de
312.05
= 21.97
14.20
42 Tomado de Gismero, Elena (1995). La conducta asertiva y su relacin con la anorexia nerviosa. Madrid:
Universidad Pontificia Comillas. En esta presentacin hubiera sido til incluir el tamao del efecto.
40
muestras con
medias ms altas
EXPRESIN DE
DESACUERDO
CONTROL
F = 5.29,2 = .114
p < .001
DIETA
AUTOAFIRMACIN
ANTE EXTRAOS
DIETA
F = 3.18, 2 = .07
p < .05
AUTOEXPRESIN
SOCIAL 2 = .12
F = 5.632
p < .001
ASERTIVIDAD
ANOREXIA
TERAPIA
CONTROL
ANOREXIA
DIETA
CONTROL
ANOREXIA
DIETA
CONTROL
ANOREXIA
GENERAL
F = 6.34, 2 = .13
p < 0001
SATISFACCIN
PROPIO CUERPO
F = 7.07, 2 = .15
p < 0001
DIETA
TERAPIA
AUTOCONCEPTO
F = 23.22, 2 = .36
p < 0001
CONTROL
ANOREXIA
BULIMIA
DIETA
BULIMIA
TERAPIA
COMPRENSIN
PARENTAL
F = 23.22, 2 = .21
p < 0001
ACEPTACIN
CONTROL
ANOREXIA
BULIMIA
TERAPIA
DIETA
BULIMIA
TERAPIA
TERAPIA
CONTROL
ANOREXIA
DIETA
CONTROL
ANOREXIA
BULIMIA
DIETA
BULIMIA
TERAPIA
SOCIAL
F = 7.71, 2 = .16
p < 0001
AUTOCONCEPTO
F = 24.44, 2 = .37
p < 0001
TERAPIA
Tabla 10
En este ejemplo (con variables en el mbito de la asertividad y del autoconcepto) se
puede observar, casi de un golpe de vista, que dos grupos, el de control (N = 57) y dieta (N =
33) no difieren entre s y a la vez ambas muestras superan en casi todas las variables al grupo
anorexia (N = 45) y en menos variables (posiblemente debido al menor nmero de sujetos en
41
estas muestras) a las muestras bulimia (N = 12) y terapia (N = 33); la muestra anorexia es la
que aparece en peores condiciones en estas variables43.
Debajo del nombre de cada grupo est puesto el valor de Scheff y su probabilidad;
hubiera quedado ms completa la informacin aadiendo el tamao del efecto
correspondiente a cada contraste.
Otra manera de presentar los resultados es la que figura en la tabla 12. Adems de
presentar la tabla habitual de resultados y otra informacin relevante (puede ser suficiente una
informacin semejante a la puesta en la primera columna de la tabla 11), si se quiere poner el
nfasis en la magnitud de las diferencias entre los grupos, se puede hacer una tabla en la que
figuren las diferencias estadsticamente significativas (la probabilidad p corresponde en este
caso a los contrastes de Scheff) y los tamaos del efecto al comparar las medias de dos en
dos. Un ejemplo puede ser el de la tabla 11, comparando alumnos de diversas facultades en la
importancia que se da a tener puestos de autoridad en distintas profesiones.44
PiscoMedias ms
pedagoga
altas
Derecho y p = .001
Econmicas d = .56
Ingeniera
Medias ms bajas
Enfermera Derecho y Ingeniera
Econmicas
p = .000
----d = .65
p = .16
----d = .45
Tabla 11
Trabajo
Social
p = .000
d = .67
p = .096
d = .47
Filosofa
Teologa
p = .04
d = .50
M edias
Enfermera
Derch.
IngenieProfesiones
Econm
ra
Trabajo
Social
Filosof.
Teologa
Figura 1
Otra manera de presentar un resumen de los resultados es sta:
1 Se ordenan las medias de ms a menos
2 Se unen con la misma lnea continua las medias que no difieren entre s
43 En un trabajo acadmico (como una tesis doctoral) las tablas completas de los resultados de cada anlisis de
varianza pueden ir en un anexo; lo que se presenta en esta tabla es un resumen significativo con la informacin que se va a
interpretar o comentar..
44 Datos tomados de la tesis doctoral de Rufino Meana La experiencia subjetiva de sentido y su relacin con
variables psicolgicas y sociodemogrficas, Universidad Pontifica Comillas (2003).
42
III
II
Para utilizar estos recursos hay ya manuales especficos, aqu nos limitamos a dar
algunas indicaciones. Para utilizar EXCEL o el SPSS (y en general cualquier paquete
informtico con programas estadsticos) necesitamos introducir en primer lugar todos los
datos de todos los sujetos; no podemos operar a partir solamente del nmero de sujetos, media
y desviacin tpica de cada grupo. En este apartado nos referimos exclusivamente al anlisis
de varianza para varias muestras independientes.
EXCEL. El anlisis de varianza para muestras independientes se denomina en EXCEL
anlisis de varianza de un factor. Adems de los datos descriptivos de cada grupo nos da la
tabla final de resultados, pero no los contrastes posteriores.
SPSS. En analizar (barra superior) tenemos la opcin comparar medias y all ANOVA
de un factor. De los contrastes posteriores comentados (post hoc en el cuadro de dilogo)
tenemos, entre otras opciones, los contrastes de Scheffe, Tuckey, Duncan (comentado en el
apartado dedicado al contraste de Newman-Keuls del que es una variante; los contrastes de
Duncan y Newman-Keuls para muestras de idntico tamao son algo ms liberales que el de
Tukey), Games-Howell (tamao distinto y varianza desiguales, puede ser una buena
alternativa a Scheff) y Dunnett.
45 Las direcciones de Internet son con frecuencia inestables pero disponiendo de informacin sobre ttulos y autores
no es difcil encontrar estas u otras con informacin semejante en los buscadores de Internet.
43
Las tablas convencionales que suelen estar en libros de texto tambin estn disponibles
en Internet.
Tablas de la F de Snedecor
http://www.stat.duke.edu/courses/Spring98/sta110c/qtable.html
BISSONNETTE, VICTOR L., Berry College
http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables,
http://fsweb.berry.edu/academic/education/vbissonnette/tables/posthoc.pdf
CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas)
Tablas de Dunnett
44
Estos programas son muy tiles porque con frecuencia no disponemos de los datos de
cada sujeto y los nicos datos disponibles de cada muestra (a veces en obtenidos en anlisis
previos) son el nmero de sujetos, la media y la desviacin tpica; con slo estos datos no
podemos acudir a EXCEL o al SPSS.
Seleccionamos tres programas muy sencillos (hay muchos ms); nos basta introducir el
nmero de sujetos, la media y la desviacin tpica de cada muestra.
a) PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations.
http://members.aol.com/johnp71/javastat.html (ste es el modo de citar esta fuente).
Analysis of Variance from Summary Data
http://members.aol.com/johnp71/anova1sm.html (en Web Pages that Perform
Statistical Calculations! http://members.aol.com/johnp71/javastat.html)
Anlisis de varianza para muestras independientes
45
La desviacin tpica que hay que introducir es la de la poblacin (dividiendo por N-1);
es lo normal en los programas de Internet. Si el nmero de sujetos es muy grande las dos
desviaciones apenas difieren (dividir por 200 o por 199 no altera gran cosa los resultados)
pero si se tiene calculada la desviacin tpica de la muestra (n) es muy sencillo calcular la de
la poblacin (n-1):
n-1 =
N n2
N 1
Cuando hay que introducir todos los datos de todos los sujetos, lo habitual es utilizar
EXCEL o el SPSS, pero tambin disponemos de programas en Internet.
Un programa sencillo lo tenemos en KIRKMAN, T.W , College of Saint Benedict/Saint
Johns University [http://www.csbsju.edu/] http://www.physics.csbsju.edu/stats/anova.html; el
ndice de anlisis estadsticos de este centro est en http://www.physics.csbsju.edu/stats/
Los datos se pueden introducir de dos maneras, copindolos de una tabla o
introducindolos directamente. Este programa no calcula los contrastes posteriores.
Otro programa para llevara cabo un anlisis de varianza introduciendo los datos de
todos los sujetos (se pueden copiar y pegar de una tabla WORD o de EXCEL) es LOWRY,
RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html (ANOVA en el
men de la izquierda); incluye los contrastes posteriores de Tukey.
46
47
GORDON, LEONARD V. (1973). One-Way Analysis of Variance Using Means and Standard
Deviations. Educational and Psychological Measurement, 12 1973; vol. 33: pp. 815 816
GRAPH PAD SOFTWARE Online calculators for scientists
http://graphpad.com/quickcalcs/PValue1.cfm
GUGUEN, NICOLAS (1997). Manuel de Statistique pour Psychologues. Paris: Dunod.
GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,
Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
HANCOCK, GREGORY R. AND KLOCKARS, ALAN J., (1996). The Quest for : Developments
in Multiple Comparison Procedures in the Quarter Century Since Games (1971). Review
of Educational Research, 66, (3). 269 - 306.
HEDGES, LARRY V. and OLKIN, INGRAM, (1985). Statistical Methods for Meta-Analysis. New
York: Academic Press.
HINKLE, DENNIS E.; WIERSMA, WILLIAM and JURS, STEPHEN G. (1994). Applied Statistics
for the Behavioral Sciences. Boston: Houghton-Mifflin.
HUCK, SCHUYLER W. and MALGADY, ROBERT G., (1978). Two-Way Analysis of Variance
Using Means and Standard Deviations. Educational and Psychological Measurement, 38,
235-237.
HUCK, SCHUYLER W., CORMIER, WILLIAM H. AND BOUNDS, WILIAM G., (1974), Reading
Statistics and Research, New York, Harper & Row
JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KESELMAN, H. J.; HUBERTY, CARL J.; LIX, LISA M.; OLEJNIK, STEPHEN; CRIBBIE, ROBERT
A.; DONAHUE, BARBARA; KOWALCHUK, RHONDA K.; LOWMAN, LAUREEN L.;
PETOSKEY, MARTHA D. and KESELMAN, JOANNE, C. (1998). Statistical Preferences of
Educational Researchers: An Analysis of Their ANOVA, MANOVA and ANCOVA
Analyses. Review of Educational Research, 68 (3), 350-385.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
KIRKMAN, T.W. (1996) College of Saint Benedict/Saint Johns University. Statistists to Use.
http://www.physics.csbsju.edu/stats/
KLOCKARS, ALAN J. and HANCOCK, GREGORY R. (1998). A More Powerful Post Hoc
Multiple Comparison Procedure in Analysis of Variance. Journal of Educational and
Behavioral Statistics, Vol. 23 (3).
KLOCKARS, ALAN J. and SAX, GILBERT, (1986). Multiple Comparisons: Sage University
Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
LANE, DAVID M. HyperStat Online Statistics Textbook (Last updated:
3/16/2009)http://davidmlane.com/hyperstat/index.html (consultado 07, 010, 2007)
LINTON, MARIGOLD; GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975), The Practical
Statistician, Simplified Handbook of Statistics, Monterey, Brooks/Cole.
MARTNEZ GARZA, NGEL, (1988). Diseos Experimentales. Mxico: Trillas.
NUNNALLY, JUM C. and BERNSTEIN, IRA H. (1994). Psychometric Theory, 3rd. ed., New
York, McGraw-Hill.
PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical
Journal 1998;316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236
PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations.
http://members.aol.com/johnp71/javastat.html
Anlisis de varianza para muestras independientes
48
Anlisis de varianza
para varias muestras relacionadas
Universidad Pontificia Comillas
Facultad de Ciencias Humanas y Sociales
Pedro Morales Vallejo
(ltima revisin, 15 de Septiembre de 2011)
ndice
1. Introduccin.........................................................................................................
2. Anlisis de varianza.............................................................................................
4. Contrastes posteriores..........................................................................................
10
11
11
16
17
19
19
20
21
22
22
22
1. Introduccin
En este modelo de anlisis de varianza1 tenemos los mismos sujetos con observaciones
o puntuaciones en la misma variable pero en condiciones distintas o en la misma condicin
pero en tiempos distintos2. Como se trata de los mismos sujetos tenemos muestras
relacionadas o emparejadas.
Tambin puede tratarse de sujetos fsicamente distintos pero igualados en variables
relevantes (variables que controlamos con esta igualacin); en este caso se trata tambin de
muestras relacionadas. En la presentacin de los datos las filas son los sujetos, y las columnas
son las condiciones.
Una ventaja de utilizar a los mismos sujetos en tratamientos experimentales es que
necesitaremos menos sujetos que si se trata de muestras independientes: si queremos
comprobar la eficacia relativa de tres actividades distintas de aprendizaje con sujetos
distintos, y estimamos en 10 el nmero mnimo de sujetos, necesitaremos 30 sujetos. Si
utilizamos a los mismos sujetos en las tres actividades, nos bastarn 10 sujetos, y adems no
tenemos que preocuparnos de que los tres grupos sean equivalentes pues se trata siempre de
los mismos sujetos3.
Se trata de comprobar en qu medida la variabilidad total se debe a diferencias entre los
sujetos (filas), a diferencias entre las condiciones (columnas) o a la interaccin entre filas y
columnas.
Podemos distinguir varios planteamientos sencillos que se pueden analizar mediante
este modelo de anlisis de varianza. Realmente se trata del mismo planteamiento, pero puede
resultar sugerente verlo desde diversas perspectivas o desde diversas preguntas de
investigacin que podemos hacernos y cuyas respuestas podemos encontrar en este modelo de
anlisis de varianza. Se trata de un mtodo de anlisis vlido siempre que se trate de muestras
relacionadas, aunque no se trate de diseos experimentales en sentido propio.
1 Cuando los mismos sujetos van a pasar por una serie de tratamientos experimentales.
La variable dependiente, la que medimos, es siempre la misma (medidas repetidas), como
puede ser aprendizaje, satisfaccin, mejora, etc., que medimos despus de cada tratamiento.
En este caso cada condicin (distintos mtodos, ejercicios, etc.) puede influir en los
tratamientos o experiencias subsiguientes: el aprendizaje previo, el cansancio, etc., de una
ocasin puede estar influyendo en los resultados de la ocasin siguiente. Este problema
(derivado del orden en el que los sujetos pasan por las distintas experiencias) puede
resolverse de dos maneras:
1 Tambin se le denomina a veces de clasificacin doble, o de un factor con medidas repetidas, o de dos factores
con una muestra por grupo (en EXCEL); el trmino ms genrico y claro es sencillamente anlisis de varianza para
muestras relacionadas: en todas las condiciones (en cada fila) tenemos a los mismos sujetos o a sujetos igualados.
2 Si lo que deseamos es conocer no si hay diferencias entre ocasiones, sino si se advierte una tendencia a aumentar o
disminuir, tenemos un anlisis de varianza especfico para verificar tendencias que veremos ms adelante.
3 Sobre estas y otras ventajas e inconvenientes de este modelo de anlisis de varianza, y sobre el nmero de sujetos,
puede verse Pascual, Fras y Garca (1996:137; 203) y en monografas como la de Ximnez y San Martn (2000) que
incluyen cmo llevar a cabo este anlisis de varianza con el SPSS.
a) Mediante diseos equilibrados (counterbalanced): los sujetos pasan por los distintos
tratamientos en un orden distinto, para neutralizar o minimizar los efectos del aprendizaje
previo, cansancio, etc.4
b) Utilizando sujetos distintos en cada condicin, pero igualados en caractersticas
importantes (como podran ser sexo, edad, rendimiento previo, etc.).
Si los tratamientos (columnas) son tres (por ejemplo), se divide a la muestra en bloques
de tres sujetos igualados en variables que pueden afectar a la variable dependiente (los
resultados, el progreso o efecto de una terapia o mtodo, etc.). Si se tratara de ensayar tres
procedimientos de aprendizaje, se podra igualar a los sujetos de cada fila en rendimiento
previo, motivacin, sexo, etc. Preferiblemente los tres sujetos de cada bloque se asignan
aleatoriamente a los diversos tratamientos (en un diseo experimental en sentido propio).
2 Este modelo de anlisis de varianza suele presentarse en el contexto de los diseos
experimentales (los mismos sujetos pasan por diversas condiciones o experiencias), pero
presentar este modelo de anlisis de varianza en referencia nicamante a diseos
experimentales, es de hecho muy restrictiva porque puede dejar fuera de nuestra atencin
otras posibilidades de inters y adems muy sencillas y asequibles.
Si los mismos sujetos valoran (por ejemplo un una escala escala de 1 a 5) la eficacia,
gusto, importancia, utilidad, etc., de una serie de conceptos del mismo mbito (actividades,
motivaciones, etc.) tenemos muestras relacionadas: los sujetos dan su valoracin mediante
respuestas escritas (se limitan a responder a varias preguntas) segn su experiencia, sin
necesidad de hacer en ese momento ningn experimento; la vida ya ha hecho que pasen por
las diferentes situaciones o condiciones. Es decir, no necesitamos necesariamente que los
sujetos pasen por diversas experiencias o condiciones; basta que respondan a una serie de
preguntas sobre una serie de conceptos o variables del mismo mbito. En esta situacin el
orden en el que se valoran los distintos elementos deja de ser un problema (o se puede alterar
el orden de los tems presentados en los cuestionarios si pensamos que el orden puede
condicionar las respuestas).
3 El ejemplo que nos va a servir para introducir el mtodo tambin sugiere otras
posibilidades: cuando varios profesores evalan a los mismos alumnos De dnde vienen las
diferencias? De que los alumnos son distintos y los profesores tienden a coincidir en sus
juicios? (ste sera un resultado deseable) O de que los profesores son distintos en su modo
de evaluar? En general siempre que tengamos un grupo de evaluadores que valoran a los
mismos sujetos (o conceptos, etc.) este anlisis nos permitir apreciar el grado de consistencia
o de acuerdo de los evaluadores al diferenciar unos sujetos (o conceptos) de otros5.
4 Este anlisis de varianza se presta de manera especial a determinar la jerarqua de
valores de un grupo o simplemente la jerarqua de preferencias. Si un grupo valora una serie
de conceptos (que pueden expresar valores, como libertad, igualdad, progreso econmico,
etc.) segn su importancia (en una escala de nada a muy importante), podemos ver:
a) En qu medida los sujetos son consistentes (estn ms o menos de acuerdo)
ordenando estos conceptos segn su importancia; podemos calcular unos coeficientes
6 Los datos estn tomados del ejemplo que presenta el texto de Downie y Heath (1971); el modo de resolver el
anlisis de varianza que exponemos aqu es sin embargo distinto y ms sencillo si se dispone de una calculadora con
programacin estadstica. En EXCEL se hace fcilmente buscando Anlisis de datos en Herramientas; este anlisis se
denomina en EXCEL Anlisis de varianza de dos factores con una muestra por grupo (no incluye los contrastes posteriores,
ni los coeficientes que se van a exponer); tambin se puede resolver en programas de Internet como indicamos en al apartado
correspondiente.
profesores (columnas)
alumnos
(filas)
totales columnas
medias columnas
A
10
4
8
3
6
9
40
6.67
B
6
5
4
4
8
7
34
5.67
C
8
3
7
2
6
8
34
5.67
D
7
4
4
2
7
7
31
5.17
total
filas
31
16
23
11
27
31
media
filas
7.75
4.00
5.75
2.75
6.75
7.75
Tabla 1
De las filas y de las columnas slo necesitamos o las medias o los totales; lo que resulte
ms cmodo. Con frecuencia las medias y desviaciones (de las filas o de las columnas) son un
dato informativo de inters en s mismo.
Aunque programas como el SPSS o incluso EXCEL nos lo pueden dar resuelto, el
procedimiento que exponemos nos ayudar a ver cmo descomponemos la varianza total en las
varianzas parciales que nos interesan; adems si no disponemos de estos recursos, con una
simple calculadora con programacin estadstica (para calcular medias y las desviaciones)
podemos resolverlo con toda facilidad, sobe todo con muestras pequeas.
1 Clculos previos
1. Calculamos las medias (o simplemente los totales) de cada fila y de cada columna;
ahora suponemos que hemos calculado las medias de filas y de las columnas.
2. Calculamos las desviaciones tpicas (o las varianzas directamente):
del total (de todos los datos; N = cxf = 24 datos):
de las medias de las columnas (Mc):
de las medias de las filas (Mf):
t =
Mc=
Mf=
2.198
.547
1.873
Si en vez de las medias de las filas o las columnas hemos calculado los totales de las
filas y/o de las columnas, calculamos sus desviaciones tpicas:
desviacin tpica:
tc =
tf =
3.269
7.492
Es importante advertir que en todos los casos N = nmero de datos, (no nmero de
sujetos) o nmero de filas por nmero de columnas (c x f = 24 en este caso).
2 Clculo de las sumas de cuadrados
Calculamos las Sumas de Cuadrados a partir de las desviaciones tpicas ya calculadas y
de N (nmero de datos); las frmulas aparecen en la tabla 2; en este caso utilizamos las
desviaciones tpicas de las medias de filas y columnas. Tambin podemos ir colocando los
resultados directamente en la tabla 3.
(24)(1.873)2 =
84.19
SCcolumnas = N Mc =
(24)(.547)2 =
7.18
SC de la interaccin:
SC de los totales:
SCtotal = N t =
SC de las filas:
SCfilas = N Mf =
SC de las columnas:
24.58
(24)(2.198)2 =
115.95
Tabla 2
Si en vez de calcular las medias de filas y columnas, hemos sumado el total de las filas
y de las columnas, calcularemos las desviaciones tpicas:
de los totales de las filas
de los totales de las columnas
tf = 7.492
tc = 3.269
6
(7.492)2 =
4
4
(3.269)2 = =
6
84.19
7.13
Si calculamos las Sumas de Cuadrados a partir de las medias nos dar el mismo
resultado que si las calculamos a partir de los totales, salvo pequeas diferencias por el
redondeo de decimales (y que a efectos prcticos no tienen mayor importancia).
Si sumamos las Sumas de Cuadrados de filas y de columnas veremos que esta suma no
es igual a la Suma de Cuadrados total; la variabilidad del total de las puntuaciones no se
explica solamente por la variabilidad de las filas (diferencias entre los alumnos) y de las
columnas (diferencias entre los profesores); nos queda la variabilidad debida a la interaccin
entre filas y columnas (alumnos y profesores). A esta fuente de variacin se le denomina
residual (tambin interaccin, resto), y es la que nos queda cuando eliminamos la
variabilidad debida a las diferencias sistemticas de filas y de columnas. Esta varianza,
aleatoria y no controlada, va a ser el trmino de comparacin de las otras dos varianzas.
3 Grados de libertad
de las filas
de las columnas
de la interaccin
del total
f-1=
c-1=
(f-1)(c-1)=
N-1=
(6-1)
(4-1)
(5 x 3)
(24-1)
= 5
= 3
= 15
= 23
4 Tabla de resultados
En la tabla apropiada [3] vamos poniendo los resultados. Al consultar las tablas de la
razn F nos fijaremos en los grados de libertad del numerador (de las filas y de las columnas)
y del denominador (de la interaccin). Esta es la norma general, pero en este caso, muestras
relacionadas, esta norma puede variar como indicaremos al final, en el apartado
observaciones sobre los grados de libertad.
origen de la
variacin
SC
numerador
gl
denominador
filas
(alumnos)
84.19
columnas
(profesores)
7.18
interaccin
24.58
15
CM = SC/gl
Varianza (2)
= /
84.19
16.84
5
7.18
115.95
= 2.39
3
24.58
15
total
= 16.84
1.64
2.39
1.64
interaccin
= 10.27
< .01
= 1.46
> .05
(no sign.)
= 1.64
23
Tabla 3
5 Interpretacin
Cuando se mide en varias veces sucesivas a los mismos sujetos (y siempre que
tengamos muestras relacionadas) como es frecuente en muchos diseos experimentales (o en
estudios exploratorios), estas medidas estn correlacionadas; en este caso bajan los cuadrados
medios del trmino del error (el denominador de la razn F) y se obtiene con mayor facilidad
un valor de F significativo. Un supuesto implcito en este modelo (medidas repetidas), para
que los valores de F con los grados de libertad especificados antes sean vlidos (es decir, que
correspondan a la probabilidad indicada en las tablas), es la condicin denominada de
esfericidad, que viene a decir que las covarianzas entre cada par de tratamientos son las
mismas (de ocasin a ocasin el cambio es idntico)7.
8 Pueden verse las frmulas en diversos autores (por ejemplo, Girden, 1992:19; Kirk: 1995:281; Ximnez y San
Martn, 2000:42); Kirk es el que expone de manera ms sencilla cmo calcular a partir de la matriz de covarianzas
(tambin nos lo da el SPSS). Ambos autores repiten la recomendacin de utilizar como grados de libertad 1 y N-1 como
medida de seguridad, aunque esta recomendacin puede resultar muy conservadora. Una explicacin de estos coeficientes
puede verse tambin en Llobell, Fras y Garca (1996:158) y en Garca, Fras y Llobell (1999).
10
SC columnas
SC total
filas =
SC filas
En nuestro ejemplo:
[1]
[2]
SC total
columnas
7.18
= .248 y 2 = .06
115.95
filas =
84.19
= .726 y 2 = .53
115.95
12 Las frmulas de 2 pueden verse en muchos textos, como Ximnez y San Martn (2000:46).
13 Este coeficiente eta cuadrado parcial correspondiente a las columnas (variable independiente) lo calcula el SPSS
como parte del output.
11
parcial =
SC columnas
SC columnas + SC error
[3]
7.18
= .226
7.18 + 24.58
rcc =
CM filas CM error
CM filas
[4]
rcc =
CM filas CM error
CM filas + (k 1)CM error
[5]
rff =
CM columnas CM error
CM columnas
[6]
14 Tomamos las frmulas de Guilford y Fruchter (1973) y de Nunnally y Bernstein (1991) pero podemos
encontrarlas en muchos textos.
12
Como podemos ver las frmulas de la fiabilidad o consistencia interna de las filas [6]
son iguales a las de las columnas [4], substituyendo CMf por CMc
En este ejemplo lo que nos interesa es el clculo de fiabilidad (grado de acuerdo) de
todos los profesores (las columnas); queremos comprobar en qu grado establecen diferencias
entre los alumnos de manera consistente.
La fiabilidad de los profesores es en este caso:
rcc =
16.84 1.64
16.84
= .903
13
Explicamos con ms detalle esta relacin por el inters que tiene la fiabilidad tanto en
psicometra (fiabilidad de los tests) como en muchos planteamientos experimentales: nos
puede interesar verificar la consistencia o fiabilidad de una serie de jueces cuando evalan
una serie de sujetos u objetos. Posiblemente la fiabilidad, en su sentido ms habitual
(coeficientes de consistencia interna referidos a tests y escalas) se entiende mejor a travs del
anlisis de varianza.
Para entender el concepto de fiabilidad en este contexto es til la analoga con el
concepto de la unanimidad de unos jueces evaluando (o con ms propiedad ordenando o
clasificando de ms a menos) a una serie de sujetos.
Para ordenar o
diferenciar bien
hace falta:
Los jueces son los tems de un test (y aqu est la analoga, en pensar que los tems van
a juzgar a una serie de sujetos): todos los tems-jueces participan del mismo criterio (es decir
miden lo mismo), y tenemos este resultado (tabla 4):
sujetos
1
2
3
4
5
6
medias (y ) de los
tems (columnas)
1
2
1
3
4
5
6
3.5
1.707
2
2
1
4
3
5
6
3.5
1.707
tems
3
4
1
2
2
1
4
3
3
4
5
5
6
6
3.5
3.5
1.707
1.707
5
2
1
3
4
5
6
3.5
1.707
6
1
2
4
3
5
6
3.5
1.707
medias de los
sujetos (filas)
1.67
1.33
3.50
3.50
5.00
6.00
Tabla 4
Qu vemos en estos resultados:
a) Las medias de los tems (columnas) son semejantes (idnticas en este caso);
b) Las medias de los sujetos (filas) son muy distintas.
Adems vemos que las correlaciones entre los tems-jueces son altas o al menos claras:
coinciden en asignar puntuaciones altas o bajas a los mismos sujetos (los sujetos 1 y 2
puntan bajo en todos los tems, los sujetos 3 y 4 puntan en el centro de la escala en todos
los tems, y los sujetos 5 y 6 puntan alto en todos los tems).
Es claro que sin un suficiente grado de acuerdo en los jueces o sin suficientes
diferencias entre los sujetos, no se daran estas relaciones. Los coeficientes de fiabilidad
vienen a expresar el grado de relacin global entre los jueces (por eso se denominan de
consistencia interna entre los tems o jueces). Es ms, sin diferencias entre los evaluados
14
Conclusin: los tems (que son los jueces) tienen un alto de acuerdo ordenando o
diferenciando a los sujetos, estableciendo diferencias con el mismo criterio; las columnas
(tems) son fiables cuando clasifican a las filas. De este grado de acuerdo (comprobado)
deducimos que miden lo mismo. Aunque refirindonos a los tems de tests y escalas, de la
mera relacin entre los tems (que si es alta desembocar en un coeficiente de fiabilidad alto)
no podemos sin ms concluir que los tems miden lo mismo (hacen falta consideraciones
conceptuales sobre la formulacin de los tems; los sujetos pueden quedar ordenados de
manera semejante en todos los tems y a pesar de eso es posible que las formulaciones de los
tems no reflejen con nitidez un mismo rasgo bien definido).
Esta suficiente grado de acuerdo de los tems (expresin un tanto impropia tratndose
de tems) es lo que cuantificamos mediante el coeficiente de Cronbach, pero podemos
llegar al mismo resultado con los coeficientes ya vistos y que son posteriores al anlisis de
varianza. Lo que sucede es que si lo que queremos es calcular la fiabilidad de un test, las
frmulas habituales de la fiabilidad son ms cmodas que el anlisis de varianza.
Situacin 2
Los jueces son unos sujetos que con idntico criterio (utilidad, eficacia, etc.) valoran
una serie de tems: mtodos, actividades, profesores, etc.
Tenemos este resultado hipottico (tabla 5):
tems
sujetos
1
2
3
4
5
6
medias (y ) de los
tems (columnas)
1
2
1
2
2
1
1
1.50
.50
2
6
6
6
5
5
6
5.67
.47
3
4
3
4
3
4
4
3.67
.47
4
4
4
3
4
5
3
4.00
.63
5
6
6
6
6
6
6
6.00
.00
6
1
2
1
1
1
2
1.33
.47
medias de los
sujetos (filas)
3.83
3.67
3.67
3.50
3.67
3.67
Tabla 5
Esta situacin ejemplifica un modelo potencialmente muy til de investigacin
mediante el anlisis de varianza para muestras relacionadas.
Qu vemos ahora:
a) Las medias de los sujetos son muy parecidas unas a otras, apenas hay diferencias;
b) Las medias de los tems son muy desiguales;
Conclusin: tenemos algo parecido a la tabla anterior [4], pero al revs: ahora son los
sujetos quienes muestran un gran acuerdo en cmo valoran los tems (actividades,
experiencias, profesores, etc.). Las medias de los sujetos son muy parecidas, pero las de los
tems son muy distintas, y son los tems los que quedan ordenados en una jerarqua clara.
Ahora el concepto de fiabilidad, de consistencia interna, lo aplicamos a los sujetos.
En la primera situacin los tems (las columnas) ordenan, clasifican, etc., a los sujetos
(filas) de manera consistente; en la segunda situacin son los sujetos (filas) quienes ordenan a
15
las columnas, valoran las filas con bastante unanimidad en el criterio establecido (eficacia,
agrado, etc.).
Los coeficientes de fiabilidad (homogeneidad, consistencia interna) expresan en qu
grado las columnas (tems de un test) miden lo mismo15 y diferencian a los sujetos que son
distintos en aquello que tienen en comn los tems (frmulas del coeficiente de Cronbach,
coeficientes de Kuder-Richardson). Y a la inversa: se puede calcular la fiabilidad de los
sujetos (las filas) cuando ordenan los tems (las columnas).
Estos coeficientes de fiabilidad, de las filas ordenando a las columnas y de las
columnas ordenando a las filas, son los que calculamos a partir de los resultados del anlisis
de varianza para muestras relacionadas (relacionadas porque los sujetos son los mismos en
todas las condicioneso en todos los tems).
En cualquier caso la fiabilidad tiende a ser alta:
a) Cuando los jueces son consistentes, participan del mismo criterio;
b) Cuando los jueces son muchos (se minimizan las inconsistencias)
c) Cuando los sujetos (u objetos) juzgados son muy diferentes entre s (es ms fcil
ordenarlos).
Esta grado de acuerdo o consistencia interna se manifiesta en las correlaciones entre los
jueces (como entre los tems de un test); la correlacin implica diferencias sistemticas en los
sujetos u objetos evaluados.
15 La expresin usual miden lo mismo no es exacta; lo que cuantifican estos coeficientes es en qu grado los tems
estn relacionados, y esta relacin inter-tem nos confirma (o deducimos) que de alguna manera miden lo mismo, expresan el
mismo rasgo. Tambin puede suceder que tengamos una fiabilidad alta con tems que claramente no miden el mismo rasgo
(con criterios conceptuales) pero que estn claramente relacionados entre s; siempre es necesaria una evaluacin cualitativa.
16
5.2.3. Cuando las dos razones F (de las filas y de las columnas) son estadsticamente
significativas
En cualquiera de estos planteamientos podemos encontramos con que las dos razones F
(de las filas y de las columnas) son significativas (superiores a lo que podemos juzgar como
aleatorio), aunque por lo general (no siempre), cuando tenemos este resultado, una de las
razones F y uno de los coeficientes de fiabilidad suelen ser apreciablemente mayores que los
otros. Aun as este resultado puede desconcertar: Pueden simultneamente clasificar,
diferenciar, ordenar las filas a las columnas y las columnas a las filas?
Vamos a pensar en una situacin de fcil comprensin: los alumnos de una clase (filas)
evalan a sus profesores (columnas). Un resultado ideal sera que las diferencias provengan
sobre todo de que los profesores son distintos (y son as vistos por los alumnos) y no de que
los alumnos son distintos en su manera de evaluar. En este caso tendramos la F de las
columnas (profesores) significativa y la fiabilidad de las filas (alumnos) alta: los alumnos
distinguen bien unos profesores de otros16.
Imaginemos que las dos razones F son significativas: los profesores son distintos y
tambin los alumnos son distintos en su forma de evaluar, en ambos casos sus varianzas son
superiores a lo que podemos encontrar por azar. Este resultado posible Implica
contradiccin? Es interpretable?
Un resultado as es posible, no es contradictorio y es interpretable. Lo que sucede es
que los resultados que obtenemos y las interpretaciones que hacemos no pueden encerrarse en
un s o un no, en un blanco o negro. Es fcil verlo con un ejemplo muy simplificado.
Vamos a suponer que dos alumnos evalan a dos profesores en una escala de 1 a 6 en
un rasgo cualquiera. Un profesor es mejor que el otro a juicio de los dos alumnos, pero los
dos alumnos tienen un modo distinto de evaluar:
Alumno benvolo:
Alumno crtico:
Profesor 1
6
2
Profesor 2
5
1
Alumno benvolo. Un alumno califica al mejor profesor con un 6 y al peor profesor con
un 5. Aunque distingue entre los dos profesores, este alumno tiende a juzgar con
benevolencia; le gustan los dos profesores, al menos los evala bien, aunque uno le gusta ms
que el otro.
Alumno crtico. El otro alumno califica al mismo mejor profesor con un 2 y al otro
profesor, que a su juicio es tambin peor, con un 1. Estima que un profesor es mejor que el
otro, pero califica bajo a los dos; no le gusta ninguno de los dos, pero considera que uno es
peor que el otro.
En un caso as (en un ejemplo real tendramos ms alumnos) las dos razones F van a ser
significativas: los alumnos son consistentes cuando ordenan a los profesores segn su calidad
(por eso la F de los profesores es significativa), pero ellos tambin son sistemticamente
distintos en su forma de evaluar. La fiabilidad de los alumnos sera alta en este caso porque
16 En este caso (cuestionario de evaluacin del profesorado) habra que calcular la fiabilidad de cada tem; tambin
se podra calcular la fiabilidad de subconjuntos de tems homogneos (que describen el mismo rasgo) sumados en un total,
como si se tratara de un test convencional.
17
coinciden en sealar cules son los mejores y los peores profesores segn su juicio, aunque
no coincidan en las valoraciones absolutas (tienden a coincidir en el orden)17.
Cuando en un cierto grado se dan estas diferencias entre los alumnos, su razn F es
significativa, es decir, la diversidad entre los alumnos (su varianza) es superior a lo
meramente aleatorio: las diferencias entre los alumnos no son casuales, es que evalan de
distinta manera. Pero esto no quiere decir que no diferencien adecuadamente a unos
profesores de otros: coinciden en el orden en que sitan a sus profesores; en identificar al
menos, segn su propio juicio, a los mejores y peores profesores. Esto es lo que significa una
fiabilidad alta de los alumnos: coincidencia bsica en diferenciar a unos profesores de otros;
en este sentido decimos que los alumnos son unnimes, aunque naturalmente esta unanimidad
no lo es en sentido propio (la fiabilidad admite grados; en un caso como ste, si la fiabilidad
es alta, diramos que hay suficiente convergencia o grado de acuerdo en sus juicios).
Este ejemplo es aplicable a cualquier otra situacin, y algo anlogo sucede con la
fiabilidad de los tests (y exmenes). Los tems, cuando se suman en una puntuacin total,
pueden diferenciar adecuadamente a los sujetos; unos tienden a puntuar sistemticamente ms
alto en todos ellos, otros ms bajo, etc.; pero esto no quiere decir que los tems sean de
parecida dificultad. Una fiabilidad alta en un test querra decir que los tems estn
bsicamente de acuerdo (como si fueran jueces) cuando diferencian (ordenan, con ms
propiedad) a unos sujetos de otros. En el apartado siguiente aclaramos ms, con un ejemplo,
la relacin entre el anlisis de varianza y la fiabilidad de tests y escalas.
5.2.4. Anlisis de varianza para muestras relacionadas y el coeficiente de Cronbach
17 Un coeficiente de correlacin alto entre dos elementos quiere decir que los sujetos los ordenan de manera
semejante, pero no que tengan valores absolutos semejantes.
18 Un tratamiento ms completo de la fiabilidad de los tests en Morales (2008, captulo 6).
19 La relacin entre fiabilidad y anlisis de varianza la puso de relieve ya hace aos Hoyt (1941, 1952) y est bien
explicada en Rosenthal y Rosnow (1991:55) y en Nunnally y Bernstein (1994:274)
18
tems
sujetos
a
b
c
d
media
desviacin
n 1
6
6
3
4
4.75
1.29
n 2
6
5
3
3
4.25
1.29
n 3
5
5
2
2
3.50
1.50
n 4
4
4
3
1
3.00
1.225
n 5
6
3
4
1
3.50
1.80
n 6
6
5
4
2
4.25
1.48
total
33
28
19
13
23.25
7.758
Tabla 6
Estos son los datos que solemos tener cuando analizamos un test: el total de cada sujeto
y la media y desviacin tpica de cada tem.
Vamos a calcular en primer lugar el coeficiente de Cronbach con la frmula usual:
= (
k
k 1
) (1-
2i
2t
)= (
12.509
60.1865
) =.95
Hacemos ahora, con los mismos datos, un anlisis de varianza para muestras
relacionadas con estos resultados (tabla 7):
origen de la
variacin
tems
Sujetos
tems x sujetos
Total
Suma de
Cuadrados
8.375
40.125
10.125
58.625
Grados de
libertad
5
3
15
23
Tabla 7
Cuadrados
F
medios
1.675
2.482 p>.05
13.375
19.81 p <.05
.675
La varianza significativa es la que corresponde a los sujetos; son los sujetos los que
difieren entre s y no los tems entre s; ahora bien, si los sujetos difieren entre s es porque los
tems establecen diferencias entre los sujetos como si se tratara de jueces cuyas opiniones
coinciden (en este ejemplo, tabla 6, puede verse a simple vista).
Ya sabemos cmo cuantificar esta fiabilidad de los tems (de las columnas en este caso,
frmula [4]):
CMfilas - CMerror 13.375 .675
rcc =
=
= .95
CM filas
13.375
Hemos llegado al mismo valor del coeficiente de Cronbach. Esta fiabilidad de los
tems es lo que denominamos consistencia interna. Si los tems fueran unos jueces diramos
que los tems juzgan de manera semejante a los sujetos; de esta consistencia interna
deduciremos que miden lo mismo, aunque en esta deduccin puede haber otras fuentes de
error en las que no entramos aqu20.
20 Esta consistencia interna es puramente emprica; de hecho los tems ordenan de manera semejante a los sujetos,
19
En el ejemplo que nos ha servido para introducir el anlisis de varianza para muestras
relacionadas (o emparejadas) tenamos en las columnas (variable independiente) cuatro
profesores que han calificado a los mismos alumnos (filas). El inters en este ejemplo era
verificar que no haba diferencias significativas entre los profesores y ver la fiabilidad o
grado de acuerdo de los profesores al evaluar a los mismos alumnos. Ahora presentamos otro
ejemplo en el que el inters va en otra direccin: verificar las diferencias entre las columnas
(condiciones experimentales) y la fiabilidad o grado de acuerdo de los sujetos (filas)
diferenciando unas columnas de otras. Este ejemplo es semejante al presentado en la situacin
1 (apartado 5.2.2) y lo exponemos con cierto detalle y con un caso real porque puede sugerir
otros planteamientos parecidos.
En una residencia de estudiantes (chicas) se pregunta a 10 residentes por sus
preferencias a la hora de realizar 7 tareas distintas (ayudar en la limpieza de los baos, la sala
de estar, sala de estudio, atender el telfono, barrer el pasillo, ayudar en lavadero y en la
cocina).
Las respuestas valorativas van desde 1 (no me gusta nada) a 6 (me gusta mucho)21. En
la tabla 8 figuran las respuestas de las residentes, la media y desviacin tpica (de la muestra,
dividiendo por N) de cada columna o tarea y el total de cada alumna al sumar todas sus
respuestas.
residentes
1. Bao
2. Sala de
estar
3. Sala de
estudio
1
2
3
4
5
6
7
8
9
10
1
1
3
1
3
2
1
1
1
1
1.5
.806
2
2
1
2
2
1
2
2
4
2
2
.775
3
3
1
2
1
1
2
2
3
2
2
.775
M columnas
columnas
4.
Telfono
5
6
5
3
5
1
3
4
5
4
4.1
1.375
Tabla 8
5. Pasillo
6.
Lavadero
7. Cocina
Total
filas
5
1
5
2
2
2
5
2
6
5
3.5
1.113
3
2
4
4
4
3
4
6
2
4
3.6
1.345
2
6
4
4
3
2
3
3
6
4
3.7
1.345
21
21
23
18
20
12
20
20
27
22
pero esto no quiere decir necesariamente que conceptualmente midan un mismo rasgo bien definido; un grupo de nios de
diversas edades pueden quedar ordenados de manera semejante en peso y altura, sin que esto quiera decir que peso y altura
midan lo mismo.
21 De un trabajo de Sara Lozano, alumna de 2 de Psicopedagoga, curso 1998-1999
20
SC
numerador
gl
denominador
CM = SC/gl
(varianza)
F crtico
( = .05)
18.629
2.070
1.401
0.211
2.059
65.086
10.848
7.343
0.000
2.272
79.771
163.486
54
69
1.477
Tabla 9
Observamos que:
La F de las filas no es estadsticamente significativa; las diferencias entre las alumnas
estn dentro de lo aleatorio.
Aqu conviene tener claro en qu no difieren las alumnas: no difieren significativamente
en sus totales (si sumamos a cada una todas sus respuestas) o en sus medias. A simple vista se
detectan diferencias que parecen grandes (la ms baja es 12 y la ms alta es 27) pero con tan
pocos sujetos cualquier diferencia entre dos sujetos tiene una probabilidad de ocurrir
aleatoriamente superior al 5%. En cualquier caso esta F de las filas no tiene aqu inters
interpretativo; nuestro inters est en verificar si hay diferencias entre las columnas (entre las
tareas)..
La F de las columnas s es estadsticamente significativa; entre las tareas hay
diferencias superiores a lo que podemos esperar por azar.
Tenemos el problema de la condicin de esfericidad que no hemos comprobado (s se
comprueba en el SPSS) y que no suele cumplirse. En este caso ya hemos visto que los grados
de libertad ms seguros y conservadores al consultar las tablas de la razn F son 1 y N-1 (en
este caso 1 y 9). Con un nivel de confianza de = .05 y grados de libertad 1 y 9 vemos en las
tablas que el valor de F que necesitamos es de 5.12 y el nuestro (7.343) es superior por lo que
podemos rechazar la Hiptesis Nula y afirmar que existen diferencias significativas entre las
tareas.
6.2. Coeficientes de fiabilidad y 2
Si las tareas difieren entre s es porque hay un cierto grado de acuerdo entre las
residentes al valorar de distinta manera las tareas que tienen que compartir; este grado de
acuerdo es la fiabilidad de las filas (frmula [6]):
rff =
CM columnas CM error
10.848 1.477
=
= .86
CM columnas
10.848
Podemos afirmar que el grado de acuerdo de las residentes al diferenciar unas tareas de
otras es apreciablemente grande.
La fiabilidad de las columnas (tareas) diferenciando a las filas (sujetos) no tiene
especial inters pero es ilustrativo calcular este coeficiente (frmula [4])
rcc =
CM filas CM error
2.070 1.477
=
= .29
CM filas
2.070
21
Obviamente es un coeficiente muy bajo; lo que tiene inters es caer en la cuenta de cul
hubiera sido nuestra interpretacin si la fiabilidad de las columnas al diferenciar a las filas
hubiera sido alta. Este coeficiente es el mismo coeficiente de Cronbach; si hubiese sido
relativamente alto estaramos ante un test o escala de actitud de servicio o de gusto por este
tipo de tareas en general, pero vemos que no es ste el caso.
Los coeficientes 2 son coherentes con los resultados vistos (frmulas [1] y [2]
eliminando la raz cuadrada):
Proporcin de varianza en la variable dependiente (respuestas de los sujetos) explicada
por diferencias:
entre las tareas:
2
columnas
=
2filas =
SC columnas
65.086
=
= .398
SC total
163.486
SC filas
SC total
65.086
= .114
163.486
Casi el 40% de la varianza est explicado por diferencias entre las tareas y poco ms del
11 % por diferencias entre los sujetos. El coeficiente 2parcial (frmula [3] sin la raz cuadrada)
es igual a .449: aproximadamente un 45% de la varianza (diferencias en las respuestas) queda
explicado por las diferencias entre tareas teniendo en cuenta solamente estas diferencias entre
tareas y prescindiendo de los errores de medicin (que en este caso equivalen a las
peculiaridades individuales manifestadas en las respuestas).
6.3. Contrastes posteriores y representacin grfica
En este caso hemos hecho los contrastes posteriores (de Tuckey, con el SPSS). Las
cuatro tareas con medias mayores (telfono, cocina, lavadero y pasillo) no se diferencian
significativamente entre s, pero estas cuatro tareas s tienen diferencias estadsticamente
significativas con las tres tareas con medias ms bajas (sala de estar, sala de estudio y bao)
que entre s tampoco difieren. Tenemos dos bloques de tareas claramente diferenciados; con
ms sujetos s podran haber aparecido ms diferencias significativas.
Una manera de presentar estos resultados es como aparecen en la figura 1: se ponen por
orden las tareas y sus medias y se subrayan las que no difieren entre s.
4. Telfono
7. Cocina
6. Lavadero
5. Pasillo
2. Sala de estar
3. Sala de estudio
1.Bao
4.1
3.7
3.6
3.5
2.0
2.0
1.5
Figura 1
Aunque no se hagan los contrastes posteriores s es til presentar alguna figura
semejante en la que aparezcan las tareas ordenadas segn sus medias. La razn F de las tareas
que es estadsticamente significativa y la alta fiabilidad o grado de acuerdo de los sujetos
diferenciando unas tareas de otras ya es suficiente para hacer una interpretacin de los
resultados.
En este ejemplo los sujetos han valorado el gusto por una serie de tareas; es fcil intuir
la utilidad de este modelo de anlisis de varianza; en vez de tareas podran ser otras variables
de inters pertenecientes al mismo mbito conceptual para que tenga sentido la comparacin
o establecer una jerarqua (experiencias, valores, motivaciones, etc.). Tambin puede tratarse
Anlisis de varianza para muestras relacionadas
22
Una cautela. Al sealar los datos (dispuestos en columnas) hay que seleccionar tambin
una columna adicional a la izquierda de la tabla (que se puede intercalar y se deja en blanco)
porque esta primera columna se interpreta como rtulos (que en las filas no suelen interesar).
SPSS. En el SPSS este modelo de anlisis de varianza se encuentra en analizar y all en
modelo lineal general, en medidas repetidas. Este anlisis de varianza es ms complejo y hay
que acudir a manuales especficos (como Pardo Merino y Ruz Daz, 2005; Ximnez y San
Martn (2000). El SPSS no presenta la tabla de resultados convencional por lo que, si interesa
presentar esta tabla de resultados, se puede hacer fcilmente con EXCEL. El SPSS calcula los
contrastes posteriores pero no los coeficientes de fiabilidad (muy sencillos, como hemos
visto, a partir de la informacin de la tabla de resultados).
8. El anlisis de varianza para muestras relacionadas en Internet.
DOWNIE, N.M. y HEATH, R.W., (1971). Mtodos estadsticos aplicados. Madrid: Ediciones
del Castillo
GARCA PREZ, J.F.; FRAS NAVARRO, M.D. y LLOBELL, J. PASCUAL (1999). Los diseos de
la experimentacin experimental, comprobacin de hiptesis. Valencia: C.S.V.
GIRDEN, ELLEN R., (1992). Anova repeated measures. Quantitative Applications in the Social
Sciences. Newbury Park & London: Sage
23
ndice
1. Planteamiento general y conceptos previos.........................................................
1.1. Clasificacin de los sujetos en dos categoras .............................................
1.2. Qu pretendemos comprobar........................................................................
1.3. Importancia de la interaccin.......................................................................
1.4. Caractersticas de la muestra .......................................................................
1.5. Nmero de sujetos en cada clasificacin......................................................
1.5.1. Nmero idntico de sujetos en cada clasificacin..............................
1.5.2. El nmero de sujetos en trminos absolutos ......................................
1.6. Importancia del tipo de categoras de clasificacin.....................................
3
3
3
4
5
5
6
7
7
2. Mtodo.................................................................................................................
2.1. Disposicin de los datos ...............................................................................
2.2. Visin global del proceso .............................................................................
2.3. Clculos previos............................................................................................
2.4. Clculos propios del anlisis de varianza .....................................................
2.4.1. Sumas de Cuadrados ...........................................................................
2.4.2. Grados de libertad ...............................................................................
2.4.3. Varianzas o Cuadrados Medios...........................................................
2.4.4. Comparacin o contraste de varianzas (razn F) ................................
2.4.5. Resultados finales: tabla de resultados................................................
2.4.6. Interpretacin ......................................................................................
2.4.7. Resumen del procedimiento ................................................................
8
8
9
10
11
11
12
12
13
14
14
15
15
16
16
17
18
19
22
24
24
24
26
28
29
29
20 minutos B1
40 minutos B2
una hora
B3
Tabla 1
En cada clasificacin tenemos el mismo nmero de sujetos. Con esta misma disposicin
de los datos se pueden visualizar muchos posibles diseos experimentales utilizando otros
criterios de clasificacin.
1.2. Qu pretendemos comprobar
Lo que pretendemos comprobar es en qu grado las diferencias que encontremos en la
variable dependiente (la que hemos medido, en este caso puede ser rendimiento escolar) se
explican por las diferencias entre las actividades, o por las diferencias entre los tiempos, o por
alguna combinacin actividad-duracin.
Analizamos por lo tanto tres posibles fuentes de diferencias:
1 Con slo dos criterios de clasificacin, el planteamiento ms frecuente, el mtodo que proponemos es muy sencillo,
sin ms ayuda que una calculadora con la media y desviacin tpica programadas; adems en procesos de aprendizaje ayuda
a entender lo que estamos haciendo. Con ms de dos criterios de clasificacin se puede adaptar y utilizar el mismo
procedimiento pero es preferible acudir directamente a programas de ordenador; los resultados son fciles de interpretar si se
ha aprendido antes a resolver e interpretar el planteamiento con dos criterios de clasificacin. El anlisis de varianza factorial
se puede tambin hacer con EXCEL, SPSS y programas disponibles en Internet (mencionamos algunos en el Anexo).
3 Por ejemplo Glass y Stanley (1974:439); Escotet (1980:84-85); Linton, Gallo y Logan (1975:131).
4 Linton, Gallo y Logan (1975:131). Cuando los dos factores tienen idntico nmero de niveles (como en el diseo
denominado cuadrado latino que no explicamos aqu) hay una frmula especfica para estimar el valor de las puntuaciones
que nos faltan; puede verse en Tejedor (1984:236).
Nmero de sujetos
entre
13 y 32
entre
11 y 26
entre
9 y 22
entre
7 y 18
entre
6 y 15
entre
5 y 12
Tabla 2
Para detectar con seguridad diferencias pequeas (y por lo general de menor inters) son
necesarios muchos ms sujetos5.
1.6. Importancia del tipo de categoras de clasificacin
Tratando de diseos factoriales es importante recordar que las categoras de
clasificacin (variables independientes) pueden ser:
a) Fijas (escogidas segn criterio del investigador),
b) Aleatorias (escogidas aleatoriamente de una poblacin mayor);
c) Mixtas (una categora fija y otra aleatoria).
Del hecho de que las categoras sean fijas o aleatorias:
1. No depende el mtodo que vamos a seguir, que es el mismo;
2. S depende la generalizacin de las conclusiones, que ser mayor con categoras
aleatorias. Con categoras fijas, las conclusiones son aplicables en principio a las
categoras empleadas.
3. S va a depender el denominador de la razn F empleado en cada caso, como
veremos despus (en la tabla 4).
En el caso de categoras fijas (el ms frecuente) el denominador va a ser siempre el
mismo que ya hemos visto en el anlisis de varianza para varias muestras independientes (es
decir, los cuadrados medios dentro de los grupos), por lo que esta distincin entre tipos de
categoras no es en principio especialmente importante. Se trata sin embargo de conceptos que
conviene recordar y que a la vez sugieren posibilidades de investigacin. En investigacin
educacional (y de otro tipo) podemos tener categoras aleatorias si tenemos, como factor o
6 Los datos los tomamos del ejemplo que presentan Guilford y Fruchter (1973) para explicar este modelo de anlisis
de varianza (el procedimiento que seguimos aqu es distinto, semejante a los ya vistos); modificamos la designacin de las
variables para utilizar trminos que nos resultan ms familiares (mtodos y profesores).
profesores
(factor B)
Media
desviacin
MA1B3 = 7
1.414
9
6
8
8
9
MA1B4 = 8
1.095
mtodos (factor A)
A2
4
1
5
2
3
MA2B1 = 3
1.414
6
6
2
3
8
MA2B2 = 5
2.191
9
4
8
4
5
MA2B3 = 6
2.098
7
8
4
7
4
MA2B4 = 6
1.673
MA3B1 = 2
1.095
3
1
1
2
3
MA3B2 = 2
.894
6
4
3
8
4
MA3B3 = 5
1.789
6
5
7
9
8
MA3B4 = 7
1.414
MA1 = 6
MA2 = 5
MA3 = 4
A1
6
4
2
6
2
Profesor B1
Media
desviacin
MA1B1 = 4
1.789
8
3
7
5
2
MA1B2 = 5
2.280
Profesor B2
Media
desviacin
7
6
9
8
5
Profesor B3
Media
desviacin
Profesor B4
A3
4
2
2
1
1
Medias de B
MB1 = 3
MB2= 4
MB3 = 6
MB4 = 7
Media y total
Mt = 5
t = 2.4966
Tabla 3
2.2. Visin global del proceso
Los clculos que vamos a hacer los dividimos en tres tipos: clculos previos, anlisis de
varianza en sentido propio y anlisis complementarios.
1 Clculos previos
Van a ser los mismos que en otros procedimientos anlogos (medias, desviaciones,
varianza de medias)
El clculo de las desviaciones tpicas de las medias puede parecer poco usual, pero ya
hemos visto que simplifica mucho las operaciones y ahorra tiempo si no se utiliza
directamente un programa de ordenador. Ya hemos indicado adems en otra ocasin que
propiamente no se trata de calcular desviaciones o varianzas de medias, sino de todos los
sujetos, pero asignndoles como puntuacin individual la media de su grupo; como los grupos
son de idntico tamao basta calcular la desviacin de las medias. Estos clculos se hacen con
rapidez con una calculadora corriente con programacin estadstica o utilizando una hoja de
clculo.
10
11
La desviacin tpica de todos los datos (de N) en realidad no nos es necesaria; es til
para calcular la suma de cuadrados total, que es igual a la suma de las otras sumas de
cuadrados. Esta suma de cuadrados total nos permite comprobar que las otra sumas de
cuadrados estn bien hechas.
La media total (de N = 60; media de las medias de A o de B) tampoco nos es necesaria;
es til si vamos a calcular la desviacin tpica de los totales siguiendo el procedimiento
explicado en el Anexo III.
2 Clculo de varianzas de medias
Estas varianzas (calculadas dividiendo por N, no por N-1) nos van a simplificar el
clculo de las sumas de cuadrados (en realidad ya sabemos que se trata de varianzas
calculadas en toda la muestra, pero asignando a cada sujeto no la puntuacin obtenida sino la
media de su grupo; al tratarse de grupos de idntico tamao nos basta calcular las varianzas de
las medias).
1) Varianza de las medias de los niveles del factor A 2MA = .8162=
(mtodos, tres medias):
2) Varianza de las medias de los niveles del factor B 2MB = 1.5812 =
(profesores, cuatro medias):
0.8858
2.50
3) Varianza de las medias de todas las combinaciones AxB 2MAxB = 1.8712 = 3.50
(doce medias)
Si tenemos desde el principio una visin global del proceso, podemos ir directamente al
clculo de las Sumas de Cuadrados, que veremos enseguida. Los resultados se pueden ir
poniendo directamente en la tabla de resultados (tabla 5). En casi todos los casos se trata de
multiplicar las varianzas de las series de medias por el nmero total (N) de sujetos.
2.4. Clculos propios del anlisis de varianza
2.4.1. Sumas de Cuadrados (SC)
A partir de los datos que ya tenemos vamos a hacer todos los clculos del anlisis de
varianza que aparecern en la tabla 5 (tabla de resultados), pero que iremos presentando por
partes. En la prctica, y segn vamos calculando las varianzas necesarias, podemos ir
directamente a la tabla de resultados, pues las operaciones que vamos a hacer son muy
sencillas (resumidas en la tabla 6).
Para calcular las diversas varianzas (o Cuadrados Medios, CM) necesitamos calcular el
numerador (o Suma de Cuadrados) y el denominador (o Grados de Libertad, gl).
Las Sumas de Cuadrados las calculamos multiplicando las varianzas (las desviaciones ya
calculadas elevadas al cuadrado) por el nmero total de sujetos, ya que todos ellos
contribuyen a todas las varianzas (en este caso N = 60):
Sumas de Cuadrados (o numerador) correspondiente a la varianza de:
1. El total
SCt = N t
= (60)(2.4966)2 =
2. Factor A (mtodos)
SCA= N 2A
= (60)(.816)2 =
40
3. Factor B (profesores)
SCB = N 2B
= (60)(1.581)2 =
150
374
12
20
5. Dentro de los grupos, o residual; variabilidad dentro de los 12 subgrupos una vez
eliminada la variabilidad debida a los mtodos, a los profesores y a la interaccin
entre mtodos y profesores.
Esta varianza residual es la varianza dentro de los grupos (de todas las combinaciones
AB).
Podemos calcularla de dos maneras:
1) A partir de la suma de cuadrados del total
SCdentro = SCt - (SCA + SCB + SCAxB) = 374 - (150 + 40 + 20) =
164
Los grados de libertad van a ser el denominador de cada varianza. El determinar los
grados de libertad que corresponden a cada varianza es muy sencillo:
1. Del factor A (mtodos)
2. Del factor B (profesores)
3. De la interaccin (AxB)
4. Dentro de los grupos
5. Del total
A-1 =
B-1 =
(A-1)(B-1) =
N -k =
N-1=
(3-1) =
(4-1) =
(3-1)(4-1) =
(60 12) =
(60-1) =
2
3
6
48
59
Podemos verificar que los grados de libertad del total es igual a la suma de todos los
dems.
2.4.3. Varianzas o Cuadrados Medios (CM)
Dividiendo la Suma de Cuadrados por los Grados de Libertad tenemos las diversas
varianzas en las que hemos descompuesto la varianza total, tal como estn ya calculadas en la
7 Recordamos que la suma de las varianzas se calcula con rapidez introduciendo en la calculadora (con
programacin estadstica) todas las desviaciones tpicas; la suma de las varianzas la obtenemos en la funcin x2
13
tabla 5, y que muestra los resultados finales del anlisis de varianza. Normalmente es la nica
tabla que se presenta pues all estn los datos que permitirn interpretar las conclusiones.
Como en el caso de varias muestras independientes, si hubiramos calculado en los 12
subgrupos las desviaciones tpicas dividiendo por N-1, los cuadrados medios dentro de los
grupos (denominador de la razn F) es simplemente la varianza media de los grupos
( 2n-1 /k) .
2.4.4. Comparacin o contraste de varianzas (razn F)
14
Denominador (varianza
aleatoria), o trmino de
comparacin del numerador
CMA............................................................................
CMB ............................................................................
CMdentro en todos los casos
CMAxB .......................................................................
Los resultados finales del anlisis de varianza se ponen en una tabla, tal como lo
hacemos ahora en la tabla 5.
Origen de la
variacin
SC
numerador
gl
denominador
CM = 2 =
Factor A
(mtodos)
40
40
factor B
(profesores)
150
interaccin
AxB
20
dentro de los
grupos
164
total
374
gl
= 20
150
3
20
48
6
164
48
SC
= 50
= 3.32
F=
20
3.42
50
= 5.85
< .01
= 14.50
< .01
= .97
no sign.
3.42
3.32
3.42
= 3.42
59
Tabla 5
2.4.6. Interpretacin
15
2
MAxB
2dentro =
2t =
tabla de resultados:
Origen de la
variabilidad
Suma de Cuadrados
Grados de
libertad
Factor A
SCA = N 2MA =
A-1=
Factor B
SCB = N 2MB =
B-1=
AxB
SCAxB = N 2MAB - (SCA + SCB) =
(interaccin AxB)
error, dentro de
los grupos
SCdentro = n 2dentro =
Cuadrados
Razn F
Medios
(A-1)(B-1)
=
N-k=
N-1=
Tabla 6
3. Anlisis adicionales
16
Una razn F significativa nos indica que una determinada fuente de varianza (que
corresponde a la variable puesta en el numerador de la razn F) se relaciona con las
diferencias en la variable dependiente (la que hemos medido en los sujetos) ms de lo que
cabra esperar por azar: la variabilidad observada en la variable dependiente se puede atribuir
a las variables del numerador de la razn F. Sin embargo no es fcil comparar entre s dos F
significativas; aunque sus valores sean muy distintos tambin lo son los grados de libertad.
Con frecuencia es suficiente comprobar la proporcin de varianza atribuible a cada
variable (o a su interaccin si resulta significativa). Esto nos lo indica el coeficiente 2 o el
coeficiente 2 (sus valores oscilan entre 0 y 1).
3.1.1. Coeficiente 2
Las frmulas del coeficiente 2 estn indicadas en la tabla 7, junto con los resultados
correspondientes a este ejemplo (podemos observar que el denominador es siempre el
mismo).
Estimacin de la
proporcin de
varianza atribuible a:
Factor A
(mtodos)
2 =
SC A - (A - 1)(CM dentro )
CM dentro + SC total
[1]
2 =
Factor B
(profesores)
2 =
[2]
2 =
La interaccin
(AxB)
2 =
40 ( 2)(3.42)
3.42 + 374
150 (3)(3.42)
3.42 + 374
= .088
= .370
Tabla 7
Si algn valor de 2 es negativo se interpreta como cero.
Estas frmulas son apropiadas solamente cuando:
1 El nmero de sujetos es el mismo en cada clasificacin
2 Se trata de muestras independientes
3 En diseos o anlisis de categoras fijas (como suele ser frecuente).
En este ejemplo podemos ver que una proporcin apreciable de la varianza del factor B
(los profesores) est asociada a la variable dependiente (las puntuaciones analizadas). La
proporcin de varianza correspondiente al factor A (mtodos) es muy pequea. Estas
proporciones se comparan entre s y se interpretan mejor que si slo disponemos de los
valores de la razn F. Si este ejemplo fuera real concluiramos que la fuente importante de
varianza (de las diferencias en lo que hayamos medido) est sobre todo en los profesores, no
tanto en los diversos mtodos. Ahora podramos simplemente fijarnos en las medias de los
distintos profesores (o de los mtodos si fuera se el caso).
La proporcin de varianza que se puede atribuir a la interaccin puede considerarse
igual a cero, ya que su F correspondiente no llega a 1.
17
2 = SC x
SC total
[4]
2 (A) =
2 (B) =
2 (AxB) =
40
= .106
374
150
= .40
374
20
= .053
374
Una variante de inters de este coeficiente es eta al cuadrado parcial, que nos indica la
proporcin de varianza asociada a un factor (o a la interaccin) neutralizando la varianza
debida a otras fuentes (otros factores o su interaccin)9:
2 parcial =
SC x
SC x + SC dentro
[5]
150
= .477
150 + 164
18
quizs haya que redefinir los conceptos o ajustarlos ms. La proporcin de varianza explicada
en un estudio dado est afectada por la variabilidad (varianza) no controlada, debida a
variables extraas. Por esta razn ms que buscar valores absolutos altos, es ms til
comparar unos coeficientes con otros y comprobar cul es la importancia relativa de estas
fuentes de varianza.
3.2. Contrastes posteriores
Es frecuente limitarse a calcular los distintos coeficientes de asociacin (2, 2), pero
tambin podemos hacer los contrastes posteriores que sean de inters10.
Vamos a distinguir dos situaciones:
1) En tablas 2x2, cuando los criterios de clasificacin son solamente dos y cada uno est
dividido en dos niveles;
2) En tablas nxn, cuando al menos uno de los dos factores est dividido en ms de dos
categoras.
1 En tablas 2x2, con slo dos niveles en cada categora.
En estos casos los contrastes posteriores son innecesarios. Si por ejemplo la razn F del
factor A es estadsticamente, habr una diferencia clara entre sus dos niveles A1 y A2. Lo
mismo sucede con el otro factor. Si la interaccin es significativa, esto quiere decir que uno
de los dos niveles de un factor es mayor que el otro. En todos estos casos slo interesa
comparar dos medias entre s, y si la razn F es significativa, ya sabemos que una media es
significativamente mayor que la otra sin hacer ms contrastes (s nos puede interesar aadir el
tamao del efecto).
2 En tablas nxn, cuando tenemos al menos un criterio de clasificacin (o factor)
dividido en ms de dos niveles.
En estos casos s pueden hacernos falta los contrastes posteriores apropiados. En
algunos casos son estos contrastes los que permiten llegar a conclusiones ms interpretables:
cuando tenemos ms de dos niveles en alguno de los factores y la varianza correspondiente a
alguno de ellos o la de la interaccin es significativa, tendremos ms de dos medias y ser
importante ver dnde est la diferencia.
En este cuadro tenemos el planteamiento clsico de un anlisis de varianza, con dos
factores principales (A y B); el factor A est dividido en tres niveles y el factor B en dos
(tabla 8).
Factor B
B1
B2
medias de A
A1
A1B1
A1B2
A1
Factor A
A2
A2B1
A2B2
A2
Tabla 8
A3
A3B1
A3B2
A3
medias de B
B1
B2
Con este planteamiento obtenemos cuatro varianzas o cuadrados medios (de los dos
factores principales, A y B, de la interaccin, AxB, y del trmino del error o varianza dentro
19
de los grupos) y tres razones F al dividir las varianzas de A, B y AB por la varianza del
trmino del error (dentro de los grupos, aleatoria). Estas razones F nos dirn si son
significativas las diferencias debidas a A, a B y a AxB (o a una combinacin entre niveles de
factores).
Los contrastes posteriores que nos pueden interesar son entre dos tipos de medias:
a) Entre distintos niveles del mismo factor
b) Entre las medias del mismo nivel de un factor.
1. Diferencias entre los diversos niveles de A o de B; es decir, diferencias entre niveles
del mismo factor.
En el esquema anterior podramos comparar A1 con A2 , etc.
A veces estas comparaciones pueden ser innecesarias cuando slo tenemos dos medias
que contrastar. Si en el esquema anterior la razn F correspondiente al factor B es
significativa, esto quiere decir, sin necesidad de ms contrastes, que entre las dos medias
correspondientes a B, B1 y B2 , existe una diferencia estadsticamente significativa, porque
slo tenemos dos medias. En cambio si la razn F correspondiente al factor A es significativa,
podemos encontrar diferencias entre A1 y A2 , entre A1 y A 3 , y entre A 2 y A 3 . En este caso
s necesitaremos hacer los contrastes posteriores si nos interesa saber entre qu niveles de A
hay una diferencia estadsticamente significativa.
2 Si la varianza (cuadrados medios) correspondiente a la interaccin es
estadsticamente significativa, nos puede interesar comparar entre s diversas combinaciones
de AB.
Tenemos 6 combinaciones distintas de AB, de donde nos salen 15 posibles
comparaciones [(6 x 5)/2], aunque ya veremos que en este caso nos interesa hacer menos
comparaciones de las que es posible hacer.
3.2.1. Contraste entre las medias de niveles del mismo factor
20
q=
M1 -M 2
CM dentro
n
[6]
ayb
64
M A1 - MA2
=
= 4.83
CM dentro
3.42
20
n
3.42 son los cuadrados medios dentro (tabla 5) y 20 es el nmero de sujetos utilizados
para calcular estas medias.
21
En las tablas buscaremos el valor que corresponde a k = 3 (porque tenemos tres medias
de A) y grados de libertad = 48 [N-ab = 60- (3x4)]. En los tablas no aparecen los 48 grados de
libertad; nos quedamos con el nmero inmediatamente inferior, 40.
Para k = 3 y 40 grados de libertad vemos estos valores de q: 3.44 (.05) y 4.37 (.01); en
nuestro caso con q = 4.83 tenemos que p <.01, por lo que podemos afirmar la diferencia entre
estas medias con mucha seguridad; el que la diferencia sea grande es una cuestin distinta
(ms adelante tratamos del tamao del efecto). Si comparamos A1 con A2 o A2 con A3
tendremos que q = 2.42 y p > .05.
Una observacin sobre procedimientos alternativos.
Aqu se calcula un valor de t'; la diferencia con la frmula de q [6] es ese "x 2" que
aparece en el denominador de [7].
En este caso tendramos que calcular los valores crticos de t', como en ocasiones
semejantes, y que son:
q
Valores crticos de t' =
[8]
2
El valor de q es el que venga en las tablas (para = .05 y gl = N - ab, como antes).
6- 4
= 3.42
Aplicando los datos anteriores tenemos que t' =
3.42
x2
20
Ahora tenemos que hallar los valores crticos de t: para p = .05, t=
3.44
= 2.43
2
para p = .01, t =
4.37
= 3.09
2
CM dentro
n
[9]
En este caso, para localizar el valor de q en las tablas, tanto el valor de k (nmero de
grupos o de medias) como el de los grados de libertad son los indicados anteriormente.
22
3.2.2. Contraste entre las medias dentro del mismo nivel de un factor (cuando la
interaccin es significativa)
Factor B
mtodo 1 (B1)
(mtodos)
mtodo 2 (B2)
medias de los cursos (A)
1 (A1)
A1B1
A1B2
A1
Factor A (cursos)
2 (A2)
3 (A3)
A2B1
A3B1
A2B2
A3B2
A2
Tabla 9
mtodo 1 ( B1 )
mtodo 2 ( B2 )
A3
11 Oshima y McCarty (2000) reconocen la falta de consenso entre autores sobre cmo hacer estos contrastes cuando
la interaccin es significativa y exponen diversos enfoques.
23
Por lo general no nos interesan todas las comparaciones posibles; lo que s puede tener
inters, y es lo que tratamos aqu, es comparar solamente las medias dentro de un mismo
nivel: por ejemplo las comparaciones entre las tres B2. Dicho de otra manera, las
comparaciones que interesan son entre medias que pertenecen a la misma fila o a la misma
columna (filas y columnas son aqu los distintos niveles o subclasificaciones de cada factor).
Estas medias se denominan no confundidas (unconfounded) porque las diferencias entre
ellas se deben solamente a un factor. Si por ejemplo hay diferencias entre las medias de A1B1,
A2B1, y A3B1, estas diferencias se debern solamente a diferencias en A, porque mantenemos
constante B1.
En el mtodo expuesto aqu para hacer estas comparaciones suponemos que:
a) Hay un idntico nmero de sujetos en cada posible clasificacin;
b) Slo se van a comparar entre s medias que pertenecen al mismo nivel de un factor.
El procedimiento va ser el mismo visto antes, pero van a ser distintos el valor de n que
entra en la frmula y el nmero de medias (k) para consultar las tablas (propiamente lo que
cambia es el valor de k, que, como veremos, no va ser igual al nmero de medias, aunque
nmero de medias suele ser la expresin que viene en las tablas).
Frmulas:
Como antes, podemos hallar el valor de q y consultar las tablas de q, o podemos calcular
el valor de t', y ya sabemos que los valores crticos de t' son igual a q/ 2 , donde q es el valor
que venga en las tablas segn el nmero de grupos (k) y los grados de libertad
correspondientes.
Las frmulas para comparar los subgrupos de dos en dos ya las hemos visto:
M1 -M 2
los valores crticos de q los consultamos en
[6]
q=
las tablas de la manera indicada ms adelante
CM dentro
(tabla 10)
n
t' =
M1 - M 2
CM dentro
x2
n
[7]
q
2
12 La justificacin de esta tabla la incluimos en el anexo V, que nos puede servir para ampliar la tabla si es necesario.
24
Tamao de la tabla
Valor de k para
de dos factores
consultar las tablas de q
2 x 2 ............................... 3
2 x 3 ............................... 5
2 x 4 ............................... 6
2 x 5 ............................... 8
3 x 3 ............................... 7
3 x 4 ............................... 8
3 x 5 ............................... 10
4 x 4 ............................... 10
4 x 5 ............................... 12
5 x 5 ............................... 15
Tabla 10
3.3. El tamao del efecto en los diseos factoriales
13 Un tratamiento ms amplio del tamao del efecto en el contexto del anlisis de varianza puede verse en Cortina y
Nouri (2000).
25
varianza residual, la que queda una vez eliminado el influjo de los dos factores y de su
interaccin y nosotros queremos incluir el influjo del factor secundario.
Siempre que no queramos prescindir de la variabilidad producida por el factor
secundario debemos utilizar la raz cuadrada de los cuadrados medios dentro de los grupos
pero la que hubiremos obtenido haciendo un anlisis de varianza unifactorial solamente con
el factor principal. Esta desviacin tpica ser mayor que en el caso anterior y el tamao del
efecto no quedar sobrestimado (en cualquier caso este procedimiento es ms conservador y
en caso de duda puede ser preferible).
Para obtener estos cuadrados medios dentro de los grupos (luego utilizaremos la raz
cuadrada) tenemos dos caminos.
1 Hacer un anlisis de varianza unifactorial con slo el factor principal.
Como solamente nos interesan los cuadrados medios dentro, realmente no necesitamos
hacer el anlisis de varianza completo, podemos calcularlos directamente. Con muestras de
idntico tamao la frmula es sta:
n 2
Cuadrados Medios dentro =
Nk
Lo vamos a ver utilizando los datos de la tabla 3; nos interesa calcular el tamao del
efecto al comparar las medias de los tres mtodos. Los datos los tenemos en la tabla 11.
n
Media
A1
A2
20
20
6
5
2.3237
2.236
Tabla 11
A3
20
4
2.5099
Si comparamos estos datos con los de la tabla 3, lo nico que hemos tenido que hacer es
calcular las desviaciones tpicas de los tres niveles de A (de las columnas), y adems caer en
la cuenta de que n = 20 (nmero de sujetos en cada mtodo).
Aplicamos la frmula de los cuadrados medios dentro:
CM dentro =
5.859 = 2.42
sta es la desviacin tpica que utilizaremos en el denominador del tamao del efecto;
entre A1 y A3 tendremos d = (6-4)/2.42 = .826 (diferencia que podemos considerar grande).
2 Clculo a partir de la tabla de resultados del anlisis de varianza
Los cuadrados medios dentro de un anlisis unifactorial hecho con los niveles del factor
principal (que es lo que nos interesa) podemos rescatarlos de la tabla de resultados del diseo
factorial que ya tenemos (tabla 5). Nos basta calcular los cuadrados medios sumando todas las
sumas de cuadrados y todos los grados de libertad excepto los correspondientes al factor
principal (A); la frmula es por lo tanto:
26
CM dentro =
Llegamos al mismo resultado con los dos procedimientos; ste segundo puede resultar
ms cmodo, pero es til verificar que los dos son equivalentes.
4. La representacin grfica de los resultados como ayuda a la interpretacin en los
diseos factoriales
En un diseo factorial con dos factores principales tenemos tres posibles fuentes de
variacin sistemtica: los dos factores principales, A y B, y su interaccin.
Adems de interpretar directamente los valores de F, un sencillo grfico nos puede
ayudar en la interpretacin de lo que est sucediendo y a comunicarlo con ms claridad.
Vamos verlo con unos ejemplos hipotticos. Suponemos que los dos factores principales
son:
A1
A2
A1B1
A2B1
A1B2
A2B2
B2
La variable dependiente (la que hemos medido despus de las actividades) puede ser
satisfaccin por la tarea (o nivel de participacin o de aprendizaje, etc.).
En los grficos puestos a continuacin el eje de las abcisas (X) corresponde a uno de los
dos factores principales; en este caso situamos en este eje los dos niveles del factor B
(suficientemente distanciados para que el grfico quede ms claro).
El eje vertical de las ordenadas (Y) corresponde a la variable dependiente (la que
hemos medido). En este eje podemos situar algunos valores representativos (en este ejemplo
ficticio ponemos de 1 a 8).
En este espacio situamos los valores del otro factor principal, el factor A en este caso:
situamos las medias de A1 y A2 correspondientes a B1 y B2 y unimos con una recta las medias
de cada nivel (una recta representa a A1 y la otra a A2).
Por razones de claridad slo ponemos dos niveles en cada factor; naturalmente podran
ser ms. Si hubiera tres valores de A (tres niveles), tendramos tres rectas. Si tuviramos
adems tres niveles de B las rectas correspondientes a los niveles de A seran probablemente
quebradas. En cualquier caso estos grficos aaden claridad informativa y ayudan a la
interpretacin, sobre todo cuando la interaccin es significativa.
En cada extremo de las lneas que representan los dos niveles de A podramos poner sus
medias exactas, pero suele ser suficiente situar los valores en el eje vertical. Tambin se
puede prescindir de los nmeros, que se supone que adems figuran en otro lugar.
En estos ejemplos vemos:
27
8
7
6
5
4
3
2
1
B2
B1
media hora
una hora
Figura 1
Figura 1. Claramente el mtodo A1 es superior al mtodo A2, cualquiera que sea la
duracin (factor B). Cuando las lneas son paralelas (o casi paralelas) es claro que la
interaccin no es significativa. Va a ser significativa la razn F correspondiente al factor A
(A1 es claramente mayor que A2). En cambio la razn F correspondiente al factor B no es
estadsticamente significativo; B1 y B2 no difieren entre s; sus medias van a ser muy
parecidas.
8
7
6
5
4
3
2
1
B1
B2
media hora
una hora
Figura 2
Figura 2. En este caso tendramos que apenas hay diferencia entre los mtodos (factor
A), pero s las hay en el factor B, duracin de la actividad. B2 es superior a B1
independientemente de la actividad: una hora produce mejores resultados que media hora.
8
7
6
5
4
3
2
1
B2
B1
media hora
una hora
Figura 3
Figura 3. Los dos mtodos son parecidos en B1, pero con una mayor duracin (B2) uno
de los mtodos, A1, es claramente superior. Aqu la interaccin es significativa: hay una
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)
28
combinacin AxB (A1B2) claramente superior a las otras (A1 > A2 en B2). Cuando las lneas
no son, ms o menos, paralelas, la interaccin est presente (poco o mucho).
8
7
6
5
4
3
2
1
B1
B2
media hora
una hora
Figura 4
Figura 4. Las rectas no solamente no son paralelas, sino que se cruzan: un mtodo es
mejor con una duracin (A1 en B2) y el otro con la otra duracin (A2 en B1). La interaccin va
ser significativa e importante; la eficacia de los niveles un factor (A, los dos mtodos) est en
funcin de los niveles del otro (B). En un ejemplo como el sugerido por esta figura, la
interaccin sera la nica fuente de varianza importante.
Los datos se disponen en EXCEL como en una tabla nxn convencional, poniendo
tambin los nombres o rtulos de filas y columnas. Se seala la tabla completa, incluidos los
rtulos de filas y columnas.
En el cuadro de dilogo en nmero de filas por muestra se pone el nmero de sujetos en
cada subgrupo o clasificacin. El resultado son los datos descriptivos de las muestras y la
tabla de resultados convencional, sin contrastes posteriores ni otros clculos complementarios.
SPSS. Este modelo de anlisis de varianza lo tenemos en Analizar, Modelo lineal
general, Univariante. Hay que indicar al programa qu variable va actuar como dependiente y
en factores fijos se integran las dos variables independientes que queremos estudiar.
29
CORTINA, JOSE M. and NOURI, HOSSSEIN (2000). Effect Size for ANOVA Designs.
Quantitative Applications in the Social Sciences. Thousand Oaks: Sage.
ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona:
Ceac.
GLASS, GENE V. y STANLEY, JULIAN C., (1974). Mtodos Estadsticos Aplicados a las
Ciencias Sociales. Madrid, Prentice-Hall Internacional.
GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,
Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical
Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole.
OSHIMA, T. C. and MCCARTY, FRANCES (2000). How Should We Teach Follow-Up Tests
After Significant Interaction in Factorial Analysis of Variance? Paper presented at
American Educational Research Association, New Orleans, April 2000
http://www2.gsu.edu/~epstco/aeraMain.pdf (consultado 22, Nov., 2009).
TEJEDOR, FRANCISCO JAVIER, (1984). Anlisis de varianza aplicada a la investigacin en
pedagoga y psicologa. Madrid: Anaya
PARDO MERINO, A. y RUZ DAZ, M.A. (2005). Anlisis de datos con SPSS 13 Base. Madrid:
McGraw Hill
TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper
Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
Anexo. Anlisis de Varianza (diseos factoriales) en Internet
30
VADUM RANKIN Statistical Applets 2X2 Analysis of Variance for the statistical tests
for a 2x2 factorial design. http://www.assumption.edu/users/avadum/applets/applets.html ;
basta introducir la media, desviacin tpica (de la poblacin, dividiendo por n-1) y nmero de
sujetos de los cuatro grupos.
Estas direcciones se pueden encontrar en JOHN C. PEZZULLO'S HOME PAGE,
http://statpages.org/JCPhome.html (en Interactive Statistics Pages).
Anlisis de varianza
para verificar tendencias
Pedro Morales Vallejo
Universidad Pontificia Comillas, Madrid
Facultad de Ciencias Humanas y Sociales
(ltima revisin 28 de febrero de 2009)
ndice
1. Introduccin...............................................................................................................
1. Introduccin
El anlisis de varianza para muestras independientes o para muestras relacionadas nos
dice si entre las medias de varias muestras hay diferencias significativas, pero no nos dice si
en las medias se observa una tendencia a crecer o decrecer. Es ms, al comparar varios
grupos podemos encontrarnos con una razn F no significativa que nos dice que no hay
diferencias (todas las medias proceden de la misma poblacin) cuando por simple observacin
de los datos vemos que hay una clara tendencia en las medias, que van siendo
progresivamente mayores o menores. Lo mismo puede suceder con las medias de un mismo
grupo obtenidas en ocasiones sucesivas: entre las medias puede no haber diferencias
significativas, pero s puede haber una tendencia clara y superior a lo aleatorio a aumentar o
disminuir.
Siempre que podamos ordenar los grupos con algn criterio (edad, curso, ocasiones
sucesivas, etc.) podemos comprobar si se da una tendencia lineal (linear trend) a aumentar o
disminuir; tambin podemos comprobar otras tendencias, pero ahora nos fijamos en las
tendencias lineales. Las categoras de clasificacin son por lo tanto cuantitativas, de manera
que sea posible establecer un orden numrico.
El anlisis de varianza convencional responde a una hiptesis muy genrica (si los
grupos pertenecen o no a la misma poblacin), pero podemos hacer adems preguntas ms
especficas como si se observa o no una tendencia a aumentar o disminuir superior a lo
meramente aleatorio. A esta pregunta podemos responder tambin mediante el anlisis de
varianza apropiado1.
2. Verificacin de tendencias en muestras independientes
2.1. Anlisis de varianza
Vamos a verlo con un ejemplo2. Tenemos cinco grupos ordenados de menos a ms con
un criterio claro, como puede ser la edad. En este ejemplo (datos ficticios, tabla 1) tenemos un
total de 20 sujetos (N = 20) con 4 sujetos en cada grupo (k o nmero de grupos = 5).
Tanto en este caso como con muestras relacionadas, la solucin tiene dos pasos:
1 Se resuelve el anlisis de varianza convencional (en este caso se trata de muestras
independientes),
2 Con los datos obtenidos se pasa a un segundo anlisis de varianza especfico para
verificar tendencias (entre los grupos puede no haber diferencias significativas, pero la
tendencia a aumentar o disminuir s puede ser significativa).
1 En el anexo VII mencionamos dos mtodos no paramtricos para verificar tendencias en muestras independientes
(Jonckheere) y relacionadas (Page). Existe al menos otro mtodo no paramtrico para verificar tendencias cuando n = 1
(prueba de Mann) que puede ser de especial inters para analizar terapias individuales (por ejemplo en psicologa clnica y
educacin especial).
2 El procedimiento que vamos a exponer puede verse tambin explicado y con ejemplos resueltos en bastantes textos
no elementales (como Guilford y Fruchter, 1973; Rosenthal, 1987; Kirk, 1995). A veces se advierten aparentes discrepancias
metodolgicas en los distintos autores, simplemente porque unos prefieren utilizar como dato la media de cada grupo y otros
el total de las puntuaciones de cada grupo.
N = 20
n=4
k=5
Media =
Desviacin (n)=
Total =
1
14
14
11
10
12.25
1.785
49
2
15
15
12
11
13.25
1.785
53
3
16
16
13
12
14.25
1.785
57
Tabla 1
4
17
17
14
13
15.25
1.785
61
5
18
18
15
14
16.25
1.785
65
Suma de
Cuadrados
40
63.75
Grados de
Cuadrados
Libertad
Medios
k-1=5-1=4
40/4 = 10
N-k=
63.75/15 = 4.25
20 - 5 = 15
Tabla 2
F
2.35, p > .05
De esta tabla solamente vamos a utilizar los Cuadrados Medios dentro de los grupos
(que es el trmino del error) por lo que podemos calcularlos directamente si nicamente nos
interesa la tendencia y no nos interesa comprobar si las medias difieren significativamente
entre s:
n n2
CMdentro =
Nk
[1]
= 4.25
Totales T =
pesos =
T =
Grupo 1
49
-2
-98
Grupo 2
53
-1
-53
Grupo 3
57
0
0
Tabla 3
Grupo 4
61
+1
+ 61
Grupo 5
65
+2
+ 130
2 = 10
T = L = 40
Qu hemos hecho:
1 Tomamos como dato inicial los totales de cada grupo (tomados de la tabla 1). Si los
grupos son de distinto tamao, el total de cada grupo ser igual a la media del grupo
multiplicada por la media armnica del nmero de sujetos (lo aclaramos ms en el apartado
2.3).
2 Asignamos a cada grupo un peso (simbolizado por la letra griega lambda, ) que
expresa nuestra prediccin. Nuestra prediccin es que las medias van de menos a ms, por eso
los pesos asignados se corresponden con la tendencia que queremos contrastar. La condicin
para asignar estos pesos es que su suma sea igual a 0.
Si nuestra prediccin no hubiera sido una tendencia lineal (crecimiento o decrecimiento
progresivo) sino una tendencia cuadrtica (tendencia primero a aumentar y luego a disminuir,
o al revs) nuestros pesos hubieran sido +2, -1, -2, -1, +2. Estas tendencias cuadrticas tienen
la forma de o .
Los pesos () para estos contrastes segn las predicciones (lineales, cuadrticas,
cbicas) y segn el nmero de grupos (o nmero de ocasiones si se trata del mismo grupo) se
pueden encontrar en muchos textos (en el anexo ponemos los pesos para los casos ms
frecuentes (tendencias lineales y cuadrticas, entre tres y seis grupos u ocasiones).
L2
(n)( 2 )
[2]
40 2
1600
= 40
=
(4)(10)
40
CMtendencia =
SC tendencia
grados de lib.[= 1]
[3]
= 40
En estos contrastes los grados de libertad de la tendencia son siempre igual a 1, por lo
que la Suma de Cuadrados es igual a los Cuadrados Medios.
40
= 9.41
4.25
SC tendencia
SC entre
[4]
40
=1
40
o tambin r =
F
F + grados de libertad dentro
[5]
9.41
= .62
9.41 + 15
SC tendencia
SCtendencia + SC dentro
[6]
40
= .62
40 + 63.75
En los denominadores tenemos en [5] los grados de libertad dentro de los grupos o en
[6] la suma de cuadrados dentro de los grupos; quizs con ms propiedad habra que decir
grados de libertad o suma de cuadrados del trmino del error (tratndose de varias muestras
independientes el trmino del error es la varianza dentro de los grupos).
Cuando tomamos el sujeto individual como unidad los coeficientes de correlacin son
menores que cuando utilizamos los totales o medias de cada grupo (en ste y en cualquier otro
caso), sencillamente porque no prescindimos de las diferencias individuales dentro de cada
grupo.
Los dos coeficientes dan informacin distinta. Cuando nos referimos, por ejemplo, a la
correlacin entre edad y cualquier otra variable, nos referimos habitualmente a la correlacin
utilizando a cada sujeto como unidad; el utilizar la media o el total del grupo (como en [4])
tambin es til porque nos avisa sobre la tendencia de una manera muy clara. Sin embargo
estas correlaciones tomando el grupo como unidad son una estimacin pobre de la correlacin
entre el dato individual y el grupo de pertenencia (edad en este caso): aqu hemos bajado de
una perfecta relacin (r = 1) a una relacin moderada de r = .62 Como criterio general,
tomaremos al sujeto como unidad utilizando las frmulas [5] [6].
k
(1 k)
[7]
Vamos a suponer que en el ejemplo anterior los valores de n para los cinco grupos son
4, 5, 4, 6, y 5; la media armnica de n sera en este caso:
n armnica =
5
5
= 4.69
=
1 1 1 1 1
1.0667
+ + + +
4 5 4 6 5
2 El valor de T pasa a ser la media de cada grupo (M) multiplicada por la media
armnica del nmero de sujetos:
T = (M) (n armnica )
[8]
M1 - M 2
1
1
+ CM dentro
n1 n 2
[9]
Los grados de libertad para consultar las tablas son los de los Cuadrados Medios dentro
de los grupos (trmino del error), 15 en este ejemplo.
Lo vemos con dos ejemplos:
a) Comparamos las medias de dos grupos, el 5 y el 3:
t=
16.25 14.25
1 1
+ 4.25
4 4
16.25 13.25
1 1
+ 4.25
12 4
3 Es la misma frmula de los contrastes posteriores de Fisher (LSD, Least Statistical Difference).
Total
36
33
15
12
Media
12
11
5
4
Los nicos datos que necesitamos de la tabla 4 son los totales de las filas y de las
columnas, aunque tambin hemos puesto en la tabla las medias (si slo tenemos las medias,
los totales son igual a la media por nmero de sujetos).
Lo primero que vamos a hacer es un anlisis de varianza convencional para muestras
relacionadas (porque tenemos al mismo sujeto en cada fila); para calcular las sumas de
cuadrados de filas y columnas son suficientes o los totales o las medias.
Por lo que respecta a las filas (los sujetos) lo ms cmodo suele ser utilizar los totales.
En el caso de las columnas (las ocasiones en que han sido medidos los sujetos) las medias y
desviaciones son en s mismas informativas, aunque tambin podemos hacer el anlisis de
varianza a partir de los totales.
10
Los resultados del anlisis de varianza para muestras relacionadas estn en la tabla 5.
origen
sujetos (filas)
ocasiones (columnas)
error (fil. x col)
total
Sumas de
Cuadrados
150
24
8
182
Grados de
libertad
4 -1 = 3
3 -1 = 2
(f-1)(c-1) = 6
N -1 = 11
Tabla 5
Cuadrados
Medios
150/3 = 50
24/2 = 12
8/6 = 1.33
F
37.59, p < .01
9.02, p<.01
1
28
-1
-28
2
28
0
0
Tabla 6
3
40
+1
+ 40
2 = 2
L = T = 12
L2
12 2
=
= 18
(n)( 2 ) (4)( 2)
Como los grados de libertad son siempre = 1, los Cuadros Medios coinciden con la
Suma de Cuadrados. Ahora calculamos la razn F utilizando el trmino del error calculado en
el anlisis de varianza precedente (tabla 5):
F=
18
= 13.53
1.33
11
No solamente hemos probado que hay diferencias entre las ocasiones (primer anlisis de
varianza) sino que adems se da una tendencia lineal a aumentar progresivamente de ocasin
a ocasin.
En este ejemplo el resultado era de esperar, pues vemos que la media en la tercera
ocasin es superior a las medias de las ocasiones anteriores, pero no siempre los datos son tan
claros. Y tambin puede suceder que en el primer anlisis de varianza no tengamos resultados
significativos y s lo tengamos al verificar de manera especfica la tendencia.
Si nuestra hiptesis o prediccin fuera que la tendencia es cuadrtica (ir primero de
menos a ms y despus de ms a menos o viceversa) el procedimiento es el mismo; lo que
cambian son los pesos por los que multiplicamos los totales, que son los que expresan una
tendencia cuadrtica . En este caso los clculos seran los que figuran en la tabla 7.
ocasiones
Totales
1
28
-1
-28
2
28
+2
+ 56
Tabla 7
3
40
-1
- 40
2 = 6
L = T = -12
-12 2
= .50
Los Cuadrados Medios de la tendencia cuadrtica son =
(4)(6)
Y la razn F es igual a F =
.50
= .37
1.33
12
3 ocasin (+1)
(14)(+1) = 14
(13)(+1) = 13
(7)(+1) = +7
(6)(+1) = +6
Media =
Desviacin =
Tabla 8
nuevo total
4
4
2
2
3
1
M-0
2
N -1
[10]
3- 0
12
4- 1
Nuestra muestra (con una media en cambio = 3) no pertenece a una poblacin con una
media de cero en cambio. Los resultados de ambos mtodos, anlisis de varianza y t de
Student, no dan idnticos resultados aunque suelen ser similares y suelen llevar a las mismas
conclusiones4.
13
4. Referencias bibliogrficas
BENITO PEREGRINA, MANUELA de (1999). Aproximacin al concepto de dislexia: un estudio
sobre las caractersticas de los alumnos dislxicos en un entorno bilinge. Tesis doctoral.
Madrid: Universidad Pontificia Comillas.
ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona:
Ceac.
GUILFORD, J. P. Y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,
Mxico: McGraw-Hill. [En ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
ROSENTHAL, ROBERT, (1987). Judgment Studies, Design, analysis and meta-analysis.
Cambridge: Cambridge University Press.
TEJEDOR, FRANCISCO JAVIER, (1984). Anlisis de varianza aplicada a la investigacin en
pedagoga y psicologa. Madrid: Anaya
14
tendencia
3 Linear
Cuadrtica
4 Linear
Cuadrtica
5 Linear
Cuadrtica
6 Linear
Cuadrtica
1
-1
+1
-3
+1
-2
+2
-5
+5
2
0
-2
-1
-1
-1
-1
-3
-1
nmero de columnas
3
4
+1
+1
+1
+3
-1
+1
0
+1
-2
-1
-1
+1
-4
-4
Tabla 9
+2
+2
+3
-1
+5
+5
5 Estas tablas se encuentran en numerosos textos (por ejemplo Guilford y Fruchter; 1973; Escotet, 1980; Tejedor, 1984;
Rosenthal, 1987; Kirk, 1995), y en Internet, por ejemplo (hasta 10 medidas o columnas) en LANE, DAVID M. HyperStat
Online Statistics Textbook, http://davidmlane.com/hyperstat/index.html, n 12. Las tendencias cbicas (dos cambios de
direccin) pueden comprobarse a partir de cuatro ocasiones, suelen ser de inters con menor frecuencia que las otras dos.
Anlisis de varianza
Anexos
Pedro Morales Vallejo
Universidad Pontificia Comillas,
Facultad de Ciencias Humanas y Sociales
(ltima revisin: 14 de Noviembre de 2009)
ndice
Anexo I: Por qu no podemos utilizar la t de Student para hacer todas las comparaciones
posibles cuando tenemos ms de dos grupos ......................................................
Anexo II: El test de Bonferroni: procedimiento para hacer todas las comparaciones
posibles entre pares de grupos sin llevar a cabo un anlisis de varianza............
Anexo III: Clculo de la media y de la desviacin tpica del total a partir de las medias
y desviaciones tpicas de las muestras............................................................
7
7
7
7
7
8
8
10
12
12
13
17
17
19
23
19
21
25
25
3
ANEXO I: Por qu no podemos utilizar la t de Student para hacer todas las
comparaciones posibles cuando tenemos ms de dos grupos
Quizs la manera ms fcil de captarlo es mediante una analoga de fcil comprensin y
que tiene que ver con la distribucin binomial.
Imaginemos que tiramos una moneda al aire Que probabilidades tenemos de que nos
salga una cara? Si solamente tenemos una moneda tenemos dos resultados posibles, o nos
sale cara o nos sale cruz:
probabilidades:
Una posibilidad:
Ahora vamos a tirar al aire dos monedas a la vez Qu probabilidades tenemos de que
nos salga una cara? Tenemos estos y solos posibles resultados:
moneda primera
una posibilidad:
cara
otra posibilidad:
cruz
otra posibilidad:
cara
otra posibilidad:
cruz
moneda segunda
cara
cruz
cruz
cara
Incidentalmente podemos observar que, simbolizando C como cara y X como cruz estos
son los resultados posibles: una vez dos C, una vez dos X y dos veces XC (da lo mismo caracruz que cruz-cara) es decir, todas las posibilidades son:
XX + CC + 2CX
Dividiendo cada posible resultado por el nmero total de resultados distintos (4 en este
caso) tenemos la probabilidad de que nos salga una determinada combinacin cara-cruz. Si
utilizamos los smbolos a y b posiblemente caeremos en la cuenta del parecido de la expresin
anterior con el cuadrado de un binomio:
(a + b)2 = a2 + 2ab + b2
El exponente del binomio sera en este caso el nmero de monedas. Si en vez de dos
monedas, utilizamos tres, la resolucin de (a + b)3 nos dar cules pueden ser los resultados
distintos y cuntas veces obtendramos cada uno.
Al menos hemos visto que si estamos interesados en que nos salga por lo menos una
cara, no es lo mismo arrojar al aire una moneda que dos o tres A mayor nmero de
monedas, mayor probabilidad de que al menos una nos salga cara. De manera anloga si
comparamos tres grupos tenemos tres comparaciones posibles: el 1 con el 2, el 1 con el 3 y
el 2 con el 3: en este caso las probabilidades de obtener por azar al menos una t
estadsticamente significativa suben con respecto a comparar solamente dos grupos.
Si vamos a hacer tres comparaciones y establecemos un nivel de confianza de =.05
Qu probabilidad tenemos de obtener al menos una t significativa? Esta pregunta tiene que
ver con las probabilidades conjuntas, tema en el que no entramos pero que puede quedar
Anlisis de varianza: anexos
4
sugerido o ilustrado viendo todas las posibles diferencias estadsticamente significativas
cuando tenemos tres grupos.
Podemos encontrar slo entre
una diferencia
slo entre
significativa:
slo entre
entre
entre
entre
entre
el 1 y el 2
el 1 y el 3
el 2 y el 3
el 1 y el 2
el 1 y el 2
el 1 y el 3
el 1 y el 2
y
y
y
y
entre el 1 y el 3
entre el 2 y el 3
entre el 2 y el 3
entre el 1 y el 3 y entre el 2 y 3
Una explicacin ms detallada sobre cmo obtener las probabilidades reales puede verse en McGuigan (6th Edition,
1994:140ss).
Anlisis de varianza: anexos
5
ANEXO II: El test de Bonferroni: procedimiento para hacer todas las comparaciones
posibles entre pares de grupos sin llevar a cabo un anlisis de varianza
Ya hemos indicado que cuando en el mismo planteamiento tenemos ms de dos grupos,
no podemos contrastar todos los posibles pares de medias entre s porque aumenta la
probabilidad de error. Hemos visto que con tres grupos un nivel de confianza de = .05
equivale de hecho a un nivel de .0975.
Si deseamos hacer todos los contrastes posibles de medias podramos hacerlos siendo
ms estrictos en el nivel de confianza sin necesidad de acudir al anlisis previo de varianza.
El procedimiento ms sencillo para ajustar el nuevo nivel de confianza es el denominado
test de Bonferroni.2 Este procedimiento consiste en dividir el nivel de confianza escogido ( =
.05, por ejemplo, o = .01) por el nmero de posibles comparaciones: la probabilidad
resultante es la que debemos utilizar. Ya sabemos que el nmero de posibles comparaciones
de k grupos tomados de dos en dos es igual a k(k-1)/2.
La frmula general del nuevo nivel de confianza es:
nuevo valor de =
k(k -1)
2
Esta probabilidad es para pruebas de una cola o unilaterales (nos fijamos solamente en
un extremo de la distribucin); este valor de habr que dividirlo por 2 si utilizamos
contrastes bilaterales como es usual.
Por ejemplo, si tenemos tres grupos (k = 3), nuestro nivel de confianza es = .05, y
queremos hacer todas las comparaciones posibles entre grupos (sin combinar las medias de
varios grupos en una sola) el nuevo valor de ser:
.05
= 3(3 1) = .0167
2
En las tablas de la distribucin normal (muestras grandes) vemos que a una
probabilidad de .0167 (rea menor) le corresponde z = 2.39; bastante mayor que el 1.96 al
que estamos acostumbrados (y que en pruebas de una cola es 1.64).
De manera ms sencilla si disponemos de la probabilidad exacta de un contraste
(fcilmente disponible en Internet) y la multiplicamos por el nmero de comparaciones,
podemos ver si llega a .05 (suponiendo que ste es nuestro nivel de confianza) (Bland y
Alman, 1995). Por ejemplo si obtenemos p = .0167 y tenemos tres comparaciones, nuestra
probabilidad ser (con un nivel de confianza de .05) p = (.0167)(3) = .05.
En opinin de varios autores este contraste no parece aconsejable porque es considerado
demasiado conservador; es decir, tiene poca potencia para rechazar la Hiptesis Nula cuando
realmente es falsa (Hancock y Klockars, 1996; Jaccard, 1998). Por otra parte estos contrastes
no estn pensados como contrastes posteriores al anlisis de varianza sino para siempre que
2 Carlo Emilio Bonferroni elabor su teora sobre la probabilidad (publicada en Florencia en 1936) al margen del
anlisis de varianza, pero en los aos 60 se aplic a los contrastes posteriores; es el contraste tambin conocido como de
Dunn-Bonferroni. A veces se menciona a Bonferroni como desconocido (McGuigan, 1994); pero puede encontrarse citado en
Hancock y Klockars (1996) y una breve resea biogrfica en http://www-history.mcs.standrews.ac.uk/Biographies/Bonferroni.html (en The MacTutor History of Mathematics archive http://www-history.mcs.standrews.ac.uk/index.html)
Anlisis de varianza: anexos
6
en el mismo planteamiento haya ms de dos contrastes de medias (por ejemplo si comparamos
dos grupos en una serie de variables) y tambin seran aplicables si tenemos un conjunto de
coeficientes de correlacin.
Una crtica bien razonada a los ajustes de Bonferroni puede verse en Perneger (1998)
que merece la pena citarle literalmente:
this paper advances the view, widely held by epidemiologists, that Bonferroni
adjustments are, at best, unnecessary and, at worst, deleterious to sound statistical
inference... The main weakness is that the interpretation of a finding depends on the
number of other tests performed The likelihood of type II errors is also increased, so
that truly important differences are deemed non-significant... Bonferroni adjustments
imply that a given comparison will be interpreted differently according to how many
other tests were performed.
7
ANEXO III: Clculo de la media y de la desviacin tpica del total a partir de las medias
y desviaciones tpicas de las muestras
Frecuentemente lo que tenemos de las diversas muestras son los datos descriptivos
bsicos: el nmero de sujetos (N), la media (M) y la desviacin tpica (). Son datos que
podemos ver en una publicacin o que nosotros mismos guardamos3. Si a partir de estos datos
queremos hacer un anlisis de varianza con una simple calculadora, necesitamos adems
tener:
a) La media del total de todos los sujetos (al menos para calcular la suma de cuadrados
entre grupos cuando los grupos son de tamao desigual).
b) La desviacin tpica del total de las puntuaciones; en realidad necesitamos la
varianza, que multiplicada por N (nmero total de datos, si se trata de muestras relacionadas
N = n x k) nos dar la suma de cuadrados del total.
Tanto la media total como la desviacin tpica o varianza de los totales podemos
calcularlos a partir de los datos descriptivos de las muestras, sin necesidad de disponer de
todas las puntuaciones individuales que normalmente s necesitaremos si vamos a utilizar un
programa de ordenador (como el SPSS). Las frmulas apropiadas ya las hemos ido viendo en
varias ocasiones; ahora las repetimos de manera ms ordenada y con una demostracin.
1. Media de los totales
1.1. Con muestras de tamao distinto
nM
Se multiplica cada media por su nmero de sujetos,
[1]
Mt =
se suman estos productos y se divide por el nmero
n(o N total)
total de sujetos. Se trata de una media ponderada que
no necesita una especial demostracin.
1.2. Con muestras de idntico tamao
Cuando los grupos son de idntico tamao, la media total es
simplemente la media de las medias (suma de las medias
dividida por el nmero de medias):
Mt =
[2]
t =
n(M2 + 2 )
- M2t
N
[3]
La frmula [3] est tomada de McNemar (1962), pero es fcilmente demostrable como
vamos a ver ms adelante.
3 A partir de estos datos (N, Media y desviacin tpica de cada muestra) tambin tenemos programado en Internet el
anlisis de varianza para varias muestras independientes (por ejemplo, los programas de Internet de Pezzulo y en Department
of Obstretrics And Gynaecology, The Chinese University of Hong Kong; ver referencias bibliogrficas).
Anlisis de varianza: anexos
8
2.2. Con muestras de idntico tamao
Cuando los grupos son de idntico tamao (como sucede siempre que tenemos muestras
relacionadas y en muchos otros casos) la frmula de la desviacin tpica de los totales queda
simplificada; k es el nmero de grupos4.
t =
M2 + 2
- M 2t
k
[4]
En este caso, muestras de idntico tamao, la media de los totales ya sabemos que es la
media de las medias.
Como se trata de calcular la varianza (y no la desviacin tpica), podemos prescindir de
la raz cuadrada. Estos valores pueden variar segn se calculen por un mtodo o por otro,
debido al distinto nmero de decimales que se utilicen en cada caso, pero las diferencias no
afectan apreciablemente a los clculos posteriores. Aun as es preferible utilizar tres o cuatro
decimales.
2.3. Deduccin de la frmula
De dnde viene esta frmula [3] para combinar desviaciones tpicas a partir de los
valores de las desviaciones, medias y nmero de sujetos de los diversos grupos?
(X - M)2
[5]
N
Hay otras frmulas, que se derivan de [5], para calcular la desviacin tpica sin
necesidad de calcular las puntuaciones diferenciales (X-M). Lo que sucede es que estas
frmulas que simplifican operaciones son menos tiles, ya que disponemos de calculadoras
con programacin estadstica.
Una de estas frmulas para calcular la desviacin tpica a partir de las puntuaciones
directas y de la media, es la que nos interesa para poder demostrar la frmula que nos permite
combinar desviaciones tpicas de varios grupos; es la frmula [6] que podemos encontrar en
muchos textos.
A partir de esta frmula [6] llegamos con facilidad a la frmula [3] para combinar
desviaciones tpicas o varianzas:
=
X2
- M2
N
[6]
la varianza ser =
X2
N
-M
y X = N( + M ) [7]
En [7] podemos ver ya el parecido con la frmula [3]. Si de dos muestras conocemos los
valores de N, M y , podemos utilizar la frmula [6] para calcular la desviacin tpica de las
dos muestras combinadas en una nica muestra.
En esta frmula [6] tenemos ahora que N = N1 + N2; la media ser la media total de las
dos (o ms) muestras y X2 ser la expresin [7] calculada en las dos (o ms) muestras y
sumadas. Es decir, substituyendo [7] en [6] llegamos a la frmula [3].
Podemos preguntarnos ahora de dnde sale la frmula [6], que es la que hemos utilizado
para demostrar la frmula [3] que nos permite calcular la desviacin tpica de dos (o ms)
muestras combinadas en una sola.
M2+ 2 se calcula con mucha facilidad con una calculadora con programacin estadstica: basta introducir todas
las medias y todas las desviaciones y obtener el resultado en la funcin x2
Anlisis de varianza: anexos
9
En la frmula de la desviacin tpica, la habitual, tenemos en el numerador un binomio
elevado al cuadrado [(X-M)2]. No hay ms que aplicar el procedimiento usual: (a - b)2 = a2 2ab + b2, y as llegamos a [6]:
Utilizando la varianza para simplificar, tenemos que:
2 =
(X - M)2
N
(X2 - 2MX + M2 )
N
tendremos que 2 =
X2
N
X
=M
N
- 2M2 + M2
X2
2 =
- 2M
M2
X2
N
- M2
2
X M
+
N
N
NM 2
N
[8]
= M2
y as llegamos a [6].
10
ANEXO IV: Contrastes posteriores: la distribucin q del rango estudentizado
La distribucin de q se la debemos a William Sealey Gossett (Kirk, 1995), lo mismo que la de la t de Student.
Anlisis de varianza: anexos
11
verificamos es la probabilidad de que la media ms alta y la ms baja difieran
significativamente (procedan de la misma poblacin). Si las medias extremas proceden de la
misma poblacin, tambin consideramos que las medias intermedias no difieren
significativamente entre s. Si las medias mayor y menor difieren significativamente, podemos
seguir comparando entre s el resto de las medias.
Es til caer en la cuenta de esta relacin entre t y q para captar que lo que hacemos es
semejante a lo que hacemos cuando comparamos dos medias mediante la t de Student. Si
observamos las tablas de q y nos fijamos en los valores correspondientes a dos medias nada
ms (en cuyo caso podramos utilizar la t de Student) y para muestras grandes (los grados de
libertad mximos que vienen en las tablas) tenemos que:
niveles de
confianza
valor de q
para k =2 y gl =
= .05
2.77
= .01
3.64
valor de t =
q
2
2.77
= 1.96
2
3.64
= 2.57
2
12
ANEXO V: Contrastes posteriores en diseos factoriales cuando la interaccin es
significativa
Tratando del anlisis de varianza con dos criterios de clasificacin (diseos factoriales)
vimos cmo hacer los contrastes posteriores; se trata de una aplicacin del contraste de
Tukey. Cuando comparamos medias del mismo factor (medias de filas entre s o de columnas
entre s), el valor de k para consultar las tablas de q es el nmero de medias (o niveles) que
hay en el factor.
Cuando la interaccin es significativa nos puede interesar contrastar las medias de los
distintos niveles de un mismo factor en un nivel del otro. En la tabla 1 si la interaccin es
significativa nos puede interesar comparar, por ejemplo las medias de A1B1 y A3B1 (dos
medias de A en uno de los niveles de B).
Factor B
Factor A
A2
A2B1
A3
A3B1
medias de B
B2
B1
A1
A1B1
B2
A1B2
A2B2
A3B2
A1
A2
Tabla 1
A3
medias de A
B1
tamao de la tabla
Tabla 2
Los valores de k que tenemos que consultar son los puestos en la tabla 2 que hemos
preparado segn la justificacin puesta ms adelante (y que es la misma tabla puesta al tratar
de los contrastes posteriores en los diseos factoriales). En esta tabla 2 tenemos el valor de k
Por esta razn en la tabla 1 utilizamos el smbolo k en vez de k. Aunque como indica Toothaker (1993), en vez de
tener en cuenta el nmero de comparaciones posibles, podemos contabilizar solamente (para buscar k en las tablas de q) el
nmero de comparaciones que nos interesan o que tienen sentido en nuestro planteamiento. Como criterio conservador
podemos tener en cuenta todas las comparaciones posibles.
Anlisis de varianza: anexos
13
en las tablas de Tukey segn el tamao de nuestra tabla nxn, desde tablas 2x2 hasta tablas
5x5.
2. Justificacin de los nuevos valores de k
Lo que pretendemos ahora es justificar esta tabla y explicar cmo est hecha, de manera
que podamos ampliarla apara planteamientos con ms 5 niveles en uno o en los dos factores.
Para explicar de dnde viene la tabla 2, seguimos dos pasos metodolgicos:7
1 Calculamos el nmero de comparaciones posibles de inters (valor de C, frmula [2],
puesta ms adelante)
2 A partir de este nmero podemos calcular los valores de k (anlogo al nmero de
medias en los diseos unifactoriales) para consultar las tablas de q con grados de
libertad = N - ab (nmero total de sujetos menos nmero de subgrupos).
1 Calculamos el nmero de comparaciones posibles entre medias del mismo nivel y
factor
Una cosa es todas las comparaciones posibles, y otra todas las comparaciones posibles
de inters. En general el nmero total de comparaciones posibles tomando las medias de dos
en dos ya sabemos que es:
nmero de comparaciones posibles =
k(k 1)
2
Aqu no nos interesan todas las comparaciones posibles sino solamente todas las
posibles entre los niveles de cada factor. Antes de presentar la frmula correspondiente [2]
vamos a ver, paso a paso, cuntas comparaciones podemos hacer en el planteamiento inicial,
donde tenemos dos factores, A dividido en tres niveles, y B dividido en dos niveles (tabla 2 x
3). De esta manera entendemos mejor la frmula.
Comparaciones en los tres niveles del factor A
Nmero de comparaciones en A1 (dos subgrupos) =
2(2 1)
=1
2
En cada columna cabe una comparacin (slo hay dos medias) y como tenemos tres
columnas (los tres niveles de A) el nmero de comparaciones posibles en el factor A es 1 x 3
=3
Comparaciones en los dos niveles del factor B
Nmero de comparaciones en B1 (tres subgrupos) =
3(3 1)
=3
2
En cada fila caben 3 comparaciones, y como tenemos dos filas (B1 y B2), el nmero de
comparaciones posibles en el factor B son 3 x 2 = 6
El nmero total de comparaciones posibles es igual a 3 + 6 = 9 (siempre dentro de la
misma fila o columna).
Por lo tanto la frmula general para calcular el nmero de comparaciones posibles entre
medias pertenecientes al mismo nivel de un mismo factor cuando tenemos dos factores es:
7 El procedimiento es de Cicchetti (1972) aunque la tabla III (reproducida parcialmente) est tomada de Linton,
Gallo y Logan (1975, que a su vez la adaptan de Cicchetti). La justificacin del procedimiento puede verse tambin en
Cicchetti (1972) y en Toothaker (1991, 1993).
14
b(b - 1) a(a - 1)
x a +
x b
C =
2
2
[2]
k(k 1)
2
En nuestro caso partimos ya del valor de C, calculado previamente (tabla 2). En nuestro
ejemplo, una tabla de 2 x 3, C = 9, por lo que 9 = [k (k -1)/2]. Lo que tenemos que hacer es
despejar el valor de k:
Si 9 =
k(k 1)
2
tenemos que
k2 - k - (9 x 2) = 0.
15
x=
1 1 + (4x2C)
2
[3]
En nuestro ejemplo C = 9, por lo que las dos soluciones de x son 4.77 y -3.77;
redondeando estos nmeros y en valores absolutos tenemos 5 y 4.
Con estos valores, 5 y 4, aplicamos la frmula de C, y nos quedaremos, para utilizarlo
como k para consultar las tablas, con el valor de x que nos d un resultado ms prximo al
valor de C ya calculado (tabla 3):
C=
5(5 1)
= 10
2
C=
4(4 1)
=6
2
C=
19(19 1)
= 171
2
C=
18(18 1)
= 153
2
16
Nmero de comparaciones
posibles no confundidas (C)
3 - 4.....................................
5 - 8....................................
9 - 12....................................
13 - 17....................................
18 - 24....................................
25 - 32....................................
33 - 40....................................
41 - 50....................................
51 - 60....................................
61 - 72....................................
73 - 84....................................
85 - 98....................................
99 - 112....................................
3
4
5
6
7
8
9
10
11
12
13
14
15
Tabla 4
En la prctica lo ms cmodo es disponer de una tabla que combine las tablas 3 y 4,
para poder consultar el valor de k en las tablas de q a partir del nmero de niveles que
tenemos en nuestro planteamiento; esto es lo que hemos hecho en la tabla 2 puesta al
comienzo de este anexo, y que tambin figura en el lugar correspondiente al tratar de los
diseos factoriales.
17
ANEXO VI: El nmero de sujetos en el anlisis de varianza
En los estudios de carcter emprico o experimental, en sentido amplio, las normas que
suelen darse para determinar el nmero apropiado de sujetos depende de la finalidad del
estudio.
a) Posiblemente lo ms frecuente es encontrar normas y frmulas para determinar el
tamao de la muestra cuando se quieren extrapolar los resultados a la poblacin, como es
normal en los estudios de carcter ms sociolgico (encuestas, sondeos pre-electorales, etc.).
b) Normas o recomendaciones distintas suelen darse con otras finalidades especficas,
como el nmero de sujetos necesario cuando se trata de construir un test o escala, o el nmero
de sujetos necesario o recomendable cuando se va a hacer un anlisis correlacional, o ms
concretamente, un anlisis factorial.
c) Aqu nos interesa cmo determinar el nmero de sujetos en los estudios
experimentales, los ms relacionados con el anlisis de varianza. Incluiremos tambin lo
relativo al tamao de las muestras cuando slo se requiere la t de Student para comparar dos
medias, por cercana con el anlisis de varianza que tambin se podra utilizar en este caso, y
completamos as las orientaciones sobre el nmero de sujetos cuando se utiliza un diseo
experimental o cuasi-experimental en un sentido ms restringido.
1. Variables que intervienen en la determinacin del tamao de la muestra
8 La recomendacin de una potencia de .80 la propone y justifica Cohen (1988:56; Jacob Cohen es la fuente principal
que suele seguirse en este tema). El peligro de cometer el error Tipo II queda reducido a .20 (20% de probabilidades) y est
en equilibrio con = .05: suponemos que el error Tipo I es cuatro veces ms serio que el error Tipo II (.20 es cuatro veces
.05). Esta recomendacin no es tan seguida como la de establecer un nivel de confianza de .05, porque con frecuencia no se
tiene en cuenta el error Tipo II, que por otra parte ya se controla bien cuando el nmero de sujetos es grande.
18
aceptamos muy pocas probabilidades de equivocarnos cuando afirmamos una diferencia. Si
establecemos un nivel de significacin muy estricto (un valor de muy bajo) es muy
improbable que cometamos el error Tipo I: si rechazamos el azar (o la variabilidad normal debida
al error muestral) como explicacin de una diferencia es muy poco probable que nos equivoquemos.
Lo que sucede es que con un valor muy bajo de podemos caer en el error Tipo II:
puede ser que la Hiptesis Nula sea falsa, pero como somos muy estrictos no llegamos a
rechazarla. Con un nivel de significacin de = .001 las probabilidades de no rechazar una
Hiptesis Nula que sea realmente falsa pueden ser muy pocas. En la prctica hay que sopesar
ambos tipos de error. El minimizar el error Tipo I no significa que no tengamos que prestar
atencin al error Tipo II. Aunque las decisiones sobre el tamao de la muestra se toman
frecuentemente en funcin de los datos disponibles, o imitando lo que han hecho otros, no es
racional, (como seala Cohen, 1988:55), el determinar el tamao de la muestra sin tener en
cuenta el error Tipo II.
3. La magnitud de la diferencia (o de la relacin, etc.) que deseamos detectar y que
solemos denominar tamao del efecto. El trmino efecto no implica causalidad, sino
simplemente el grado en que un fenmeno (diferencia, relacin, etc.) est presente.
La implicacin de la magnitud en el tamao de la muestra es obvia: cuando las
diferencias son grandes, nos bastan pocos sujetos para detectarlas, pero cuando son muy
pequeas necesitamos muchos sujetos; si solamente nos interesan diferencias grandes,
necesitaremos muchos menos sujetos. Podemos intuirlo con un ejemplo muy claro. Si estamos
interesados en comprobar si difieren en altura los escandinavos y los twa (pigmeos de
Ruanda y Burundi) no necesitaremos muchos sujetos en las muestras; nos bastarn muy pocos
sujetos de cada grupo para caer en la cuenta de que se trata de poblaciones muy distintas en
altura. En cambio si se trata de encontrar diferencias pequeas entre las medias de
poblaciones que no difieren mucho entre s, no nos bastar con comparar muestras de tamao
pequeo. Es claro por otra parte que con muestras grandes es fcil encontrar diferencias
estadsticamente significativas pero pequeas y con frecuencia irrelevantes.
Al planificar cualquier tipo de experimento o anlisis debemos tener en cuenta tambin
en qu tipo de magnitud estamos interesados, porque si solamente son de inters magnitudes
ms bien grandes podemos ahorrar costes y trabajo utilizando muestras relativamente
pequeas. Si queremos garantizar a toda costa que nos salgan unas diferencias (o relaciones)
estadsticamente significativas, aunque sean muy pequeas (y con frecuencia de inters muy
dudoso o cuestionable), necesitaremos muestras muy grandes.
4. La varianza de la poblacin: ya sabemos que si los sujetos son muy iguales dentro de
cada grupo, necesitaremos muestras menores para detectar diferencias (si todos son de
idntica altura, o todos piensan lo mismo, etc., nos bastara un solo sujeto de cada grupo para
ver si hay alguna diferencia entre los grupos).
Estas cuatro variables se combinan en las frmulas apropiadas para determinar el
tamao ptimo de las muestras. Aunque en principio son preferibles las muestras grandes, por
razones de economa (costos, trabajo) podemos calibrar el tamao de la muestra de acuerdo
con nuestras especificaciones en estas cuatro variables.
No necesitamos aplicar las frmulas para conocer el tamao de la muestra porque ya
disponemos de tablas para las situaciones ms frecuentes; las tablas que ponemos aqu estn
muy reducidas pero pueden ser suficientes como orientacin sobre el tamao de la muestra
que debemos buscar (tablas ms completas pueden encontrase en los autores que citamos y en
otros). S es de inters conocer qu variables inciden en el nmero de sujetos que necesitamos.
19
No sobra recordar aqu que el tamao de la muestra es importante, pero no es la nica
caracterstica de la muestra que nos interesa. En diseos experimentales en sentido propio
necesitaremos muestras aleatorias, y en cualquier caso siempre debemos preguntarnos a qu
poblacin pueden estar representando las muestras que utilizamos.
2. Tamao de cada muestra cuando comparamos dos grupos (t de Student)
varianzas iguales,
muestras de idntico tamao,
hiptesis bilaterales
potencia (1-) de .80
nivel de confianza
d =.20
d = .30
d =.50
d = .70
d =.80
d =.1.0
d = 1.20
.05
.01
392
586
174
260
63
93
32
48
25
36
16
23
12
18
Tabla 5
Estamos suponiendo muestras de idntico tamao, pero si tenemos ya una muestra con
un determinado nmero de sujetos, podemos calcular el tamao necesario en la otra muestra.
La frmula [Cohen, 1988:59] es sta: n nuevo =
Vamos a suponer, por ejemplo, que tenemos ya un grupo experimental de 40 sujetos que
ha tenido una determinada experiencia y deseamos compararlo con otro (grupo de control, o
al menos como trmino de comparacin); estamos interesados en detectar al menos una
diferencia moderada (d = .50) a un nivel de confianza de = .05 Cuntos sujetos deberemos
incluir en el nuevo grupo de control? En las tablas vemos que necesitaramos 63 sujetos en
cada grupo; el tamao del nuevo grupo deber ser:
n nuevo =
(40)(63)
= 148
(2x40) 63
10
20
a) El coeficiente 2 nos cuantifica el grado de asociacin entre la variable
independiente (el pertenecer a uno u otro grupo) y la variable dependiente.
b) El tamao del efecto f propuesto por Cohen (1988) cuando tenemos ms de dos
grupos11.
Cuando tenemos solamente dos grupos, ya sabemos que el tamao del efecto es igual a
la diferencia entre las dos medias dividida por la desviacin tpica combinada. Cuando hay
ms dos grupos el denominador es el mismo, pero lo que tenemos en el numerador es la
dispersin o desviaciones de todas las medias con respecto a la media comn (un valor
anlogo a la desviacin tpica de las medias). En la prctica el clculo ms sencillo de f es a
partir de 2 (que es habitual calcular como complemento al anlisis de varianza); ambos
valores estn relacionados de esta manera (frmula 2.27):
f=
2
1 2
grande
2 = .14
f = .40
nmero de
grupos
potencia
pequea
2 = .01
f = .10
.70
258
42
17
.80
322
52
21
.70
221
36
15
.80
274
45
18
.70
195
32
13
.80
240
39
16
.70
175
29
12
.80
215
35
14
4
5
6
Tabla 6
11 Explicado por Cohen (1988:274ss, 284). Se trata de un tamao del efecto global, teniendo en cuenta todas las
diferencias de las medias con respecto a la media total (no se trata de la diferencia entre dos medias, como sucede en el
tamao del efecto convencional).
12 Los valores de referencia seleccionados estn tomados de Cohen (1988, tablas 8.4.4 y 8.4.5); tambin pueden
verse en Kirk (1995:186 y tabla E.13). Las tablas de Cohen (vlidas hasta 25 muestras) son ms fciles de consultar, y utiliza
f como criterio de magnitud; otros autores como Kirk (1995) utilizan ambos valores f y 2. Cohen utiliza el smbolo 2 en
vez de 2 (y comenta la falta de unanimidad en los smbolos en p. 282).
13 Las implicaciones del tamao desigual pueden vese comentadas en Cohen (1988:360ss). Si las muestras mayores
tienen tambin las mayores medias, el tamao del efecto ser mayor que si las muestras fueran de idntico tamao y tambin
ser mayor la potencia (y a la inversa tambin es verdad).
21
Los valores tabulados son el nmero de sujetos en cada muestra. En el caso de tres
muestras, si estamos interesados en verificar solamente si hay diferencias valoradas como
grandes y con una probabilidad de encontrarlas (si las hay) del 80%, necesitaremos una
muestra total de 21x3 = 63 sujetos; si en cambio consideramos un buen resultado el encontrar
diferencias pequeas (pero significativas), necesitaremos una muestra total de 322x3 = 966
sujetos.
Comparando los valores correspondientes a una potencia de .70 y 80 podemos apreciar
cmo al disminuir el nmero de sujetos disminuyen las probabilidades de rechazar la
Hiptesis Nula. En tablas ms extensas podramos ver que a) si tenemos tres muestras, b)
estamos interesados en descubrir pequeas diferencias (pero significativas) porque en nuestro
caso las consideramos relevantes y c) slo tenemos en torno a 20 sujetos en cada muestra, las
probabilidades de tener que aceptar la Hiptesis Nula de no diferencia siendo falsa son del
90%.
4. Tamao de la muestra en los diseos factoriales
En la tabla 7 tenemos el nmero necesario de sujetos en cada celda cuando tenemos dos
criterios de clasificacin (o factores) divididos en entre dos y cuatro niveles. Suponemos que
en cada clasificacin hay un idntico nmero de sujetos, como es usual en estos
planteamientos.
Suponemos tambin un nivel de confianza de = .05 y una potencia (1-) de .70 o de
.80 En estas tablas los niveles (o subclasificaciones) de cada factor pueden ser 2, 3 4.
Para valorar la magnitud utilizamos los mismos criterios de la tabla 514
El nmero total de sujetos ser igual al nmero de sujetos que aparece en la tabla
multiplicado por el nmero de subclasificaciones o celdas. En una tabla 2x3 tenemos 6 celdas;
si estamos interesados en detectar diferencias moderadas el nmero total de sujetos ser 6x18
= 108.
El nmero de sujetos especificado en la tabla 7 es suficiente para detectar si uno de los
dos factores (o los dos) es estadsticamente significativo (si hay diferencias entre los niveles
de cada factor, o, lo que es lo mismo, entre las medias de cada columna o de cada fila), pero
en el caso de la interaccin con estos mismos nmeros la potencia es menor porque
intervienen menos sujetos (no los totales de cada fila o columna sino los que hay en cada
clasificacin).
14 Los valores del tamao de la muestra (en cada clasificacin), puestos como referencia orientadora, estn
seleccionados de las extensas tablas de Kirk (1995:401 y tabla E.13). La disposicin de la tabla es una adaptacin muy
simplificada.
22
Tamao
de la tabla
2x2
potencia
.70
.80
pequea
2 = .01
f = .10
152
magnitud
moderada
2 = .06
f = .25
25
grande
2 = .14
f = .40
11
193
32
13
2x3
.70
.80
127
158
21
26
9
11
2x4
.70
.80
109
134
18
22
8
9
3x3
.70
.80
85
106
14
18
6
7
3x4
.70
.80
73
90
12
15
5
6
4x4
.70
.80
55
67
9
12
4
5
Tabla 7
23
Anexo VII: Mtodos no paramtricos de anlisis de varianza
15
En muchos textos de estadstica es normal encontrar algn captulo dedicado a estos mtodos no paramtricos en
los que se explican al menos los ms importantes. De la abundante bibliografa dedicada a los mtodos no paramtricos es
til mencionar a Siegel (1972; la primera edicin en ingls es de 1956 y sigue siendo una obra de referencia importante),
Siegel, y Castellan, (1988), Gibbons (1993) y Kanji (1993).
Anlisis de varianza: anexos
24
Tipos de hiptesis
Ms de dos muestras
independientes.
Ms de dos muestras
relacionadas
H de Kruskal-Wallis
(se utilizan rangos)
Prueba de Jonckheere
Prueba de Friedman
(se utilizan rangos)
Prueba L de Page
(extensin de la prueba de
Friedman)
Q de Cochran
(con puntuaciones dicotmicas, 1 0)
Prueba de Mann
(cuando n = 1)
Tabla 8
Las pruebas no paramtricas para comprobar tendencias son menos populares; de hecho
no se encuentran en la mayora de los textos.16
La H de Kruskal-Wallis, la alternativa al anlisis de varianza para varias muestras
independientes ms utilizada, es insensible a la no normalidad de las distribuciones, pero no
es tan claro que lo sea tambin a la falta de homogeneidad de varianzas.17
Un inconveniente de las dos pruebas ms populares como alternativa no paramtrica al
anlisis de varianza, la H de Kruskal-Wallis y el test de Friedman, es que la mayora de los
textos no suelen incluir contrastes posteriores o clculos complementarios (coeficientes de
asociacin del tipo 2) que ayuden a la interpretacin de los resultados y por este motivo con
frecuencia se estudian de manera incompleta18.
En Internet se encuentra con facilidad cmo hacer los anlisis no paramtricos ms
comunes (tambin el SPSS).
La H de Kruskal-Wallis y la prueba de Friedman (adems de los equivalentes a la t de
Student, U de Mann-Whiteny y T de Wilcoxon) se encuentran al menos en:
Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html (men
ordinal data)
Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong
http://department.obg.cuhk.edu.hk/index.asp?scr=1024 (men frequency tables)
16
Las pruebas de Page y Jonckheere para comprobar tendencias no estn descritas en el texto ms conocido de
Siegel y tampoco es fcil encontrarlas en textos convencionales de estadstica. Las dos pueden verse al menos en Siegel y
Castellan (1988) y en Hollander y Wolf (1973, un texto de nivel alto) y en Green y dOliveira (1984, un texto sencillo); la de
Jonckheere est tratada con mayor extensin en Leach (1982); la de Mann (muestras relacionadas y n = 1) tambin se
encuentra en Leach (1982).
17 Lix, Keselman y Keselman, (1996).
18 Sobre cmo llevar a cabo los contrastes posteriores en el anlisis de varianza no paramtrico (algo que no es fcil
encontrar en la mayora de los textos) pueden consultarse Linton, Gallo y Logan (1975), Pett (1997), Black (1999).
Anlisis de varianza: anexos
25
ANEXO VIII: Anlisis de Varianza en Internet
Son bastantes los programas que diversas instituciones ponen en Internet con acceso
libre y que permiten llevar a cabo diversos tipos de anlisis de varianza.
Muchos de estos programas permiten importar datos (de EXCEL, tabla de Word, etc.),
otros resuelven el anlisis de varianza para muestras independientes a partir de los datos
descriptivos bsicos (from summary data: media, desviacin tpica y nmero de sujetos).
Algunos de estos programas estn indicados en el ltimo apartado de anlisis de varianza
para muestras independientes. En el mismo lugar se indica dnde se pueden consultar
diversas tablas (F, Tukey, Dunnet) y las probabilidades exactas asociadas a cualquier valor de
F.
Una direccin con numerosos enlaces de anlisis estadsticos en las que podemos
encontrar con programas para llevar a cabo distintos tipos de anlisis de varianza pueden
verse en Web Pages that Perform Statistical Calculations!, http://statpages.org/ Esta
direccin se encuentra en John C. Pezzullo's Home Page (de Georgetown University,
Washington, DC.) http://statpages.org/JCPhome.html (en Interactive Statistics Pages). Esta
pgina presenta un ndice bien estructurado con enlaces a los diversos modelos de anlisis de
varianza y otros anlisis estadsticos. Muchos de estos enlaces remiten a estas direcciones de
inters general:
College of Saint Benedict/Saint Johns University [http://www.csbsju.edu/ ]
http://www.physics.csbsju.edu/stats/
Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong
http://department.obg.cuhk.edu.hk/index.asp?scr=1024
GraphPad, San Diego, CA [http://graphpad.com/] Free Online Calculators for
Scientists, http://graphpad.com/quickcalcs/index.cfm
Institute of Phonetic Sciences, Amsterdam (en Demos, tests, experiments statistics)
http://www.fon.hum.uva.nl/Welcome.html
Lane, David M. HyperStat Online Statistics Textbook
http://davidmlane.com/hyperstat/index.html
Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html
SISA (Simple Interactive Statistical Analysis, de Consultancy for Research and
Statistics, Hilversum, The Netherlands) http://www.quantitativeskills.com/sisa/
Referencias bibliogrficas
BLACK, THOMAS R. (1999). Doing Quantitative Research in the Social Sciences. London:
Sage.
BLAND, J. MARTIN and ALTMAN, DOUGLAS G. (1995). Multiple significance tests: the
Bonferroni method. British Medical Journal 1995;310:170 (21 January).
http://www.bmj.com/cgi/content/full/310/6973/170
CICCHETTI, DOMINIC V. (1972). Extensions of multiple-range tests to interaction tables in the
analysis of variance: A rapid approximate solution. Psychological Bulletin, 77, 405-408.
COHEN, JACOB (1988). Statistical Power Analysis for the Behavioral Sciences. Second
Edition. Hillsdale, N.J.: Lawrence Elrbraum.
26
DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG
KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp
GIBBONS, JEAN DICKINSON, (1993). Nonparametric Tests, an Introduction. Quantitative
Applications in the Social Sciences. Newbury Park: N.J.: Sage
GRAPHPAD. San Diego, CA [http://graphpad.com/] Free Online Calculators for Scientists
http://graphpad.com/quickcalcs/posttest1.cfm
GREENE, JUDITH y D'OLIVEIRA, MANUELA, (1984). Pruebas estadsticas para psicologa y
ciencias sociales: una gua para el estudiante. Bogot, Colombia: edit. Norma
HANCOCK, GREGORY R. and KLOCKARS, ALAN J., (1996). The Quest for : Developments in
Multiple Comparison Procedures in the Quarter Century Since Games (1971). Review of
Educational Research, 66, (3). 269 - 306.
HOLLANDER, MYLES and WOLFE, DOUGLAS A., (1973). Nonparametric Statistical Methods.
New York: Wiley and Sons.
JACCARD, JAMES (1998). Interaction Effects in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KANJI, GOPAL, (1993). 100 Statistical Tests. London: Sage.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LANE, DAVID M. HyperStat Online Statistics Textbook
http://davidmlane.com/hyperstat/index.html
LEACH, CHRIS, (1982). Fundamentos de estadstica, enfoque no paramtrico para ciencias
sociales. Mxico: Limusa.
LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical
Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole.
LIX, LISA M., KESELMAN, JOANNE C. and KESELMAN, H.J., (1996). Consequences of
Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way
Analysis of Variance F Test. Review of Educational Research, 66 (4) 579-619.
LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html
MCGUIGAN, F. J., (1994) Experimental Psychology, Methods of Research. Sixth edition.
Englewood Cliffs, N.J.: Hall.
PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical
Journal 1998; 316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236
PETT, MARJORIE A. (1997). Nonparametric Statistics for Health Care Research. Statistics for
Small Samples and Unusual Distributions. Thousand Oaks & London: Sage.
PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations.
http://members.aol.com/johnp71/javastat.html; Analysis of Variance from Summary Data
http://members.aol.com/johnp71/anova1sm.html
SIEGEL, SIDNEY and CASTELLAN, JR., N. JOHN (1988). Nonparametric Statistics for the
Behavioral Sciences. New York: McGraw-Hill
SIEGEL, SIDNEY, (1972). Estadstica no paramtrica aplicada a las ciencias sociales.
Mxico: Trillas.
TOOTHAKER, LARRY E., (1991). Multiple Comparisons for Researchers: Sage University
Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper
Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
TABLAS ESTADSTICAS
ltima revisin 25 de Marzo de 2009
ndice
1. Distribucin normal..................................................................................................
2. t de Student...............................................................................................................
3. Ji cuadrado................................................................................................................
4. r de Pearson ..............................................................................................................
5. F de Snedecor ...........................................................................................................
6. Tukey........................................................................................................................
11
7. Dunnett .....................................................................................................................
12
1. Tablas de la
Distribucin
Normal
--
--
rea mayor
rea menor
Proporcin de casos por debajo: percentil (multiplicando por 100) correspondiente a cada puntuacin tpica;
Puntuacin tpica positiva:
rea mayor
Puntuacin tpica negativa: rea menor
rea
rea
rea
rea
rea
rea
z
z
z
mayor
menor
mayor
menor
mayor
menor
0.82
0.7939
0.2061
0.41
0.6591
0.3409
0.00
0.50
0.50
0.83
0.7967
0.2033
0.42
0.6628
0.3372
0.01
0.504
0.496
0.84
0.7995
0.2005
0.43
0.6664
0.3336
0.02
0.508
0.492
0.85
0.8023
0.1977
0.44
0.67
0.330
0.03
0.512
0.488
0.86
0.8051
0.1949
0.45
0.6736
0.3264
0.04
0.516
0.484
0.87
0.8078
0.1922
0.46
0.6772
0.3228
0.05
0.5199
0.4801
0.88
0.8106
0.1894
0.47
0.6808
0.3192
0.06
0.5239
0.4761
0.89
0.8133
0.1867
0.48
0.6844
0.3156
0.07
0.5279
0.4721
0.90
0.8159
0.1841
0.49
0.6879
0.3121
0.08
0.5319
0.4681
0.91
0.8186
0.1814
0.50
0.6915
0.3085
0.09
0.5359
0.4641
0.92
0.8212
0.1788
0.51
0.695
0.305
0.10
0.5398
0.4602
0.93
0.8238
0.1762
0.52
0.6985
0.3015
0.11
0.5438
0.4562
0.94
0.8264
0.1736
0.53
0.7019
0.2981
0.12
0.5478
0.4522
0.95
0.8289
0.1711
0.54
0.7054
0.2946
0.13
0.5517
0.4483
0.96
0.8315
0.1685
0.55
0.7088
0.2912
0.14
0.5557
0.4443
0.97
0.834
0.166
0.56
0.7123
0.2877
0.15
0.5596
0.4404
0.98
0.8365
0.1635
0.57
0.7157
0.2843
0.16
0.5636
0.4364
0.99
0.8389
0.1611
0.58
0.719
0.281
0.17
0.5675
0.4325
1.00
0.8413
0.1587
0.59
0.7224
0.2776
0.18
0.5714
0.4286
1.01
0.8438
0.1562
0.60
0.7257
0.2743
0.19
0.5753
0.4247
1.02
0.8461
0.1539
0.61
0.7291
0.2709
0.20
0.5793
0.4207
1.03
0.8485
0.1515
0.62
0.7324
0.2676
0.21
0.5832
0.4168
1.04
0.8508
0.1492
0.63
0.7357
0.2643
0.22
0.5871
0.4129
1.05
0.8531
0.1469
0.64
0.7389
0.2611
0.23
0.591
0.409
1.06
0.8554
0.1446
0.65
0.7422
0.2578
0.24
0.5948
0.4052
1.07
0.8577
0.1423
0.66
0.7454
0.2546
0.25
0.5987
0.4013
1.08
0.8599
0.1401
0.67
0.7486
0.2514
0.26
0.6026
0.3974
1.09
0.8621
0.1379
0.68
0.7517
0.2483
0.27
0.6064
0.3936
1.10
0.8643
0.1357
0.69
0.7549
0.2451
0.28
0.6103
0.3897
1.11
0.8665
0.1335
0.70
0.758
0.242
0.29
0.6141
0.3859
1.12
0.8686
0.1314
0.71
0.7611
0.2389
0.30
0.6179
0.3821
1.13
0.8708
0.1292
0.72
0.7642
0.2358
0.31
0.6217
0.3783
1.14
0.8729
0.1271
0.73
0.7673
0.2327
0.32
0.6255
0.3745
1.15
0.8749
0.1251
0.74
0.7703
0.2297
0.33
0.6293
0.3707
1.16
0.877
0.123
0.75
0.7734
0.2266
0.34
0.6331
0.3669
1.17
0.879
0.121
0.76
0.7764
0.2236
0.35
0.6368
0.3632
1.18
0.881
0.119
0.77
0.7794
0.2206
0.36
0.6406
0.3594
1.19
0.883
0.117
0.78
0.7823
0.2177
0.37
0.6443
0.3557
1.20
0.8849
0.1151
0.79
0.7852
0.2148
0.38
0.648
0.352
1.21
0.8869
0.1131
0.80
0.7881
0.2119
0.39
0.6517
0.3483
1.22
0.8888
0.1112
0.81
0.791
0.209
0.40
0.6554
0.3446
z
1.23
1.24
1.25
1.26
1.27
1.28
1.29
1.30
1.31
1.32
1.33
1.34
1.35
1.36
1.37
1.38
1.39
1.40
1.41
1.42
1.43
1.44
1.45
1.46
1.47
1.48
1.49
1.50
1.51
1.52
1.53
1.54
1.55
1.56
1.57
1.58
1.59
1.60
1.61
1.62
1.63
1.64
1.65
1.66
1.67
1.68
1.69
1.70
1.71
1.72
1.73
1.74
1.75
1.76
rea
mayor
0.8907
0.8925
0.8944
0.8962
0.898
0.8997
0.9015
0.9032
0.9049
0.9066
0.9082
0.9099
0.9115
0.9131
0.9147
0.9162
0.9177
0.9192
0.9207
0.9222
0.9236
0.9251
0.9265
0.9279
0.9292
0.9306
0.9319
0.9332
0.9345
0.9357
0.937
0.9382
0.9394
0.9406
0.9418
0.9429
0.9441
0.9452
0.9463
0.9474
0.9484
0.9495
0.9505
0.9515
0.9525
0.9535
0.9545
0.9554
0.9564
0.9573
0.9582
0.9591
0.9599
0.9608
rea
menor
0.1093
0.1075
0.1056
0.1038
0.102
0.1003
0.0985
0.0968
0.0951
0.0934
0.0918
0.0901
0.0885
0.0869
0.0853
0.0838
0.0823
0.0808
0.0793
0.0778
0.0764
0.0749
0.0735
0.0721
0.0708
0.0694
0.0681
0.0668
0.0655
0.0643
0.063
0.0618
0.0606
0.0594
0.0582
0.0571
0.0559
0.0548
0.0537
0.0526
0.0516
0.0505
0.0495
0.0485
0.0475
0.0465
0.0455
0.0446
0.0436
0.0427
0.0418
0.0409
0.0401
0.0392
z
1.77
1.78
1.79
1.80
1.82
1.81
1.83
1.84
1.85
1.86
1.87
1.88
1.89
1.90
1.91
1.92
1.93
1.94
1.95
1.96
1.97
1.98
1.99
2.00
2.01
2.02
2.03
2.04
2.05
2.06
2.07
2.08
2.09
2.10
2.11
2.12
2.13
2.14
2.15
2.16
2.17
2.18
2.19
2.20
2.21
2.22
2.23
2.24
2.25
2.26
2.27
2.28
2.29
2.30
rea
mayor
0.9616
0.9625
0.9633
0.9641
0.9656
0.9649
0.9664
0.9671
0.9678
0.9686
0.9693
0.9699
0.9706
0.9713
0.9719
0.9726
0.9732
0.9738
0.9744
0.975
0.9756
0.9761
0.9767
0.9772
0.9778
0.9783
0.9788
0.9793
0.9798
0.9803
0.9808
0.9812
0.9817
0.9821
0.9826
0.983
0.9834
0.9838
0.9842
0.9846
0.985
0.9854
0.9857
0.9861
0.9864
0.9868
0.9871
0.9875
0.9878
0.9881
0.9884
0.9887
0.989
0.9893
rea
menor
0.0384
0.0375
0.0367
0.0359
0.0344
0.0351
0.0336
0.0329
0.0322
0.0314
0.0307
0.0301
0.0294
0.0287
0.0281
0.0274
0.0268
0.0262
0.0256
0.025
0.0244
0.0239
0.0233
0.0228
0.0222
0.0217
0.0212
0.0207
0.0202
0.0197
0.0192
0.0188
0.0183
0.0179
0.0174
0.017
0.0166
0.0162
0.0158
0.0154
0.015
0.0146
0.0143
0.0139
0.0136
0.0132
0.0129
0.0125
0.0122
0.0119
0.0116
0.0113
0.011
0.0107
z
2.31
2.32
2.33
2.34
2.35
2.36
2.37
2.38
2.39
2.40
2.41
2.42
2.43
2.44
2.45
2.46
2.47
2.48
2.49
2.50
2.51
2.52
2.53
2.54
2.55
2.56
2.57
2.58
2.59
2.60
2.61
2.62
2.63
2.64
2.65
2.66
2.67
2.68
2.69
2.70
2.71
2.72
2.73
2.74
2.75
2.76
2.77
2.78
2.79
2.80
2.81
2.82
2.83
2.84
rea
mayor
0.9896
0.9898
0.9901
0.9904
0.9906
0.9909
0.9911
0.9913
0.9916
0.9918
0.992
0.9922
0.9925
0.9927
0.9929
0.9931
0.9932
0.9934
0.9936
0.9938
0.994
0.9941
0.9943
0.9945
0.9946
0.9948
0.9949
0.9951
0.9952
0.9953
0.9955
0.9956
0.9957
0.9959
0.996
0.9961
0.9962
0.9963
0.9964
0.9965
0.9966
0.9967
0.9968
0.9969
0.997
0.9971
0.9972
0.9973
0.9974
0.9974
0.9975
0.9976
0.9977
0.9977
rea
menor
0.0104
0.0102
0.0099
0.0096
0.0094
0.0091
0.0089
0.0087
0.0084
0.0082
0.008
0.0078
0.0075
0.0073
0.0071
0.0069
0.0068
0.0066
0.0064
0.0062
0.006
0.0059
0.0057
0.0055
0.0054
0.0052
0.0051
0.0049
0.0048
0.0047
0.0045
0.0044
0.0043
0.0041
0.004
0.0039
0.0038
0.0037
0.0036
0.0035
0.0034
0.0033
0.0032
0.0031
0.003
0.0029
0.0028
0.0027
0.0026
0.0026
0.0025
0.0024
0.0023
0.0023
z
2.85
2.86
2.87
2.88
2.89
2.90
2.91
2.92
2.93
2.94
2.95
2.96
2.97
2.98
2.99
3.00
3.01
3.02
3.03
3.04
3.05
3.06
rea
mayor
0.9978
0.9979
0.9979
0.998
0.9981
0.9981
0.9982
0.9982
0.9983
0.9984
0.9984
0.9985
0.9985
0.9986
0.9986
0.9987
0.9987
0.9987
0.9988
0.9988
0.9989
0.9989
rea
menor
0.0022
0.0021
0.0021
0.002
0.0019
0.0019
0.0018
0.0018
0.0017
0.0016
0.0016
0.0015
0.0015
0.0014
0.0014
0.0013
0.0013
0.0013
0.0012
0.0012
0.0011
0.0011
z
3.07
3.08
3.09
3.10
3.11
3.12
3.13
3.14
3.15
3.16
3.17
3.18
3.19
3.20
3.21
3.22
3.23
3.24
3.25
3.26
3.27
3.28
rea
mayor
0.9989
0.999
0.999
0.999
0.9991
0.9991
0.9991
0.9992
0.9992
0.9992
0.9992
0.9993
0.9993
0.9993
0.9993
0.9994
0.9994
0.9994
0.9994
0.9994
0.9995
0.9995
rea
menor
0.0011
0.001
0.001
0.001
0.0009
0.0009
0.0009
0.0008
0.0008
0.0008
0.0008
0.0007
0.0007
0.0007
0.0007
0.0006
0.0006
0.0006
0.0006
0.0006
0.0005
0.0005
z
3.29
3.30
3.31
3.32
3.33
3.34
3.35
3.36
3.37
3.38
3.39
3.40
3.41
3.42
3.43
3.44
3.45
3.46
3.47
3.48
3.49
3.50
rea
mayor
0.9995
0.9995
0.9995
0.9995
0.9996
0.9996
0.9996
0.9996
0.9996
0.9996
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9998
0.9998
rea
menor
0.0005
0.0005
0.0005
0.0005
0.0004
0.0004
0.0004
0.0004
0.0004
0.0004
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0002
0.0002
2. Tablas de la t de Student
Pruebas de una cola (unilaterales) Grados de
Pruebas de dos colas (bilaterales) libertad
1
2
Grados de libertad:
3
Muestras independientes: N1 + N2 -2
4
Muestras relacionadas:
N-1
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0.05
.10
6.313752
2.919986
2.353363
2.131847
2.015048
1.943180
1.894579
1.859548
1.833113
1.812461
1.795885
1.782288
1.770933
1.761310
1.753050
1.745884
1.739607
1.734064
1.729133
1.724718
1.720743
1.717144
1.713872
1.710882
1.708141
1.705618
1.703288
1.701131
1.699127
1.697261
1.644854
0.025
.05
12.70620
4.30265
3.18245
2.77645
2.57058
2.44691
2.36462
2.30600
2.26216
2.22814
2.20099
2.17881
2.16037
2.14479
2.13145
2.11991
2.10982
2.10092
2.09302
2.08596
2.07961
2.07387
2.06866
2.06390
2.05954
2.05553
2.05183
2.04841
2.04523
2.04227
1.95996
0.005
0.0005
.01
.001
63.65674 636.6192
9.92484 31.5991
5.84091 12.9240
4.60409
8.6103
4.03214
6.8688
3.70743
5.9588
3.49948
5.4079
3.35539
5.0413
3.24984
4.7809
3.16927
4.5869
3.10581
4.4370
3.05454
4.3178
3.01228
4.2208
2.97684
4.1405
2.94671
4.0728
2.92078
4.0150
2.89823
3.9651
2.87844
3.9216
2.86093
3.8834
2.84534
3.8495
2.83136
3.8193
2.81876
3.7921
2.80734
3.7676
2.79694
3.7454
2.78744
3.7251
2.77871
3.7066
2.77068
3.6896
2.76326
3.6739
2.75639
3.6594
2.75000
3.6460
2.57583
3.2905
Adaptadas de STATSOFT, INC. (2002). Electronic Statistics Textbook. Tulsa, OK: StatSoft.
WEB: http://www.statsoft.com/textbook/stathome.html
1
3
4
5
6
7
8
9
10
11
12
p=
0.05
p=
0.01
p=
0.001
3.84
7.82
9.49
11.07
12.59
14.07
15.51
16.92
18.31
19.68
21.03
6.64
11.35
13.28
15.09
16.81
18.48
20.09
21.67
23.21
24.73
26.22
10.83
16.27
18.47
20.52
22.46
24.32
26.13
27.88
29.59
31.26
32.91
Grados
de
libertad
13
14
15
16
17
18
19
20
21
22
23
p=
0.05
p=
0.01
p=
0.001
22.36
23.69
25.00
26.30
27.59
28.87
30.14
31.41
32.67
33.92
35.17
27.69
29.14
30.58
32.00
33.41
34.81
36.19
37.57
38.93
40.29
41.64
34.53
36.12
37.70
39.25
40.79
42.31
43.82
45.32
46.80
48.27
49.73
Grados
de
libertad
24
25
26
27
28
29
30
40
50
60
70
p=
0.05
p=
0.01
36.42
37.65
38.89
40.11
41.34
42.56
43.77
55.76
67.51
79.08
90.53
42.98
44.31
45.64
46.96
48.28
49.59
50.89
63.69
76.15
88.38
p=
0.001
51.18
52.62
54.05
55.48
56.89
58.30
59.70
73.41
86.66
99.62
100.42 112.31
r
1/ N-1
y consultar las
tablas de la
distribucin
normal;
z >1.96, p<.05
z >2.56, p<.01
z >3.3, p<.001
o consultar
alguna direccin
de Internet.
= N-2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
98
100
.9969
.9500
.8783
.8114
.7545
.7067
.6664
.6319
.6021
.5760
.5529
.5324
.5139
.4973
.4821
.4683
.4555
.4438
.4329
.4227
.3809
.3494
.3246
.3044
.2875
.2732
.2609
.2500
.2405
.2319
.2242
.2172
.2108
.2050
.1996
.1986
.1946
.9998
.9900
.9587
.9172
.8745
.8343
.977
.7646
.7348
.7079
.6835
.6614
.6411
.6226
.6055
.5897
.5751
.5614
.5487
.5368
.4869
.4487
.4182
.3932
.3721
.3541
.3386
.3248
.3127
.3017
.2919
.2830
.2748
.2673
.2604
.2591
.2540
.9999
.9990
.9911
.9740
.9507
.9249
.8982
.8721
.8471
.8233
.8010
.7800
.7603
.7420
.7246
.7084
.6932
.6787
.6652
.6523
.5974
.5541
.5189
.4896
.4648
.4433
.4244
.4078
.3931
.3799
.3678
.3568
.3468
.3375
.3291
.3274
.3211
5. Tablas de la F de Snedecor
Grados de libertad en el denominador (v2)
Grados de libertad en el numerador (v1)
p
1
2
3
4
5
6
7
8
12
.10
4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34
3.27
5
.05
6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.68
.01
16.3 13.3 12.1 11.4 11.0 10.7 10.5 10.3 9.89
.10
3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98
2.90
6
.05
5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.00
.01
13.7 10.9 9.78 9.15 8.75 8.47 8.26 8.10 7.72
.10
3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75
2.67
7
.05
5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.57
.01
12.2 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.47
.10
3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59
2.50
8
.05
5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.57
.01
11.3 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.67
.10
3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47
2.38
9
.05
5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.07
.01
10.6 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.11
.10
3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38
2.28
10
.05
4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 2.91
.01
10.0 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.71
.10
3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30
2.21
11
.05
4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.79
.01
9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.40
.10
3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24
2.15
12
.05
4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.69
.01
9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.16
.10
3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20
2.10
13
.05
4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.60
.01
9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 3.96
.10
3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15
2.05
14
.05
4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.53
.01
8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 3.80
.10
3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12
2.02
15
.05
4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.48
.01
8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.67
.10
3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09
1.99
16
.05
4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.42
.01
8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89
3.55
.10
3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06
1.96
17
.05
4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.38
.01
8.40 6.11 5.19 4.67 4.34 4.10 3.93 3.79
3.46
.10
.01
2.62 2.42 2.29 2.20 2.13 2.08 2.04
1.93
18
.05
4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.34
.01
8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71
3.37
.10
2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02
1.91
19
.05
4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.31
.01
8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63
3.30
.10
2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00
1.89
20
.05
4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.28
.01
8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56
3.23
24
3.19
4.53
9.47
2.82
3.84
7.31
2.58
3.41
6.07
2.40
3.41
5.28
2.28
2.90
4.73
2.18
2.74
4.33
2.10
2.61
4.02
2.04
2.51
3.78
1.98
2.42
3.59
1.94
2.35
3.43
1.90
2.29
3.29
1.87
2.24
3.18
1.84
2.19
3.08
1.81
2.15
3.00
1.79
2.11
2.92
1.77
2.08
2.86
3.11
4.37
9.02
2.72
3.67
6.88
2.47
3.23
5.65
2.29
3.23
4.86
2.16
2.71
4.31
2.06
2.54
3.91
1.97
2.40
3.60
1.90
2.30
3.36
1.85
2.21
3.17
1.80
2.13
3.00
1.76
2.07
2.87
1.72
2.01
2.75
1.69
1.96
2.65
1.66
1.92
2.57
1.63
1.88
2.49
1.61
1.84
2.42
10
.05
3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.75
.01
6.64 4.61 3.78 3.32 3.02 2.80 2.64 2.51
2.18
24
1.75
2.05
2.80
1.73
2.03
2.75
1.72
2.01
2.70
1.70
1.98
2.66
1.69
1.96
2.62
1.68
1.95
2.58
1.67
1.93
2.55
1.66
1.91
2.52
1.65
1.90
2.49
1.64
1.89
2.47
1.57
1.79
2.29
1.51
1.70
2.12
1.45
1.61
1.95
1.38
1.52
1.79
1.59
1.81
2.36
1.57
1.78
2.31
1.55
1.76
2.26
1.53
1.73
2.21
1.52
1.71
2.17
1.50
1.69
2.13
1.49
1.67
2.10
1.48
1.65
2.06
1.47
1.64
2.03
1.46
1.62
2.01
1.38
1.51
1.80
1.29
1.39
1.60
1.19
1.25
1.38
1.00
1.00
1.00
11
k = nmero de medias
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
24
30
40
60
120
p ()
10
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
3.64
5.70
3.46
5.24
3.34
4.95
3.26
4.75
3.20
4.60
3.15
4.48
3.11
4.39
3.08
4.32
3.06
4.26
3.03
4.21
3.01
4.17
3.00
4.13
2.98
4.10
2.97
4.07
2.96
4.05
2.95
4.02
2.92
3.96
2.89
3.89
2.86
3.82
2.83
3.76
2.80
3.70
3.31
4.12
4.60
6.98
4.34
6.33
4.16
5.92
4.04
5.64
3.95
5.43
3.88
5.27
3.82
5.15
3.77
5.05
3.73
4.96
3.70
4.89
3.67
4.84
3.65
4.79
3.63
4.74
3.61
4.70
3.59
4.67
3.58
4.64
3.53
4.55
3.49
4.45
3.44
4.37
3.40
4.28
3.36
4.20
3.63
4.40
5.22
7.80
4.90
7.03
4.68
6.54
4.53
6.20
4.41
5.96
4.33
5.77
4.26
5.62
4.20
5.50
4.15
5.40
4.11
5.32
4.08
5.25
4.05
5.19
4.02
5.14
4.00
5.09
3.98
5.05
3.96
5.02
3.90
4.91
3.85
4.80
3.79
4.70
3.74
4.59
3.68
4.50
3.86
4.60
5.67
8.42
5.30
7.56
5.06
7.01
4.89
6.62
4.76
6.35
4.65
6.14
4.57
5.97
4.51
5.84
4.45
5.73
4.41
5.63
4.37
5.56
4.33
5.49
4.30
5.43
4.28
5.38
4.25
5.33
4.23
5.29
4.17
5.17
4.10
5.05
4.04
4.93
3.98
4.82
3.92
4.71
4.03
4.76
6.03
8.91
5.63
7.97
5.36
7.37
5.17
6.96
5.02
6.66
4.91
6.43
4.82
6.25
4.75
6.10
4.69
5.98
4.64
5.88
4.59
5.80
4.56
5.72
4.52
5.66
4.49
5.60
4.47
5.55
4.45
5.51
4.37
5.37
4.30
5.24
4.23
5.11
4.16
4.99
4.10
4.87
4.17
4.88
6.33
9.32
5.90
8.32
5.61
7.68
5.40
7.24
5.24
6.91
5.12
6.67
5.03
6.48
4.95
6.32
4.88
6.19
4.83
6.08
4.78
5.99
4.74
5.92
4.70
5.85
4.67
5.79
4.65
5.73
4.62
5.69
4.54
5.54
4.46
5.40
4.39
5.26
4.31
5.13
4.24
5.01
4.29
4.99
6.58
9.67
6.12
8.61
5.82
7.94
5.60
7.47
5.43
7.13
5.30
6.87
5.20
6.67
5.12
6.51
5.05
6.37
4.99
6.26
4.94
6.16
4.90
6.08
4.86
6.01
4.82
5.94
4.79
5.89
4.77
5.84
4.68
5.69
4.60
5.54
4.52
5.39
4.44
5.25
4.36
5.12
4.39
5.08
6.80
9.97
6.32
8.87
6.00
8.17
5.77
7.68
5.59
7.33
5.46
7.05
5.35
6.84
5.27
6.67
5.19
6.53
5.13
6.41
5.08
6.31
5.03
6.22
4.99
6.15
4.96
6.08
4.92
6.02
4.90
5.97
4.81
5.81
4.72
5.65
4.63
5.50
4.55
5.36
4.47
5.21
4.47
5.16
6.99
10.24
6.49
9.10
6.16
8.37
5.92
7.86
5.74
7.49
5.60
7.21
5.49
6.99
5.39
6.81
5.32
6.67
5.25
6.54
5.20
6.44
5.15
6.35
5.11
6.27
5.07
6.20
5.04
6.14
5.01
6.09
4.92
5.92
4.82
5.76
4.73
5.60
4.65
5.45
4.56
5.30
2.77
3.64
12
7. Tablas de Dunett
Para comparar varias medias con la media de un grupo de control,
Muestras de idntico tamao, pruebas bilaterales
Nmero de medias sin incluir el grupo de control
grados de
libertad
1
2
3
4
5
6
7
8
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
24
30
40
60
120
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
4.03
2.57
3.71
2.45
3.50
2.36
3.36
2.31
3.25
2.26
3.17
2.23
3.11
2.20
3.05
2.18
3.01
2.16
2.98
2.14
2.95
2.13
2.92
2.12
2.90
2.11
2.88
2.10
2.86
2.09
2.85
2.09
2.80
2.06
2.75
2.04
2.70
2.02
2.66
2.00
2.62
1.98
2.58
1.96
4.63
3.03
4.21
2.86
3.95
2.75
3.77
2.67
3.63
2.61
3.53
2.57
3.45
2.53
3.39
2.50
3.33
2.48
3.29
2.46
3.25
2.44
3.22
2.42
3.19
2.41
3.17
2.40
3.15
2.39
3.13
2.38
3.07
2.35
3.01
2.32
2.95
2.29
2.90
2.27
2.85
2.24
2.79
2.21
4.98
3.29
4.51
3.10
4.21
2.97
4.00
2.88
3.85
2.81
3.74
2.76
3.65
2.72
3.58
2.68
3.52
2.65
3.47
2.63
3.43
2.61
3.39
2.59
3.36
2.58
3.33
2.56
3.31
2.55
3.29
2.54
3.22
2.51
3.15
2.47
3.09
2.44
3.03
2.41
2.97
2.38
2.92
2.35
5.22
3.48
4.71
3.26
4.39
3.12
4.17
3.02
4.01
2.95
3.88
2.89
3.79
2.84
3.71
2.81
3.65
2.78
3.59
2.75
3.55
2.73
3.51
2.71
3.47
2.69
3.44
2.68
3.42
2.66
3.40
2.65
3.32
2.61
3.25
2.58
3.19
2.54
3.12
2.51
3.06
2.47
3.00
2.44
5.41
3.62
4.87
3.39
4.53
3.24
4.29
3.13
4.12
3.05
3.99
2.99
3.89
2.94
3.81
2.90
3.74
2.87
3.69
2.84
3.64
2.82
3.60
2.80
3.56
2.78
3.53
2.76
3.50
2.75
3.48
2.73
3.40
2.70
3.33
2.66
3.26
2.62
3.19
2.58
3.12
2.55
3.06
2.51
5.56
3.73
5.00
3.49
4.64
3.33
4.40
3.22
4.22
3.14
4.08
3.07
3.98
3.02
3.89
2.98
3.82
2.94
3.76
2.91
3.71
2.89
3.67
2.87
3.63
2.85
3.60
2.83
3.57
2.81
3.55
2.80
3.47
2.76
3.39
2.72
3.32
2.68
3.25
2.64
3.18
2.60
3.11
2.57
5.69
3.82
5.10
2.57
4.74
3.41
4.48
3.29
4.30
3.20
4.16
3.14
4.05
3.08
3.96
3.04
3.89
3.00
3.83
2.97
3.78
2.95
3.73
2.92
3.69
2.90
3.66
2.89
3.63
2.87
3.60
2.86
3.52
2.81
3.44
2.77
3.37
2.73
3.29
2.69
3.22
2.65
3.15
2.61
5.80
3.90
5.20
3.64
4.82
3.47
4.56
3.35
4.37
3.26
4.22
3.19
4.11
3.14
4.02
3.09
3.94
3.06
3.88
3.02
3.83
3.00
3.78
2.97
3.74
2.95
3.71
2.94
3.68
2.92
3.65
2.90
3.57
2.86
3.49
2.82
3.41
2.77
3.33
2.73
3.26
2.69
3.19
2.65
9
5.89
3.97
5.28
3.71
4.89
3.53
4.62
3.41
4.43
3.32
4.28
3.24
4.16
3.19
4.07
3.14
3.99
3.10
3.93
3.07
3.88
3.04
3.83
3.02
3.79
3.00
3.75
2.98
3.72
2.96
3.69
2.95
3.61
2.90
3.52
2.86
3.44
2.81
3.37
2.77
3.29
2.73
3.22
2.69