Sie sind auf Seite 1von 178

Introduccin al Anlisis de Varianza

Pedro Morales Vallejo


Universidad Pontificia Comillas
Facultad de Ciencias Humanas y Sociales
(ltima revisin 13 de Sept. de 2011)

INDICE
1. Finalidad del anlisis de varianza..........................................................................

2. Por qu utilizamos el anlisis de varianza en vez de la t de Student.....................

3. Qu comprobamos mediante el anlisis de varianza:


relacin entre la diferencia entre varianzas y la diferencia entre medias ..............

4. Conceptos y trminos propios del anlisis de varianza.........................................

5. Cmo podemos analizar (o descomponer) la varianza total..................................

10

6. Qu comprobamos con el anlisis de varianza......................................................

12

7. Cmo comparamos dos varianzas: la razn F .......................................................

13

8. Explicacin alternativa: relacin entre variables cualitativas o criterios de


clasificacin (variable independiente) y variables cuantitativas (variable
dependiente)..........................................................................................................

15

9. Diversos modelos de anlisis de varianza ............................................................

18

10. Cuestiones metodolgicas previas.......................................................................

19

10.1. Requisitos previos para utilizar el anlisis de varianza ...............................

19

10.2. Tamao de los grupos y prdida de sujetos .................................................

22

10.3. Tipos de categoras de clasificacin ............................................................

23

11. Referencias bibliogrficas ...................................................................................

24

1. Finalidad del anlisis de varianza


El anlisis de varianza lo vamos a utilizar para verificar si hay diferencias
estadsticamente significativas entre medias cuando tenemos ms de dos muestras o
grupos en el mismo planteamiento. En estos casos no utilizamos la t de Student que
solamente es un procedimiento vlido cuando comparamos nicamente las medias de dos
muestras. Como explicaremos ms adelante, cuando tenemos ms de dos muestras y
comparamos las medias de dos en dos suben las probabilidades de error al rechazar la
hiptesis de no diferencia porque queda suficientemente explicada por factores aleatorios
(error muestral).
En primer lugar recordamos qu es la varianza y qu nos cuantifica. La frmula de
la varianza ya nos es conocida; es la desviacin tpica elevada al cuadrado:
2 =

(X M)2
N

[1]

Utilizamos el smbolo X para designar las puntuaciones individuales, y el smbolo


M para designar la media aritmtica de la muestra; va a ser el smbolo de la desviacin
tpica de la muestra si no se indica expresamente que se trata del smbolo de la desviacin
tpica de la poblacin1.
El denominador ser N-1 si queremos obtener una estimacin de la varianza de la
poblacin. Esto es lo que haremos habitualmente en el clculo de las varianzas propias
del anlisis de varianza.
Una varianza grande indica que hay mucha variacin entre los sujetos, que hay
mayores diferencias individuales con respecto a la media; una varianza pequea nos
indica poca variabilidad entre los sujetos, diferencias menores entre los sujetos. La
varianza cuantifica todo lo que hay de diferente entre los sujetos u observaciones.
Como iremos viendo la varianza se puede descomponer en varianzas parciales y a
este descomponer la varianza le denominamos anlisis de varianza. La varianza expresa
variacin, y si podemos descomponer la varianza, podemos aislar fuentes de variacin.
Cuando de los sujetos tenemos varios tipos de informacin, el anlisis de varianza nos va
a responder a esta pregunta De dnde vienen las diferencias?

1 Utilizamos M como smbolo de la media aritmtica (no X ) y (y no s) como smbolo de la desviacin tpica
de la muestra (dividiendo por N, no por N -1); por razones de simplicidad y as lo vemos adems en otros autores
(como Guilford y Fruchter, 1978, que reconocen la falta de una prctica comn en el uso de estos smbolos). Es por
otra parte frecuente referirse a la desviacin tpica como sigma, el nombre del smbolo. En muchas calculadoras con
programacin estadstica de uso frecuente se utilizan los smbolos n y n-1 para referirse a la desviacin tpica de la
muestra (dividiendo por N) y de la poblacin (dividiendo por N - 1) respectivamente y son posiblemente los smbolos
ms claros. Otros autores (como Spatz, 1993) prefieren S (mayscula) para designar la desviacin tpica de la muestra
y s (minscula) para la desviacin tpica de la poblacin; otros en cambio (Rosenthal, 1987, 1991; Rosenthal y
Rosnow, 1991) utilizan S para la poblacin y para la muestra. Los smbolos para la desviacin tpica de la
poblacin y s para la desviacin tpica de la muestra (la prctica ms comn) son originarios de William S. Gossett
(Pearson y Kendall, Eds., 1978) al que debemos tambin la distribucin de la t de Student. Algn autor prescinde casi
de todo tipo de smbolos (Guguen, 1997). En nuestro caso el smbolo () no se presta a confusin porque
prcticamente siempre se trata de la desviacin tpica de la muestra a no ser que indiquemos expresamente que se trata
de la desviacin tpica de la poblacin; en este caso tambin utilizaremos ocasionalmente el smbolo n-1 para referirnos
a la desviacin tpica de la poblacin y n para designar la desviacin tpica de la muestra.

Introduccin al Anlisis de Varianza

El anlisis de varianza2 no constituye un mtodo o procedimiento nico; segn los


diseos y datos disponibles existen diversos modelos de anlisis de varianza. En esta
introduccin nos referiremos al anlisis de varianza para varias muestras independientes,
y ms concretamente al anlisis de varianza para slo dos muestras independientes
(aunque en este caso solemos utilizar la t de Student) porque es de comprensin ms
sencilla. La misma explicacin bsica se puede extrapolar a otras situaciones (ms de dos
muestras independientes, ms de dos muestras relacionadas, diseos factoriales, etc., que
iremos viendo ms adelante).
2. Por qu utilizamos el anlisis de varianza en vez de la t de Student
Cuando tenemos dos muestras y queremos comprobar si difieren significativamente
(si proceden de la misma poblacin con una nica media) utilizamos la t de Student.
Cuando tenemos ms de dos grupos utilizamos el anlisis de varianza: No podramos
comparar todos los grupos de dos en dos con la t de Student? A primera vista parecera lo
ms lgico, sin embargo no se hace as por una serie de razones que exponemos a
continuacin.
1 La razn ms importante (y suficiente) para no utilizar la t de Student con ms
de dos grupos es que, al hacer muchas comparaciones de dos en dos, aumenta la
probabilidad de que algunas diferencias resulten significativas por azar y entonces cabe la
posibilidad de afirmar que hay una diferencia (de no aceptar la hiptesis nula) cuando
realmente no la hay.
Si por ejemplo tenemos tres grupos podramos hacer tres comparaciones: entre el 1
y el 2, entre el 1 y el 3 y entre el 2 y el 3. Operando con un nivel de confianza de =
.05, la probabilidad de encontrar al menos una diferencia significativa por azar es de
hecho del 9.75% y no del 5% (no es importante el entender ahora el por qu, algo
aclaramos en el anexo I).
2 Otra razn adicional es que una prueba estadstica basada en todos los datos
utilizados simultneamente, es ms estable que la prueba o anlisis que parcializa los
datos y no los examina todos juntos. El error tpico (que expresa la variacin en las
medias que podemos encontrar en diversas muestras) es menor cuando el nmero de
sujetos es mayor, como sucede cuando se analizan todos los datos de todos los grupos
simultneamente. En principio es preferible utilizar un mtodo de anlisis global que
abarque todos los datos que se quieren examinar.
Aun as, si se tiene como hiptesis previa a la recogida de datos que dos de los
grupos difieren estadsticamente, es legtimo utilizar en ese caso y para esos dos grupos la
t de Student. Pero lo normal es que el anlisis de varianza implique hiptesis relativas a
todos los datos tomados simultneamente, en un nico planteamiento.
3 El ahorro de tiempo es otra razn que a veces se aduce, aunque en s misma no es
una razn vlida3. El nmero de comparaciones de dos en dos de k elementos es igual a k
(k-1)/2; con seis grupos habra que hacer 15 comparaciones y con 10 grupos subiran a
45. El anlisis de varianza nos dice de entrada si hay o no hay diferencias significativas
entre pares de medias, y si no las hay no necesitamos hacer ms anlisis. En cualquier

2 Tambin denominado ANOVA; del ingls ANalysis Of VAriance, y ANVA en espaol.


3 Adems la importancia que podra suponer el trabajo extra es nula utilizando programas de ordenador.

Introduccin al Anlisis de Varianza

caso no sera legtimo comparar todas las medias de dos en dos, en un mismo
planteamiento, por las razones dichas antes.
3. Qu comprobamos mediante el anlisis de varianza: relacin entre la diferencia
entre varianzas y la diferencia entre medias
Con la t de Student comprobamos si existe una diferencia estadsticamente
significativa entre las medias de dos muestras o grupos; es decir, comprobamos si las dos
medias difieren ms de lo que consideramos normal cuando las muestras proceden de la
misma poblacin o, lo que es lo mismo, si las medias no difieren entre s ms de lo que es
normal que difieran los sujetos entre s.
Con el anlisis de varianza comprobamos si existen diferencias estadsticamente
significativas entre ms de dos grupos, es decir, comprobamos si las diversas muestras
podemos considerarlas muestras aleatorias de la misma poblacin. Es el mtodo
apropiado cuando tenemos ms de dos grupos en el mismo planteamiento; en vez de
comparar las medias de dos en dos, utilizamos el anlisis de varianza (y ya veremos por
qu).
Cuando tenemos solamente dos muestras tambin podemos utilizar el anlisis de
varianza para comparar dos muestras en vez de la t de Student, pero con slo dos
muestras es ms cmodo utilizar los procedimientos tradicionales del contraste de medias
(t de Student).
Lo que directamente comprobamos en el anlisis de varianza es si entre dos o ms
varianzas existen diferencias estadsticamente significativas, pero lo que realmente
deseamos comprobar es si hay diferencias entre una serie de medias.
Lo primero que hay que comprender, al menos de una manera simple e intuitiva, es
que al comprobar si hay diferencia entre dos varianzas (enseguida veremos de qu dos
varianzas estamos hablando), llegamos a una conclusin sobre si hay diferencias entre las
medias.
Vamos a verlo en un ejemplo sencillo, con slo dos muestras de seis sujetos cada
una, representadas en la figura 1.

Media
de A:
4

Media
Total:
6.5

Media
de B:
9

10

10
8

5
3

10
8

5
3

Muestra A

Muestra B

Figura 1
En la figura 1 tenemos representados dos grupos o muestras, muestra A y muestra
B, cada una con su media. La media del grupo A es Ma = 4 y la media del grupo B es Mb
= 9.

Introduccin al Anlisis de Varianza

Si consideramos a todos los sujetos como pertenecientes a un nico grupo, A+B,


tenemos que la media total es Ma+b= (Ma + Mb)/2 = 6.5.
Este considerar a todos los sujetos como hipotticamente pertenecientes a una
nica muestra es importante para entender el procedimiento de anlisis de varianza;
porque es esta varianza del grupo total la que vamos a analizar o descomponer.
En la figura 2 tenemos la representacin de los mismos sujetos de los dos grupos de
la figura 1, pero ahora unidos grficamente en un solo grupo.

10B

10B

8B

5A

8B

5A
3A

10B
8B

5A
3A

3A

muestra A y muestra B unidas en un solo grupo

Figura 2
Cuando pensamos en trminos del anlisis de varianza la imagen de la figura 1
debera ser la de la figura 2, donde tenemos un solo grupo integrado por los dos grupos
iniciales: es la varianza de este nuevo grupo la que vamos a analizar o descomponer.
De cada sujeto conservamos la informacin sobre su grupo inicial de pertenencia (A o B).
Observando las diferencias entre los sujetos de este grupo total podemos
preguntarnos: De dnde vienen las diferencias en este grupo total formado por las
muestras A y B?
De que los sujetos son muy distintos entre s dentro de cada grupo? No, en este
ejemplo los sujetos dentro de cada grupo tienen un grado semejante de homogeneidad o
variabilidad: dentro de cada grupo las diferencias entre sujetos (las varianzas) son iguales
(si nos fijamos en la figura 1, vemos que en ambos grupos las diferencias entre cualquier
par de sujetos o son igual a 0 o son igual a 2).
Lo que sucede es que las medias son distintas: las medias de los grupos difieren
entre s ms que los sujetos entre s dentro de cada grupo. Si calculamos la varianza
dentro de cada uno de los dos grupos (representados en las figuras 1 y 2), veremos que su
valor es igual a 1; en cambio si calculamos la varianza entre los grupos (utilizando las
dos medias como si se tratara de datos de dos sujetos, o utilizando los datos de todos los
sujetos, pero asignando a cada uno la media de su grupo) veremos que la varianza es
igual a 6.25: es mayor la varianza (diferencias entre) de los grupos que la de los sujetos.
La media total ((4+9)/2) es de 6.5; las medias de cada grupo se apartan ms de la
media total que los sujetos de su propia media. Y sta ser la conclusin importante:
Si las medias entre s difieren ms que los sujetos entre s,
podemos concluir que las medias son distintas.

Introduccin al Anlisis de Varianza

Dicho de otra manera, si las medias difieren entre s ms que los sujetos entre s,
concluiremos que las medias pertenecen a muestras que proceden de poblaciones distintas
con distinta media; hay una variabilidad mayor entre las medias que entre los sujetos.
En la figura 3 tenemos un caso distinto, con otros dos grupos de seis sujetos. Los
dos grupos tienen idntica media, no difieren en cuanto grupos, pero entre los sujetos,
dentro de cada grupo, s hay diferencias.
Media
de A:
6

Media
Total:
6

Media
de B:
6

7
6

5
4

Muestra A

Muestra B

Figura 3
Uniendo ambos grupos, podramos calcular la varianza total, y preguntarnos de
nuevo: De dnde viene esa varianza (esas diferencias)? De que los grupos son distintos,
con media distinta, como en el caso anterior? O las diferencias en el grupo total vienen
simplemente de que los sujetos dentro de cada grupo son distintos?
En este caso las diferencias no vienen de diferencias entre los grupos, que tienen
idntica media, sino de que los sujetos dentro de cada grupo son muy distintos.
Vamos a suponer que estas puntuaciones son de autoestima, y que los dos grupos
pertenecen a dos aulas distintas de alumnos. Si comprobamos que la varianza o
diversidad dentro de los grupos es mayor, o ms o menos igual, que la varianza o
diversidad entre los grupos, nuestra conclusin sera que, por lo que respecta a la
autoestima, estamos ante un nico grupo, o ante dos muestras que representan a la misma
poblacin. La hiptesis de dos grupos, o de dos muestras procedentes de poblaciones
distintas con distinta media en autoestima, no se sostendra.
Podemos imaginar un ejemplo todava ms sencillo: tenemos dos grupos, uno de
enanos y otro de gigantes:
Cada grupo tiene su media en altura; la media de los gigantes es mayor que la
media de los enanos.
Dentro de cada grupo hay tambin diferencias; no todos los enanos son igualmente
bajitos ni todos los gigantes son igualmente altos.
Pero cul sera nuestra conclusin si comprobamos que la diferencia entre las
medias de los gigantes y de los enanos es ms o menos igual a las diferencias que
podemos encontrar entre los sujetos dentro de cada grupo? Pues sencillamente que no
tenemos ni enanos ni gigantes, la hiptesis es falsa, y por lo que respecta a estatura,
podemos considerar que todos pertenecen al mismo grupo (o hablando con ms
propiedad, que todos pertenecen a la misma poblacin por lo que respecta a la altura).

Introduccin al Anlisis de Varianza

El razonamiento para explicar el anlisis de varianza (consideramos que dos grupos


son distintos cuando la variabilidad entre los grupos, entre las medias, es mayor que la
variabilidad dentro de los grupos) es sencillo y adems aplicable a otras situaciones al
margen del anlisis estadstico. Dentro de grupos oficialmente distintos en la percepcin
social (distintos en estatutos, ideario o cualquier otra variable) puede haber diferencias
mayores o iguales que las diferencias que se dan por ciertas entre los grupos; la nica
diferencia puede estar en el cartel utilizado para designarlos, sin base real para afirmar
que en una determinada caracterstica esos grupos tienen medias distintas y constituyen
poblaciones distintas.
El trmino poblacin se presta a cierta equivocidad en este contexto, sobre todo
cuando hablamos de poblaciones distintas. En este caso llamamos poblaciones distintas a
aquellas poblaciones (tal como nos vienen representadas por muestras concretas) cuyas
medias difieren entre s mas que los sujetos entre s, aunque hablemos de poblaciones
distintas con otros criterios meramente conceptuales o hipotticos (por ejemplo los
alumnos de la facultad A y los alumnos de la facultad B).
Estos ejemplos reflejan una situacin sencilla porque se trata solamente de dos
grupos; los grupos podran ser tres o ms. Lo que importa ahora es ver que al analizar
varianzas podemos llegar a conclusiones sobre si hay o no hay diferencias superiores a lo
normal entre las medias de varias muestras, considerando como diferencias normales las
que podemos encontrar entre los sujetos del mismo grupo.
Otra manera de representar grficamente lo que analizamos mediante el anlisis de
varianza la tenemos en la figura 4. Tenemos representados dos grupos:
En un caso (caso A) las medias difieren entre s ms o menos lo mismo que los
sujetos entre s; podramos concluir que ambas muestras proceden de la misma
poblacin.
En el otro caso (caso B) las medias difieren entre s ms que los sujetos entre s; en
cambio en ambos grupos las diferencias entre los sujetos son de magnitud
semejante; dentro de cada grupo la varianza es ms o menos igual. Nuestra
conclusin sera que los grupos son distintos, proceden de poblaciones con media
distinta.

media

media
media

media

Caso A
Las medias no difieren entre s ms de lo que los
sujetos difieren entre s; la varianza entre los grupos es
ms o menos igual a la varianza dentro de los grupos.

Caso B
Las medias difieren entre s ms de lo que los sujet
difieren entre s; la varianza entre los grupos es mu
mayor que la varianza dentro de los grupos.

Figura 4
Expresado de otra manera: la diversidad o variacin que encontramos dentro de los
grupos (expresada por la varianza dentro de los grupos) es la diversidad normal,
aleatoria; lo normal es que no todos los sujetos de una muestra sean idnticos en una
Introduccin al Anlisis de Varianza

determinada caracterstica. Si las medias difieren entre s (varianza entre grupos) ms de


lo que se puede esperar por azar (varianza dentro de los grupos), afirmaremos que las
medias son distintas o, lo que es lo mismo (expresado en trminos ms formales), que las
muestras proceden de poblaciones distintas con distinta media.
Bsicamente vamos a hacer esto: la varianza total (del gran grupo; el que resultara
si unimos a todos los sujetos en un nico grupo) la vamos a descomponer en dos
varianzas;
a) Una varianza nos va a expresar las diferencias entre las medias (entre los grupos)
b) Otra varianza nos va a expresar las diferencias o variabilidad entre los sujetos,
dentro de los grupos (y que consideramos que es la variabilidad normal)
Si la diversidad entre las medias (los grupos) es mayor que la diversidad entre los
sujetos dentro de los grupos, es cuando afirmaremos que entre las medias hay diferencias
superiores a lo que podemos encontrar por azar (que es lo que sucede dentro de los
grupos).
El anlisis de varianza, analizando varios grupos simultneamente, nos dir si entre
las medias de los grupos hay o no hay diferencias significativas (superiores a la
variabilidad normal dentro de los grupos), pero en el caso de que haya diferencias entre
los grupos, el mero anlisis de varianza no dice directamente entre qu grupos est la
diferencia; habr despus que comparar los grupos de dos en dos mediante
procedimientos anlogos (hay varios) a la t de Student, denominados contrastes
posteriores que expondremos a propsito del anlisis de varianza para muestras
independientes.
4. Conceptos y trminos propios del anlisis de varianza
Una dificultad inicial que suele presentar el estudio del anlisis de varianza es el
uso de trminos nuevos, por eso es til familiarizarse con estos trminos ya desde el
principio. Realmente los conceptos no son nuevos, solamente pueden resultar
relativamente nuevos los trminos para designarlos. Cuando se cae en la cuenta de que se
trata de lo que ya sabemos, desaparece la dificultad.
Recordamos la frmula de la varianza: 2 =

(X - M)2
N -1

Es decir, se trata de una razn o quebrado con un numerador y un denominador


(que ahora es N-1, y no N simplemente, porque se trata de una estimacin de la varianza
de la poblacin). A este numerador y denominador de la varianza nos vamos a ir
refiriendo por separado utilizando los nuevos trminos, que por otra parte no son
arbitrarios y nos ayudarn a entender cmo se analiza o descompone la varianza.
El numerador de la varianza o suma de cuadrados

La suma de las diferencias de todos los datos con respecto a la media, elevadas
previamente al cuadrado [(X-M)2] es el numerador de la varianza. A este numerador se
le denomina Suma de Cuadrados y su smbolo habitual es SC. No es raro encontrarse con
el smbolo SS, que significa lo mismo pero en ingls (Sum of Squares).
La expresin (X-M)2 tambin suele simbolizarse x2 (la equis minscula, x, es
smbolo frecuente de X- M), y tambin se utiliza a veces d2 (d = diferencia de cada
puntuacin individual con respecto a la media).

Introduccin al Anlisis de Varianza

Como la varianza de la muestra es =

(X - M)2
N

podemos tambin expresar, y calcular, la suma de cuadrados [(X-M)2] de esta forma


(despejndola de la frmula precedente):
Numerador de la varianza o Suma de Cuadrados:

(X-M)2 = N2

Esta expresin del numerador de la varianza o suma de cuadrados (N2) es muy


importante porque, como ya hemos indicado, facilita mucho el clculo de la suma de
cuadrados cuando se dispone de una calculadora con programacin estadstica que nos da
directamente el valor de la desviacin tpica (), como iremos viendo al explicar los
diversos mtodos4.
La Suma de Cuadrados, o numerador de la varianza, se puede por lo tanto expresar
o simbolizar de estas maneras:
Numerador de la varianza o Suma de Cuadrados:
SC = (X-M)2 = x2 = d2 = N2
El denominador de la varianza o grados de libertad

El denominador de la varianza es el nmero de sujetos menos uno, o, segn los


casos, el nmero de grupos o nmero de criterios de clasificacin, menos uno (N-1, k-1,
etc.). Restamos una unidad porque se trata de estimaciones de la varianza en la poblacin.
El trmino habitual de este denominador es grados de libertad y ya nos resulta conocido.
El smbolo habitual de los grados de libertad es gl (en ingls encontraremos el trmino
degrees of freedom simbolizado como df).
La varianza o cuadrados medios

La varianza es la razn entre la suma de cuadrados (numerador) y los grados de


libertad (denominador). La varianza suele denominarse, en este contexto del anlisis de
varianza, Cuadrados Medios5, y se simboliza como CM (y a veces MS o Mean Squares en
ingls).
Utilizando los diversos smbolos y expresiones habituales, tendremos por lo tanto:

4 Por otra parte el valor de la desviacin tpica, y otros datos, podemos encontrarlo ya calculado y no tenemos
necesidad de conocer todos los datos de todos los sujetos para hacer un anlisis de varianza; sobre esto mismo
insistiremos en otras ocasiones porque el caer en la cuenta de esta posibilidad es sumamente prctico. Si disponemos
solamente de estos datos, N, M y (y puede ser un caso frecuente) no podemos hacer un anlisis de varianza con los
programas habituales de ordenador (como el SPSS) y s podemos hacerlo con una simple calculadora y en algunos
programas de Internet que slo requieren esos datos.
5 En EXCEL a la varianza o Cuadrados Medios se le denomina Promedio de los Cuadrados.

Introduccin al Anlisis de Varianza

10

Suma de Cuadrados
SC
(X -M) 2
Varianza: =
= Cuadrados Medios =
= CM =
Grados de Libertad
gl
N -1
2

5. Cmo podemos analizar (o descomponer) la varianza total

La varianza tiene una propiedad que la hace muy til: puede descomponerse y esto
permite numerosos anlisis.
En el ejemplo de dos (o ms) muestras, la varianza total (uniendo las dos muestras
en una sola) puede descomponerse en dos varianzas:
1) Una varianza que indica la variabilidad dentro de los grupos
2) Otra varianza que expresa la variabilidad (diferencias) entre los grupos (entre las
medias).
El que la varianza puede descomponerse podemos captarlo en un sencillo ejemplo
grfico. Es muy til entenderlo aunque slo sea de manera intuitiva y observando con
detencin la figura 5, para poder comprender toda la informacin que nos da el anlisis
de varianza.
En la figura 5 tenemos representados esquemticamente (y de manera muy
exagerada para hacer ms claro el esquema):
1. Dos grupos o muestras, cada uno con su media (M1 y M2),
2. El grupo formado por las dos muestras con la media del total de ambos grupos
(MT),
3. La puntuacin (X) de un sujeto del primer grupo.
Los puntos indicados en la figura 5 representan las dos medias, la media total y la
puntuacin X de un sujeto concreto del grupo 1 (y podra hacerse la misma
representacin con todos los sujetos de todos los grupos).

Puntuacin
de un sujeto
del grupo 1

Media
del grupo 1

Media total
uniendo
los dos
grupos

Media
del grupo 2

X
X-MT
X-M1

M1-MT

Figura 5
Si vamos a calcular la varianza del grupo total (el que resultara al unir a todos los
sujetos en un solo grupo) con media MT, sta ser la frmula:

2
total

[X - M total ]2
=
N -1

En el numerador: (X - MT)2 (suma de cuadrados) donde X representa a todas y


cada una de las puntuaciones pertenecientes a las dos (o ms) muestras.
Introduccin al Anlisis de Varianza

11

La contribucin a la varianza total de la puntuacin del sujeto X sealado en la


figura 5 y perteneciente al grupo 1, ser:
X- MT
Esta diferencia de X con respecto a MT puede descomponerse en dos diferencias
(tal como puede apreciarse grficamente en la figura 5):
X- MT = (X- M1) + (M1 - MT)
La diferencia de cada sujeto con respecto a la media total es igual a:
la diferencia entre esta puntuacin y
la media de su grupo (X- M1)

la diferencia entre la media de su


grupo y la media total (M1 - MT)

ms

Observando la figura 5 se ve con facilidad cmo una diferencia se ha descompuesto


en la suma de dos diferencias que expresan dos variabilidades:
La variabilidad que hay dentro de los grupos: (X - M1)
(M1 - MT)
La variabilidad que hay entre los grupos:
Esta operacin la extendemos a todos los sujetos de todos los grupos, as por
ejemplo:
para un sujeto del grupo 1:
para un sujeto del grupo 2:

X - MT = (X- M1) + (M1 - MT);


X - MT = (X- M2) + (M2 - MT);

Para todos los sujetos tendramos lo mismo, tal como se indica en la figura 6.
Suma de Cuadrados
total
2

[X - MT]

variabilidad total
diferencias de los sujetos con
respecto a la media total

Suma de Cuadrados
dentro de los grupos

[X - Mn]

variabilidad dentro de los grupos


diferencias de cada sujeto con
respecto a la media de su grupo

Suma de Cuadrados
entre los grupos

[Mn - MT]

variabilidad entre los grupos


diferencias de cada media
con respecto a la media total

Figura 6: cmo descomponemos la suma de cuadrados o numerador de la varianza


Es decir, la suma de cuadrados, o numerador de la varianza, la hemos
descompuesto en dos sumas de cuadrados:
Una suma de cuadrados expresa las diferencias dentro de los grupos
Otra suma de cuadrados expresa las diferencias entre los grupos.
Algo que conviene tener claro es que la varianza, o la variabilidad, dentro de los
grupos es independiente de las diferencias o la variabilidad entre las medias:
Si un sujeto del grupo 1 tiene una puntuacin de X = 7 y la media de su grupo es
M1 = 5, su contribucin a la varianza o diversidad dentro de los grupos va a ser 7-5
= 2;
Si un sujeto del grupo 2 tiene una puntuacin de X = 15 y la media de su grupo es
M2 = 13, su contribucin a la varianza o diversidad dentro de los grupos va a ser
15-13 = 2.

Introduccin al Anlisis de Varianza

12

Es decir, ambos sujetos contribuyen en idntica cantidad a la varianza dentro de los


grupos, aunque las medias de sus grupos respectivos sean muy distintas.
Esto es lo ms importante (conceptualmente) de la varianza; son estas distancias las
que cuantifican la diversidad expresada por la varianza; el denominador lo necesitamos
porque en definitiva se trata de medias, para que unas sumas de cuadrados sean
comparables con otras.
En el denominador, con los grados de libertad, sucede lo mismo; los grados de
libertad de la varianza total (N -1) se pueden descomponer en grados de libertad dentro
de los grupos y grados de libertad entre los grupos, tal como est resumido en la figura 7.
grados de libertad de la
varianza total
N -1
N = suma de todos los
sujetos
(n si n es el tamao de
cada grupo)

grados de libertad de la
varianza dentro de los grupos
(N - k)

k = nmero de grupos
En cada grupo los grados de
libertad son n 1 (n = nmero de
sujetos en cada grupo); si se trata
de tres grupos, los grados de
libertad son: (n1 -1)+(n2 -1)+(n3-1)
o lo que es lo mismo, N- 3

grados de libertad de la
varianza entre los grupos
(k - 1)
o nmero de grupos
menos uno

Figura 7: cmo descomponemos los grados de libertad o denominador de la varianza


Si tenemos tres grupos de 10 sujetos cada uno (N=30), los grados de libertad de la
varianza total sern gl = (30-1) = [30-3] + [3-1] = 29:
[30-3]: grados de libertad dentro de los grupos = (10-1) + (10-1) + (10-1) (n-1 son
los grados de libertad de cada grupo).
[3-1]: grados de libertad entre los grupos: nmero de grupos menos uno.
Esta explicacin es literalmente vlida para un anlisis de varianza hecho con
varias muestras independientes (dos o ms de dos grupos de sujetos fsicamente
distintos), pero de manera anloga se puede aplicar a otros modelos de anlisis de
varianza.
6. Qu comprobamos con el anlisis de varianza

Refirindonos al anlisis de dos o ms muestras independientes (y de manera


anloga hacemos lo mismo en otros planteamientos), en la Hiptesis Nula se afirma que
todas las muestras proceden de la misma poblacin, y que por lo tanto sus medias no
difieren significativamente; sus diferencias se explican adecuadamente por el error
muestral (la variabilidad normal que podemos encontrar en cualquier grupo).
Para comprobar esta hiptesis calculamos dos estimaciones de la varianza de esa
supuesta misma poblacin, siguiendo caminos distintos e independientes. Si realmente
todas las muestras proceden de la misma poblacin, y por lo tanto sus medias no difieren
significativamente entre s, ambos caminos nos llevarn al mismo resultado.
Las dos estimaciones de la varianza (o variabilidad, 2) de la poblacin ya las
hemos visto:
1 A partir de las medias de los grupos, de su variabilidad con respecto a la media
total; como si asignramos a cada sujeto la media de su grupo, prescindiendo de las

Introduccin al Anlisis de Varianza

13

diferencias individuales dentro de cada grupo. Es lo que denominamos varianza entre


grupos; expresa lo que difieren unos grupos de otros.
2 A partir de las puntuaciones individuales con respecto a sus medias respectivas,
dentro de cada grupo. Es lo que llamamos varianza dentro de los grupos; indica lo que
difieren los sujetos entre s dentro de cada grupo, prescindiendo de las diferencias entre
medias, como ya hemos visto.
Estas dos varianzas (entre y dentro de los grupos), o Cuadrados Medios, las
calcularemos dividiendo en cada caso la Suma de Cuadrados por los Grados de Libertad.
Si ambas estimaciones de la varianza son iguales o muy parecidas, podremos
afirmar que todas las muestras proceden de la misma poblacin (aceptamos, o no
rechazamos, la Hiptesis Nula), y que por lo tanto no difieren significativamente entre s.
Si por el contrario ambas estimaciones son muy diferentes, y la varianza entre los
grupos es mayor que la varianza dentro de los grupos (es mayor la diferencia entre los
grupos que la que encontramos entre los sujetos) podremos inferir que las muestras
proceden de poblaciones distintas con distinta media.
Dicho en trminos ms simples, se trata de verificar si las medias de los grupos
difieren entre s ms que los sujetos entre s.
7. Cmo comparamos dos varianzas: la razn F

Para comparar dos varianzas no restamos una de la otra (como hacemos cuando
comparamos dos medias) sino que dividimos una por la otra calculando la razn F de
Snedecor:6
2mayor
F= 2
[2]
menor
o segn los trminos convencionales del anlisis de varianza,
CM entre
F=
[3]
CM dentro
donde CM = Cuadrados Medios, o varianza.
Para entender mejor lo que hacemos mediante la razn F del anlisis de varianza
podemos pensar en una analoga con la t de Student7. Con muestras de idntico tamao
sta es la frmula que utilizamos:
M1 M 2
t=
[4]
21 + 22
1
En el numerador tenemos la diferencia entre las medias de dos muestras. En el
denominador vemos las varianzas de los dos grupos, un indicador de las diferencias

6 Las tablas de la distribucin de F son de Snedecor (y por eso se llaman tablas de la F de Snedecor) pero se
bas en un trabajo previo de Sir Ronald Aymer Fisher (1890-1962), y en su honor denomin F a este cociente. El
anlisis de varianza se lo debemos fundamentalmente a Fisher. George Waddle Snedecor (1881-1974) fue el primero
en fundar en EE.UU. un departamento de estadstica en Iowa State University.
7 Tomamos esta analoga de McGuigan (1994).

Introduccin al Anlisis de Varianza

14

dentro de los grupos8; es lo mismo que vemos en la frmula [3], diferencias entre medias
en el numerador y diferencias entre sujetos en el denominador.

Podemos ver sin mayor dificultad que obtendremos un valor de t estadsticamente


significativo (el cociente ser mayor) en la medida en que la diferencia entre las dos
medias (numerador) sea mayor y las diferencias dentro de los grupos expresadas en las
varianzas del denominador sean ms pequeas. No es algo muy distinto a lo que hacemos
en el anlisis de varianza: verificar si las medias difieren entre s ms que los sujetos
entre s. De hecho, y en el caso de dos muestras, ya veremos que ambos anlisis,
contraste de medias y anlisis de varianza, nos llevan a los mismos resultados y a las
mismas conclusiones (F, el estadstico propio del anlisis de varianza, es igual a t2).
Qu varianza se pone en el numerador y qu varianza se pone en el
denominador?

a) Cuando se comparan (o contrastan) dos varianzas mediante la razn F, la norma


general es colocar en el numerador la varianza mayor y en el denominador la varianza
menor, como se indica en la frmula [2].
b) En el anlisis de varianza al calcular la razn F colocamos en el denominador la
varianza considerada en cada caso como normal o aleatoria, aunque no sea la ms
pequea (aunque casi siempre es la ms pequea), como se indica en la frmula [3].
Cuando comparamos varias muestras independientes, esta varianza aleatoria (que
expresa la diversidad o variabilidad normal) es la varianza dentro de los grupos, como ya
hemos indicado.
En otros planteamientos (muestras relacionadas, diseos factoriales, etc.) cul es la
varianza que va en el denominador (la varianza aleatoria, el trmino de comparacin) se
indica expresamente en cada caso. En estos planteamientos puede haber ms de un razn
F pues comparamos varias varianzas (o fuentes, orgenes de diversidad) con la varianza
aleatoria o diversidad normal.
En la terminologa para designar el denominador de la razn F cabe cierta
confusin porque se emplean indistintamente distintos trminos:
Varianza (o cuadrados medios) dentro de los grupos (que es lo que es realmente)
Varianza del trmino del error (error es aqu lo mismo que diferencias aleatorias,
normales las que hay en cualquier grupo de sujetos u objetos),
Varianza residual (la que nos queda cuando eliminamos otras fuentes sistemticas
de variabilidad como puede ser la pertenencia a uno u otro grupo).
La varianza que colocamos en el numerador es la que nos interesa comparar con
la que consideramos normal o aleatoria. Nuestro inters est en comprobar si la varianza
del numerador (que expresa las diferencias entre los grupos) difiere de la varianza del
denominador (que expresa las diferencias dentro de los grupos), que es el trmino de la
comparacin porque expresa la variabilidad normal.

c) Si la varianza del denominador es mayor que la del numerador, no es necesario


calcular la razn F; el cociente va a ser inferior a 1 y la diferencia entre las dos varianzas
no va a ser estadsticamente significativa. Se puede calcular y poner el dato en su lugar,

8 En trminos propios, el denominador de la t de Student es el error tpico de la diferencia entre medias.

Introduccin al Anlisis de Varianza

15

pero no hace falta consultar las tablas. En lugar de poner p<.05 p<.01, pondremos p>
.05 (si nuestro nivel de confianza es = .05) o simplemente no significativo.
d) En cualquier caso, al consultar las tablas, donde dice grados de libertad del
cuadrado mayor hay que entender grados de libertad de la varianza del numerador y
donde dice grados de libertad del cuadrado menor hay que entender grados de libertad
de la varianza del denominador.
e) Si la razn F es igual a 1, las dos varianzas son iguales. En la medida en que la
varianza del numerador sea mayor que la del denominador, el cociente ir siendo mayor
que 1. Si los sujetos pertenecen a la misma poblacin y el pertenecer a un grupo u otro no
tiene nada que ver con la variable dependiente, es muy improbable obtener valores de F
muy grandes. La probabilidad de obtener un cociente F por azar es lo que consultamos en
las tablas de Snedecor. Si nuestra F es muy poco probable (p < .05) en el caso de que no
haya deferencias entre los grupos, nuestra conclusin ser que s hay diferencias. El
razonamiento es el mismo que nos hacemos en el contraste de medias.
Normalmente vienen en las tablas dos valores; el primero es el valor que se dara
por azar el 5% de las veces (p = .05) y el segundo el 1% de las veces (p = .01); si se
superan estos valores lo expresamos as: p<.05 p<.01. En estos casos consideramos que
la probabilidad de que la diferencia entre las dos varianzas haya sido una casualidad es
muy pequea, y por eso afirmamos que las varianzas son distintas, o que el valor de F es
estadsticamente significativo.
Algunos textos traen tablas con otros valores, pero .05 y .01 son las probabilidades
que utilizamos habitualmente para aceptar la decisin de no diferencia, como es usual en
la investigacin experimental en las ciencias sociales. En programas de ordenador (y de
Internet) nos viene la probabilidad exacta, y si disponemos de esta informacin, es la que
deberamos utilizar y comunicar.
El ejemplo explicado corresponde al planteamiento ms sencillo, en el que se
comparan varias muestras independientes. Si el valor de F es estadsticamente
significativo, e indica por lo tanto que la varianza que corresponde al numerador
(diferencias entre los grupos) es mayor que lo que podramos esperar por puro azar;
pasamos ya a comprobar qu pares de medias difieren significativamente, y segn los
casos, podemos hacer tambin otros clculos adicionales.
8. Explicacin alternativa: relacin entre variables cualitativas o criterios de
clasificacin (variable independiente) y variables cuantitativas (variable
dependiente)

Otra manera de presentar lo que hacemos con el anlisis de varianza, y que ya


hemos enunciado antes brevemente, es ver de qu tipos de datos disponemos y qu
informacin buscamos que nos relaciona los distintos tipos de datos. Esta manera de
presentar el anlisis de varianza es equivalente a la explicada en el apartado anterior, pero
puede ayudar a una comprensin ms cabal del procedimiento.
I. Siempre que hacemos un anlisis de la varianza tenemos dos tipos de informacin
o dos tipos de datos:
a) Informacin cuantitativa. Los datos en la variable dependiente; son los datos
que hemos obtenido y tabulado: la medida de una actitud, una medida de rendimiento
acadmico, etc.; estos son los datos cuya varianza o diversidad analizamos.

Introduccin al Anlisis de Varianza

16

b) Informacin cualitativa. Tenemos adems otra informacin sobre los sujetos: los
criterios o categoras que hemos utilizado para clasificar a los sujetos (variable
independiente), como pueden ser (en los planteamientos ms comunes del anlisis de
varianza):
1. La pertenencia a un grupo u otro, utilizando como nico criterio de clasificacin
el grupo al que pertenecen (en el anlisis de varianza para muestras
independientes);
2. Las preguntas a las que han respondido, experiencias o condiciones por las que
han pasado, etc. (anlisis de varianza para muestras relacionadas, los sujetos
son los mismos en las diversas condiciones o columnas);
3. Los dos o ms criterios que nos han servido para clasificarlos, para organizar a
los sujetos al disponer la tabla de datos, como en el anlisis de varianza de
diseos factoriales (tablas de doble entrada); con dos o ms criterios de
clasificacin, en los que cada criterio est dividido en dos o ms niveles, as el
criterio sexo tiene dos niveles, hombre-mujer, etc.
II. Mediante el anlisis de varianza podemos relacionar los dos tipos de
informacin:
La informacin cuantitativa, que son los datos obtenidos y tabulados (variable
dependiente)
La informacin cualitativa, que son los criterios para clasificar a los sujetos,
como el pertenecer a uno u otro grupo (variable independiente).
1 Nos hacemos estas preguntas, que son equivalentes:
o La varianza, la diversidad que encontramos en la variable dependiente (la
variable medida y tabulada) Est influida por, tiene que ver con los
criterios de clasificacin?;
o El criterio de clasificacin (pertenecer a un grupo u otro, etc.) Tiene que
ver con las diferencias que encontramos en la variable dependiente?
o Este criterio de clasificacin, Es una fuente de varianza, de diversidad
en la variable dependiente? (los criterios de clasificacin Son orgenes o
causas hipotticas de varianza o diversidad en la variable dependiente?).
o Son los sujetos distintos en la variable dependiente, en la variable
medida, porque tambin son distintos en el criterio de clasificacin (unos
han seguido el mtodo A, otros el mtodo B, etc.)?

2 Respondemos a estas preguntas mediante la razn F:


Si la razn F es significativa (o lo que es lo mismo, si la varianza del numerador, y
que corresponde a los criterios de clasificacin, es superior a la varianza aleatoria o
normal que hemos puesto en el denominador) entonces podemos concluir que los sujetos
son distintos en la variable dependiente (la que hemos medido y tabulado) porque
tambin (siendo prudentes en la interpretacin causal) son distintos en la variable o
variables que nos ha servido para clasificarlos y cuya varianza est puesta en el
numerador de la razn F.
O si se quiere expresar lo mismo de una manera ms cauta, podemos decir que una
F significativa indica diferencias sistemticas y coherentes o simultneas en los dos tipos
Introduccin al Anlisis de Varianza

17

de informacin, en la variable dependiente que hemos medido y en el criterio de


clasificacin puesto en el numerador de la razn F: difieren en la variable dependiente (la
que hemos medido) y adems pertenecen a grupos o clasificaciones distintas (existe una
relacin de hecho, cualquiera que sea su explicacin, entre los criterios de clasificacin y
la variable dependiente).
Una razn F significativa nos indica por lo tanto que hay una relacin superior a
lo aleatorio (o normal) entre
a) la variable que corresponde al numerador de la razn F y
b) la variable en la que hemos medido a los sujetos.

Hay diferencias entre los sujetos en la variable medida porque tambin son
diferentes en el criterio de clasificacin (o lo que est puesto en el numerador de la razn
F: la varianza correspondiente a un criterio de clasificacin o la varianza correspondiente
a la relacin entre dos o ms criterios).
Cuando decimos que hay diferencias en la variable medida porque tambin las hay
en el criterio de clasificacin no estamos implicando una relacin causal; podramos
decir con ms propiedad (o de manera ms descriptiva) que si la razn F es significativa,
las diferencias en la variable medida estn asociadas de hecho a pertenecer a un grupo u
otro9.
III. Una razn F significativa nos permite afirmar que la varianza o diversidad del
numerador de la razn F (el pertenecer a un grupo a otro) est relacionada con la varianza
o diversidad en la variable medida. Pero nos falta todava informacin para interpretar
bien los resultados.
a) Podemos comprobar entre qu grupos hay una diferencia significativa cuando sea
apropiado; la razn F nos dice que hay diferencias entre las medias, pero no
entre qu grupos se da esa diferencia.
b) Podemos cuantificar la magnitud de los resultados mediante los clculos
apropiados (coeficientes de fiabilidad en el caso de muestras relacionadas, y
otros coeficientes de asociacin en otros planteamientos que iremos viendo).
Esta cuantificacin (de 0 a 1) nos ayuda a interpretar los resultados, o a
comparar dos F significativas y valorar su importancia.
Una razn F (o un valor de t o su equivalente) no cuantifica la diferencia;
simplemente nos permite afirmar que hay diferencias por encima de lo aleatorio, sin
responder de manera clara al mucho o poco de la diferencia. Sin embargo disponemos de
anlisis adicionales para apreciar la magnitud de las diferencias (de la misma manera que
en el contraste de medias disponemos del tamao del efecto, concepto que tambin es
aplicable aqu).
c) Siempre hace falta una valoracin conceptual, lgica, de los resultados, en
funcin del diseo, de otros datos que ya conocemos, etc., y con frecuencia nuestras
conclusiones nos sugerirn otras hiptesis, otros diseos, o una repeticin del
experimento, con otras muestras o en otras circunstancias, para confirmar los resultados.

9 Para inferir causalidad tenemos que poder excluir otras explicaciones, y esto lo intentamos a travs del
muestreo aleatorio y del control de otras variables con un diseo apropiado.

Introduccin al Anlisis de Varianza

18

9. Diversos modelos de anlisis de varianza

En esta explicacin introductoria nos estamos refiriendo al planteamiento ms


sencillo y fcil de entender, el referido a varias muestras independientes, pero el anlisis
de varianza admite gran variedad de planteamientos distintos y es el mtodo adecuado
para plantear y analizar muchos diseos experimentales y cuasi-experimentales, y
tambin estudios exploratorios.
Los que vamos a exponer son los siguientes:
1 Para varias muestras independientes
2 Para varias muestras relacionadas
3 Para diseos factoriales (tablas de doble entrada)
4 Para verificar tendencias a creer o decrecer
5 Algunas variantes de los diseos factoriales
Los textos bsicos de estadstica e investigacin suelen traer al menos los dos
primeros (para ms de dos muestras independientes o relacionadas); en ambos modelos
encajan muchos posibles diseos de investigacin. Tambin es frecuente encontrar el
modelo ms comn de anlisis de varianza para diseos factoriales; menos frecuente es
encontrar en textos bsicos el anlisis de varianza para verificar tendencias (muy til en
investigacin sociolgica, educacional y psicolgica) y las diversas variantes de los
diseos factoriales. Hay otros muchos modelos de anlisis de varianza que se pueden
resolver con facilidad (o al menos entender) mediante procedimientos anlogos a los
explicados aqu.
El tener a la vista, y con ejemplos resueltos, varios modelos de anlisis de varianza
es til por varias razones que se complementan entre s.
1. El qu hacemos, o qu planteamos, en una investigacin depende en buena
medida de qu sabemos hacer.
Si sabemos de qu anlisis disponemos, podemos pensar en planteamientos que
nunca se nos haban ocurrido. Por otra parte el qu sabemos hacer no es exacto: nos basta
saber qu podemos aprender o qu podemos buscar o repasar si ha habido un estudio
previo; en definitiva lo que importa es saber qu anlisis tenemos de alguna manera
disponibles.
2. Muchos posibles anlisis de varianza coinciden con diseos experimentales o
cuasi-experimentales especficos.
A veces podemos pensar en diseos, estudiados a veces de un modo ms terico y
abstracto pero sin referencia a planteamientos y modos de anlisis especficos. Esto puede
llevar despus a diseos mal planteados o inabordables, en definitiva a un aprendizaje
inoperante. Una manera de abordar el aprendizaje de los diseos es ver y aprender
simultneamente cmo se pueden analizar los datos en cada diseo. Lo mismo sucede con
el control de determinadas variables, que puede verse tambin incorporado en el
planteamiento de algunos modelos de anlisis de varianza.
3. Con frecuencia se nos ocurren preguntas de investigacin a las que despus no
sabemos dar respuesta.
Puede ser interesante examinar primero posibles repuestas y pensar despus qu
preguntas queremos (o podemos) hacernos Los anlisis estadsticos nos brindan

Introduccin al Anlisis de Varianza

19

respuestas a posibles preguntas: si tenemos un repertorio amplio de posibles respuestas,


pensaremos con ms facilidad en preguntas de inters.

4. En definitiva, y como ya se ha indicado, en el anlisis de varianza disponemos


de dos tipos de datos:
a) Datos en la variable dependiente (qu medimos, qu preguntamos, qu
observamos en los sujetos) y
b) Cmo estn clasificados en categoras
Lo que hacemos con el anlisis de varianza es comprobar si los datos de la variable
dependiente tienen que ver con cmo estn seleccionados y clasificados los sujetos (u
objetos). En buena medida los modelos de anlisis de varianza que vamos a exponer no
son otra cosa que modos de clasificar a los sujetos, que a su vez nos pueden sugerir
numerosas preguntas y planteamientos de investigacin.
10. Cuestiones metodolgicas previas
10.1. Requisitos previos para utilizar el anlisis de varianza

En los modelos tericos en los que se basa el anlisis de varianza se hacen tres
suposiciones; 1) escalas de intervalo, 2) distribucin normal y 3) homogeneidad de
varianzas, pero las tres suposiciones son de importancia muy desigual.
1) En la variable dependiente (en la que medimos a los sujetos) tenemos unidades
de intervalo, (y observaciones independientes)
La primera suposicin es que utilizamos escalas de intervalo, con una unidad en
sentido propio. Esto no suele ser lo habitual en los instrumentos de medicin educacional
y psicolgica (tests, escalas de diverso tipo, preguntas con respuestas graduadas, etc.),
pero la mayora de los autores coinciden en afirmar que con estos instrumentos el anlisis
de varianza, como otros muchos anlisis, son seguros, y as lo confirma la prctica ms
habitual10
2) La variable dependiente (la que medimos) sigue la distribucin normal;
Sobre el presupuesto de normalidad en la variable dependiente (la que medimos),
una abundante investigacin confirma que en general la violacin de estos presupuestos
no invalida de manera apreciable los resultados del anlisis de varianza. La violacin de
la normalidad es menos importante (prcticamente irrelevante, Glass y Stanley,
1974:373), como est confirmado por numerosos estudios; de hecho las medias tienden a
la distribucin normal aunque las poblaciones de donde proceden no sean normales
(Guilford y Fruchter, 1973: 277).
3) Las varianzas de las distintas poblaciones representadas en las muestras no
difieren significativamente entre s.
La condicin previa de homogeneidad de varianzas (denominada homoestacidad)
es sin duda la ms importante, aunque la distorsin en los resultados (en relacin al error

10 Los mtodos habituales de obtencin de datos (como escalas tipo-Likert, etc.) se aproximan suficientemente
a las escalas de intervalo y las distorsiones que se pueden introducir son pequeas; es ms lo que se gana que lo se
pierde con estos mtodos que dan por hecho que se da una unidad aproximada (Guilford, 1954; Nunnally, 1978 y
muchos otros). Este punto lo tratamos con ms detalle en Morales (2006), cap. 1, apartado 2.3

Introduccin al Anlisis de Varianza

20

Tipo I)11 es pequea si el nmero de sujetos es idntico en todas las muestras o


submuestras.
Qu sucede cuando las varianzas son muy desiguales? Al menos hacemos dos
observaciones:
a) Las probabilidades que sealan las tablas de la F no son las reales; una
probabilidad de .05 puede corresponder realmente a un valor menor o mayor, aunque la
diferencia entre la probabilidad sealada en las tablas y la real suele ser pequea.12
b) Con grupos de tamao desigual y varianzas desiguales el que la probabilidad real
sea mayor o menor que la indicada por las tablas depende del tamao de los grupos:
Cuando el grupo mayor tiene tambin la varianza mayor el valor de F es
conservador: la probabilidad de que la diferencia entre varianzas sea aleatoria es todava
menor de lo que sealan las tablas.
Cuando el grupo ms pequeo tiene la varianza mayor, el valor de F es liberal: las
probabilidades de que las varianzas difieran son mayores de lo que sealan las tablas13.
En consecuencia el problema es menor cuando coinciden la muestra mayor y la
varianza mayor (aunque podemos quedarnos sin demostrar nuestra hiptesis).
Los programas de ordenador verifican rutinariamente si se cumplen los requisitos
de normalidad en la distribucin y de homogeneidad de varianzas. Tres pruebas
populares para verificar la homogeneidad de varianzas son la de Bartlett y Levene (para
muestras de tamao distinto)14 y la de Hartley (para muestras de idntico tamao).15
El test de Hartley es muy sencillo; consiste en calcular la razn F con las dos
varianzas extremas, dividiendo la varianza mayor de todas por la ms pequea: si vemos
en las tablas que la razn F no es significativa ya sabemos que se cumple la condicin de
homogeneidad de varianzas (utiliza sus propias tablas, no las convencionales de la razn
F). Otra prueba muy utilizada es la de Levene, menos sensible a la no normalidad de las
muestras y una buena alternativa a la de Bartlett16.

11 Recordamos cul es el error Tipo I: aceptar la diferencia cuando realmente no la hay (rechazar, o no aceptar,
la Hiptesis Nula cuando es verdadera). Es el tipo de error que en principio nos interesa evitar., no equivocarnos al
afirmar que hay diferencias superiores a lo normal entre los grupos.
12 Si las varianzas son muy desiguales puede suceder que un valor de F tenga una probabilidad de .05 en las
tablas y realmente est entre .04 y .07 (Guilford y Fruchter, 1973:277) o entre .07 y .09 (Linton, Gallo y Logan, 1975,
que no recomiendan la comprobacin previa de estos requisitos).
13 Lix, Keselman y Keselman (1996), Jaccard (1998: 81); sobre este punto puede verse tambin Hernndez,
Borges y Ramrez (1996).
14 El test de Bartlett se basa en el ji cuadrado y se encuentra programado en Internet (Homogeneity of Multivariances: The Bartlett's Test http://home.ubalt.edu/ntsbarsh/Business-stat/otherapplets/BartletTest.htm, basta
introducir de cada muestra el nmero de sujetos y las varianzas (no las desviaciones tpicas) y si p > .05 podemos
aceptar la homogeneidad de varianzas. Esta direccin se encuentra en la Home Page de Hossein Arsham
http://home.ubalt.edu/ntsbarsh/Business-stat/home.html en JavaScript E-labs Learning Objects (Equality of Multvariances)
15 Estas pruebas se encuentran en numerosos textos; una explicacin muy clara puede verse en Escotet (1980).
Mtodos para verificar la homogeneidad de varianzas hay muchos; en Zhang, Shuqiang (1998) se encuentra una
exposicin crtica de 14 de estas pruebas.
16 El test de Levene est bien explicado en NIST/SEMATECH e-Handbook of Statistical Methods,
http://www.itl.nist.gov/div898/handbook/ Levene Test for Equality of variances
http://www.itl.nist.gov/div898/handbook/eda/section3/eda35a.htm (consultado 7, Oct., 2007).

Introduccin al Anlisis de Varianza

21

Todas estas pruebas previas son sin embargo problemticas por diversas razones;
son muy sensibles a la no normalidad (menos la de Levene) y con frecuencia tienen poca
potencia (no controlan bien el error Tipo I) cuando se utilizan como control previo al
anlisis de varianza.17
Sobre qu hacer en la prctica se pueden dar unas orientaciones generales que
podemos ver en diversos autores. Aunque los programas de anlisis estadstico como el
SPSS suelen dar los dos resultados (lo mismo que cuando se hace un contraste de medias)
suponiendo varianzas iguales y suponiendo varianzas desiguales conviene tener en cuenta
estas orientaciones.
a) Las varianzas desiguales no deben preocuparnos si las muestras son de idntico
tamao18; por varianzas desiguales podemos entender que la mayor no es ms de tres
veces mayor que la varianza ms pequea.
b) Tampoco deben preocuparnos las varianzas desiguales si las muestras son de
distinto tamao con tal de que 1) los tamaos de las muestras no difieran mucho y 2) las
muestras no tengan menos de 20 sujetos (Jaccard, 1998:81).
c) Por otra parte ya veremos en su lugar que cuando no se cumplen las condiciones
previas del anlisis de varianza, hay contrastes posteriores muy seguros (como el de
Scheff) y al menos hay un contraste posterior especfico para cuando los tamaos de las
muestras son distintos y las varianzas son desiguales.19
d) En algunos casos de varianzas muy desiguales (mucho mayores que las dems)
podemos examinar si en alguna muestra hay sujetos atpicos con puntuaciones muy
extremas (outliers). Si hay sujetos muy atpicos, podemos considerar el eliminar de la
muestra a estos sujetos (responsables de una varianza mucho mayor). En estos casos
habr que comprobar si estos sujetos tienen alguna caracterstica comn para no
generalizar los resultados a ese tipo de sujetos. Por ejemplo, podemos encontrarnos con
que un subgrupo de sujetos con puntuaciones muy atpicas tienen tambin una edad muy
distinta a la de la mayora, o una procedencia distinta, etc.
e) Cuando las varianzas son notablemente distintas, y sobre todo si los grupos son
de tamao distinto, hay otras alternativas al anlisis de varianza menos conocidas20 Con
grupos pequeos, de tamao desigual y con varianzas muy distintas, siempre tenemos las
alternativas no paramtricas.21
Las violaciones de estos presupuestos afectan al anlisis de varianza cuando se trata
en sentido propio de estadstica inferencial, es decir, de llegar a conclusiones acerca de

17 Pueden verse numerosas investigaciones citadas por Jaccard, (1998:82).


18 Por ejemplo Hays (1981:347), Kirk (1995:101) y muchos otros autores de autoridad reconocida. Para Myers
(1972:72-73) aun cuando las varianzas difieran en una proporcin de 4 a 1 (o de 3 a 1, Jaccard, 1998:81), la distorsin
en los resultados (en relacin al error Tipo I) es pequea pero solamente si el nmero de sujetos es idntico en cada
muestra; en todos estos autores (y en otros como Glass y Stanley, 1974:371) se citan muchas investigaciones que
apoyan lo mismo.
19 Se trata del contraste de Games y Howell, para muestras de tamao desigual y varianzas desiguales.
20 Pueden verse expuestas y evaluadas en Lix, Keselman y Keselman, (1996). Estos autores presentan el
estado de la cuestin y aportan un meta-anlisis sobre los efectos de las violaciones en el anlisis de varianza, con
conclusiones que aconsejan cautela cuando las varianzas son muy desiguales.
21 La prueba de Kruskal-Wallis para el caso de varias muestras independientes, o de Friedman para muestras
relacionadas; son las alternativas no paramtricas ms conocidas y populares del anlisis de varianza, pero hay ms
que reseamos en el anexo VII.

Introduccin al Anlisis de Varianza

22

las poblaciones representadas por las muestras (como es lo habitual). Si con el anlisis de
varianza se pretende llegar a un resumen descriptivo de lo que est sucediendo en las
muestras analizadas, estos supuestos dejan de ser importantes.22
10.2. Tamao de los grupos y prdida de sujetos

El nmero de sujetos en cada grupo (necesario o conveniente) lo tratamos en el


anexo VI, junto con los criterios para determinar el tamao de la muestra. Aqu tratamos
sobre el tamao igual o desigual de las muestras y sobre la prdida de sujetos.
Cuando tenemos varias muestras independientes y vamos a verificar si entre las
medias existen diferencias significativas:
1 Los grupos pueden ser de tamao distinto; el procedimiento es el mismo (con
alguna variante menor que indicaremos en su lugar; es ms sencillo cuando los grupos
son de idntico tamao). Ya veremos tambin que la mayora de los contrastes
posteriores suponen el mismo tamao en los grupos, pero tambin disponemos de
contrastes apropiados cuando los grupos son de distinto tamao.
2 En principio es preferible utilizar muestras de idntico tamao por dos razones:
1 Ya hemos visto que con muestras de idntico tamao el anlisis de varianza
tolera mejor el que no se cumplan los requisitos previos (sobre todo el de
homogeneidad de varianzas).
2 Con muestras iguales tenemos disponible un repertorio ms amplio de
contrastes posteriores, y en muchas ocasiones los ms aconsejables requieren
muestras de idntico tamao.
An as, cuando se trata de varias muestras independientes, es muy frecuente que los
grupos sean de hecho de distinto tamao, sobre todo cuando comparamos grupos
naturales (como los alumnos de diversas clases, Facultades, etc.).
Esta recomendacin (muestras de idntico tamao) es ms pertinente en diseos
experimentales en sentido propio; en estos casos suele ser ms viable disponer de grupos
de idntico tamao. En planteamientos experimentales, hechos frecuentemente con
grupos muy pequeos, podemos con ms facilidad disponer de grupos con idntico
nmero de sujetos, bien porque los escogemos as, o bien porque descartamos sujetos
aleatoriamente.
Lo que sucede a veces es que en el proceso de la investigacin perdemos sujetos
(sobre todo si hay medidas repetidas en diversos tiempos) y al llegar al anlisis nos
encontremos con grupos desiguales. Si los grupos son muy pequeos (pongamos por
ejemplo n < 10) el descartar sujetos supone una prdida importante en el tamao de la
muestra. En estos casos lo que suele aconsejarse (por ejemplo Denenberg, 1976) es 1
substituir la puntuacin que nos falta por la media del grupo pero solamente si nos falta
una observacin o sujeto y adems 2 descontar un grado de libertad en el trmino del
error (el denominador de la razn F).
En los diseos factoriales (tablas o cuadros de doble entrada) es ms importante
disponer del mismo nmero de sujetos en cada clasificacin, como tratamos en el lugar
correspondiente.

22 Lix, Keselman y Keselman (1996: 582).

Introduccin al Anlisis de Varianza

23

10.3. Tipos de categoras de clasificacin

Las categoras de clasificacin (variable independiente) pueden ser de tres tipos:


fijas, aleatorias y mixtas, como explicamos enseguida.
En el caso de varias muestras independientes las categoras slo pueden ser o fijas o
aleatorias; las mixtas se dan cuando hay ms de un criterio de clasificacin, como en los
diseos factoriales (cuando disponemos los datos en tablas de doble entrada) que veremos
ms adelante.
1 Categoras fijas
Son categoras fijas las escogidas arbitrariamente por el investigador, y es
posiblemente el caso ms frecuente; como ejemplos podemos pensar en:
a) Alternativas obvias y con frecuencia las nicas disponibles: sexo, pertenencia a
un grupo, etc.
b) Variables cuantitativas, como tiempo dedicado a una tarea (una hora, dos
horas, etc.), nmero de experiencias, nota media previa, edad (agrupndolas en
varios niveles), etc.
En estos casos suelen escogerse como criterios de clasificacin algunas categorastipo entre todas las posibles, pero no por azar (aleatoriamente) sino con algn criterio
lgico. Si, por ejemplo, una categora es el tiempo dedicado a una actividad, y el mximo
tiempo posible es hora y media, se pueden clasificar los sujetos segn dediquen a la
actividad media hora, una hora o una hora y media. El nmero de niveles o subcategoras
puede ser tan grande como se estime oportuno.
c) Diversas variantes de un mtodo, condicin, etc.
Categoras fijas son en definitiva cualquier criterio de clasificacin que siga un
criterio lgico como base para la clasificacin (mtodo, modalidad, grupo, etc.). Las
categoras fijas se definen quizs mejor por lo que no son: no son niveles o categoras de
clasificacin seleccionadas aleatoriamente entre otras semejantes de la misma poblacin,
como explicamos a continuacin.

2 Categoras aleatorias
Son las escogidas aleatoriamente entre una poblacin mayor. Un ejemplo puede ser
ste:
Se desea comprobar, por ejemplo, si el rendimiento escolar depende del tipo de
centro o del tipo de profesor. Las categoras de clasificacin van a ser en estos casos
profesor y centro escolar, pero son muchos los posibles centros y los posibles profesores
en una zona dada. Si en este caso escogemos profesores y centros aleatoriamente,
tenemos categoras aleatorias, y las conclusiones podremos generalizarlas a las
poblaciones de centros o de profesores.
Un ejemplo clsico de categoras aleatorias se da en las investigaciones en las que
se pretende comprobar si el orden con que se presentan las preguntas de un cuestionario
influye en cmo se responde a estas preguntas. En un cuestionario de seis preguntas se
pueden hacer 720 combinaciones alterando el orden. Evidentemente son demasiadas
posibilidades. El investigador puede escoger un nmero limitado de versiones del mismo
cuestionario, por ejemplo cinco o seis, a cada versin responde una muestra de sujetos y

Introduccin al Anlisis de Varianza

24

las conclusiones pueden extrapolarse entonces con ms seguridad a la poblacin de


posibles maneras de ordenar las preguntas23.
3 Categoras mixtas.
Cuando tenemos ms de una categora de clasificacin, una categora puede ser fija
y la otra aleatoria; por ejemplo mtodos didcticos escogidos con un criterio lgico (o
simplemente los mtodos disponibles) y centros escolares escogidos aleatoriamente en
los que se van a aplicar los diversos mtodos.
Las categoras de clasificacin ms frecuentes (y ms fciles al planificar una
investigacin) son las categoras fijas.
En la prctica las repercusiones del tipo de categoras son dos:
a) La posibilidad de extrapolar las conclusiones a la poblacin de categoras (de
centros, de profesores, etc.) cuando estas han sido seleccionadas aleatoriamente.
b) Algunas peculiaridades metodolgicas que iremos viendo en su lugar; en
algunos casos (como en los diseos factoriales) el denominador de la razn F va
a variar en funcin del tipo de categoras.
11. Referencias bibliogrficas

DENENBERG, VICTOR H., (1976). Statistics and Experimental Design for Behavioral and
Biological Researchers. New York: John Wiley & Sons,
GLASS, GENE V. y STANLEY, JULIAN C., (1974). Mtodos Estadsticos Aplicados a las
Ciencias Sociales. Madrid, Prentice-Hall Internacional.
GUGUEN, NICOLAS (1997). Manuel de Statistique pour Psychologues. Paris: Dunod.
GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la
educacin, Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology
and Education, 1973. New York: McGraw-Hill].
HAYS, WILLIAM L. (1981). Statistics. Third Edition. New York: Holt, Rinehart and
Wilson. 713 pp.
HERNNDEZ, JUAN A.; BORGES, FRICA y RAMREZ, GUSTAVO (1996). Anlisis de la
robustez del ANOVA en el caso de tamaos muestrales distintos y no proporcionales
frente a los contrastes de aleatorizacin. Psicolgica, 17, 127-141.
JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The
Practical Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole.
LIX, LISA M., KESELMAN, JOANNE C. and KESELMAN, H.J., (1996). Consequences of
Assumption Violations Revisited: A Quantitative Review of Alternatives to the OneWay Analysis of Variance F Test. Review of Educational Research, 66 (4) 579-619.
MCGUIGAN, F. J., (1994) Experimental Psychology, Methods of Research. Sixth edition.
Englewood Cliffs, N.J.: Prentice Hall.

23 Este ejemplo, y algunas variantes del mismo, puede verse bien explicado en Iversen y Norpoth (1987)

Introduccin al Anlisis de Varianza

25

MORALES, VALLEJO, PEDRO (1996). Medicin de actitudes en Psicologa y Educacin.


3 edicin. Madrid: Universidad Pontificia Comillas.
MYERS, JEROME L., (1972). Fundamentals of Experimental Designs. Boston: Allyn and
Bacon.
NUNNALLY, JUM C. (1978). Psychometric Theory. New York: McGraw-Hill.
PEARSON, E. S. and KENDALL, MAURICE, (1978). Studies in the History of Statistics and
Probability, Volume I. London: Griffin & Co. Limited.
ROSENTHAL, ROBERT and ROSNOW, RALPH L. (1991). Essentials of Behavioral
Research, Methods and Data Analysis. Boston: McGraw-Hill.
ROSENTHAL, ROBERT, (1987). Judgment Studies, Design, analysis and meta-analysis.
Cambridge: Cambridge University Press.
ROSENTHAL, ROBERT, (1991). Meta-analysis procedures for social research. Beverly
Hills, CA: Sage.
SPATZ, CHRIS (1993). Basic Statistics: Tales of Distributions, 5th Edit. Pacific Grove,
CA: Brooks/Cole
ZHANG, SHUQIANG (1998). Fourteen Homogeneity of Variance Tests: When and How to
Use Them. Paper presented at the Annual Meeting of the American Educational
Research Association, San Diego, California.

Introduccin al Anlisis de Varianza

Anlisis de varianza
para varias muestras independientes
Pedro Morales Vallejo
Universidad Pontificia Comillas, Madrid,
Facultad de Ciencias Humanas y Sociales
(ltima revisin 15 de Septiembre de 2011).

ndice
1. Introduccin...............................................................................................................

2. Cundo podemos utilizar la t de Student para comparar grupos de dos en dos ........

2.1. Modificando los niveles de confianza: los contrastes de Bonferroni .................


2.2. Condiciones para utilizar la t de Student cuando tenemos ms de dos muestras

3
4

3. Anlisis de varianza...................................................................................................

3.1. Fases del proceso ................................................................................................

3.2. Procedimiento utilizando desviaciones tpicas; justificacin .............................

3.2.1. Procedimiento utilizando desviaciones tpicas de las muestras (n) ........ 5


3.2.2. Procedimiento utilizando desviaciones tpicas de la poblacin (n-1)...... 10
3.2.3. Procedimiento alternativo de anlisis de varianza para varias muestras
independientes a) de idntico tamao y b) utilizando las desviaciones
de la poblacin (n-1)................................................................................. 13
4. Clculos posteriores................................................................................................... 14
4.1. Contrastes posteriores entre las medias .............................................................. 14
4.1.1. Contraste de Scheff...................................................................................
a) Valoracin general..................................................................................
b) Procedimiento .........................................................................................
1) Para contrastar las medias de dos muestras......................................
2) Utilizando un nivel de confianza ms liberal ( = .10) .....................
3) Contrastes combinando medias de grupos.........................................

16
16
18
18
19
19

4.1.2. Contraste de Tukey para muestras de idntico tamao (o muy parecido) .


a) Valoracin general ...............................................................................
b) Procedimiento .......................................................................................
1 La diferencia honestamente significativa
(DHS Honestly Significant Difference)..............................................
2 Cuando el nmero de sujetos es ligeramente desigual ....................

20
20
20

4.1.3. Contraste de Tukey-Kramer para muestras de distinto tamao


y varianzas iguales ......................................................................................
4.1.4. Contraste de Games y Howell (GH) para muestras de distinto tamao
y varianzas desiguales.................................................................................
4.1.5. Contraste de Newman-Keuls......................................................................
4.1.6. Contraste Least Significant Difference (LSD) de Fisher............................
4.1.7. Contraste de Dunnett..................................................................................
4.1.8. Contrastes ortogonales ...............................................................................
4.1.9. Valoracin de los diferentes contrastes......................................................

20
21
22
24
25
25
26
26
26

4.2. Relevancia prctica de los resultados: proporcin de varianza relacionada


con la variable-criterio de clasificacin y tamao del efecto.............................. 28
4.2.1. Proporcin de varianza relacionada
con la variable-criterio de clasificacin ....................................................
4.2.1.1. El coeficiente 2 .............................................................................
1. Cuando los grupos son de idntico tamao.................................
2. Cuando los grupos son de distinto tamao..................................
4.2.1.2. El coeficiente 2 ............................................................................
4.2.1.3. Valoracin de estos coeficientes ....................................................

28
28
29
29
30
31

4.2.2. El tamao del efecto.................................................................................. 32


4.2.2.1. El tamao del efecto en la diferencia entre dos medias ................. 32
4.2.2.2. El tamao del efecto como apreciacin global de la magnitud
de las diferencias entre todas las medias ......................................... 33
5. Anlisis de varianza cuando solamente conocemos los valores de las medias
y de las desviaciones tpicas ...................................................................................... 34
5.1. Cuando el nmero de sujetos es distinto en cada grupo...................................... 34
5.2. Cuando el nmero de sujetos es el mismo en cada grupo................................... 36
6. Anlisis de varianza para dos muestras independientes ............................................ 37
6.1. Utilizando las desviaciones de las muestras........................................................ 37
6.2. Utilizando las desviaciones de las poblaciones................................................... 38
7. Cmo presentar los resultados del anlisis de varianza............................................. 39
8. El Anlisis de Varianza en programas informticos y en Internet ............................ 42
8.1. Anlisis de varianza para muestras independientes en EXCEL y en el SPSS.... 42
8.2. Recursos en Internet relacionados con el Anlisis de Varianza ......................... 42
8.2.1. Test de Bartlett para comprobar la homogeneidad de varianzas .............. 43
8.2.2. Tablas de la F de Snedecor, Tukey, Dunnett y Bonferroni ...................... 43
8.2.3. Probabilidades exactas de la razn F en Internet...................................... 44
8.2.4. Cmo llevar a cabo un Anlisis de Varianza en Internet ......................... 44
8.2.4.1. A partir del nmero de sujetos, medias y desviaciones
de las muestras ............................................................................ 44
8.2.4.2. Introduciendo los datos de todos los sujetos ................................ 45
8.2.4.3. Contrastes posteriores .................................................................. 46
10. Referencias bibliogrficas ........................................................................................ 46

Anlisis de varianza para muestras independientes

1. Introduccin: cundo debemos utilizar el anlisis de varianza.


El anlisis de varianza para muestras independientes es el modelo de anlisis de
varianza ms frecuente: un factor o criterio de clasificacin, dividido en dos o ms niveles;;
tambin se denomina anlisis de varianza unifactorial1.
Repetimos brevemente lo ya dicho en la introduccin. El anlisis de varianza se utiliza
cuando tenemos en el mismo planteamiento ms de dos muestras independientes (de sujetos
fsicamente distintos en cada muestra). Tambin se puede utilizar cuando solamente tenemos
dos muestras como alternativa a la t de Student (de hecho en este caso t2 = F), aunque la
prctica habitual en este caso es utilizar directamente el contraste de medias (t de Student).
Ms adelante (apartado 7) presentamos un ejemplo metodolgico del anlisis de varianza
aplicado a dos muestras como mtodo alternativo al contraste de medias.
Ya hemos indicado la razn principal para utilizar el anlisis de varianza en vez de la t
de Student cuando tenemos ms de dos grupos en el mismo planteamiento general: aumentan
mucho las probabilidades de no aceptar (rechazar) la Hiptesis Nula de no diferencia cuando
es verdadera (lo que denominamos error tipo I; explicado con ms detalle en el anexo I).
Dicho de otra manera: cuando tenemos ms de dos muestras y las contrastamos entre s con
la t de Student, tenemos el riesgo de aceptar la diferencia (no aceptamos la Hiptesis Nula)
cuando realmente se trata de una diferencia normal o, lo que es lo mismo, la probabilidad de
encontrar esa diferencia es mayor de lo que especificamos en nuestro nivel de confianza2.
2. Cundo podemos utilizar la t de Student cuando disponemos de ms de dos grupos.
Aun as cuando comparamos ms de dos grupos podemos utilizar la t de Student en dos
situaciones que exponemos a continuacin: a) siendo ms estrictos al determinar la
probabilidad mnima de error para aceptar una diferencia y b) manteniendo el nivel de
probabilidad habitual pero cumpliendo las tres condiciones que veremos enseguida.
2.1. Modificando los niveles de confianza: los contrastes de de Bonferroni
Podemos utilizar unos niveles de confianza ms estrictos; no es sta la prctica ms
comn, pero de hecho hay al menos un procedimiento, el test de Bonferroni (o de DunnBonferroni) en el que se utiliza la t de Student convencional pero con unos niveles de
confianza ms exigentes en funcin del nmero de contrastes que se van a hacer.3
Cuando se utiliza el test de Bonferroni se utiliza la probabilidad (p) que expresa nuestro
nivel de confianza dividida por el nmero de comparaciones previstas, as si nuestro nivel de
confianza es .05 y tenemos tres comparaciones previstas utilizaremos como nivel de
confianza .05/3 = .0167; en este caso .0167 equivale un nivel de confianza de .05. Tambin si
conocemos la probabilidad exacta (p) podemos multiplicarla por el nmero de contrastes para
ver si llega a .05 (as si tenemos tres contrastes y p = .0167 tendremos p = (.0167)(3) = .05).

1 En ingls tambin suele denominarse one-way-ANOVA; expresin que a veces se ve traducida al espaol como
anlisis de varianza de una va (en espaol es muy frecuente el uso de anglicismos en la terminologa estadstica). En
EXCEL se denomina anlisis de varianza de un factor.
2Esta mayor probabilidad de error al aceptar la diferencia entre dos muestras cuando tenemos en el mismo
planteamiento ms de dos muestras y consiguientemente ms de dos contrastes entre medias, suele denominarse error de
familia (family error en ingls); la familia es en este caso el conjunto de contrastes posibles entre medias.
3 Los contrastes de Bonferroni estn ms explicados en el anexo II (Carlo Emilio Bonferroni elabor su teora sobre
la probabilidad en 1936).

Anlisis de varianza para muestras independientes

La crtica hecha a este contraste es que es muy conservador; tiene poca potencia para
rechazar la Hiptesis Nula cuando realmente es falsa (Hancock y Klockars, 1996; Jaccard,
1998, Perneger, 1998) (diramos que da muchos falsos negativos) y en definitiva la
interpretacin de un resultado depende de que el anlisis se haga en solitario o junto con otros
anlisis4.
2.2. Condiciones para utilizar la t de Student cuando tenemos ms de dos muestras
Cuando tenemos ms de dos grupos podemos utilizar la t de Student para comparar
grupos de dos en dos si se dan todas estas condiciones:
1. Cuando antes de recoger los datos tenemos hiptesis explcitas acerca de la diferencia
entre dos grupos en particular. No podemos comparar todo con todo, pero s podemos
utilizar el contraste de medias normal de la t de Student cuando tenemos alguna
hiptesis a priori, formulada y justificada de manera explcita. Esta posibilidad (una
hiptesis sobre la diferencia entre dos grupos en particular cuando tenemos ms de dos
grupos) no es lo habitual, pero tampoco hay que excluirlo rutinariamente.
2. Cuando no vamos a combinar medias de varios grupos en una sola media para comparar
esta nueva media con otras medias. Para este tipo de comparaciones (uniendo
subgrupos) tenemos los contrastes de Scheff, posteriores al anlisis de varianza, que
veremos ms adelante.
3. Cuando no vamos a hacer todas las comparaciones posibles, ya que, suponiendo que se
cumplen las dos condiciones anteriores, el nmero de comparaciones que podemos
hacer con la t de Student cuando hay ms de dos grupos es limitado: no puede ser
superior a los grados de libertad, es decir, no puede ser superior al nmero de grupos
menos uno. Por ejemplo, con tres grupos (A, B y C) se podran hacer tres
comparaciones (entre A y B, entre A y C y entre B y C) pero slo podemos hacer dos
con la t de Student, con cuatro grupos podemos hacer tres comparaciones, etc., si
adems se cumplen las dos condiciones anteriores.
3. Anlisis de varianza:
3.1. Fases del proceso
Al explicar el procedimiento seguiremos el proceso que es til tener claro desde el
comienzo y que, ms o menos, seguiremos en la presentacin de otros modelos de anlisis de
varianza, porque responde a los pasos lgicos que debemos seguir:
1 Explicacin del procedimiento con un ejemplo resuelto paso a paso. Aadiremos una
serie de aclaraciones metodolgicas que nos pueden ayudar a entender mejor lo que realmente
estamos haciendo.
2 Con el anlisis de varianza propiamente dicho (razn F) no termina nuestro anlisis.
Dos tipos de clculos posteriores completan el proceso:
a) Contrastes posteriores, para poder comparar las medias de dos en dos en el caso
de que la razn F sea estadsticamente significativa.
4 Una crtica bien razonada a los ajustes de Bonferroni puede verse en Perneger (1998): this paper advances the
view, widely held by epidemiologists, that Bonferroni adjustments are, at best, unnecessary and, at worst, deleterious to
sound statistical inference... The main weakness is that the interpretation of a finding depends on the number of other tests
performed The likelihood of type II errors is also increased, so that truly important differences are deemed nonsignificant... Bonferroni adjustments imply that a given comparison will be interpreted differently according to how many
other tests were performed.

Anlisis de varianza para muestras independientes

b) Diversos coeficientes de asociacin que nos ayudan a aclarar la importancia de


los resultados, y el tamao del efecto (semejante al que ya conocemos y
aplicamos en el contraste de dos medias).
3 Otras variantes metodolgicas para hacer este mismo anlisis de varianza (que o
simplifican el proceso, o son tiles en determinadas circunstancias).
4 Sugerencias sobre cmo presentar los resultados.
Vamos a presentar dos procedimientos muy semejantes; uno que se basa en el clculo
de desviaciones tpicas (o varianzas) de la muestra (dividiendo por N) y otro utilizando las
desviaciones tpicas o varianzas de la poblacin (dividiendo por N-1).
3.2. Procedimiento utilizando desviaciones tpicas; justificacin
Los procedimientos que vamos a exponer en primer lugar suponen el uso de
calculadoras con programacin estadstica, sobre todo para calcular medias y desviaciones
tpicas; con esos datos ya hemos visto que los procedimientos son fciles y rpidos, sobre
todo si se trata de muestras pequeas.
Aunque disponemos de programas informticos y de Internet (comentados en otros
apartados) el proceso explicado en primer lugar calculando medias y desviaciones tpicas con
una simple calculadora, son tiles por estas razones.
a) Para llegar a una comprensin ms cabal de lo que estamos haciendo, sobre todo en
procesos de aprendizaje. Hay interpretaciones que no se pueden hacer correctamente
sin entender bien el proceso que se capta mejor siguindolo paso a paso que
explicando los resultados que encontramos ya hechos en cualquier programa
disponible. Hay que insistir que este mtodo puede ser muy apropiado (al menos es
una buena alternativa didctica) cuando se trata de entender y aprender; en otro
momento lo normal ser utilizar programas informticos.
b) Cuando de diversas muestras ya disponemos del tamao de cada muestra y de las
medias y las desviaciones tpicas (o es informacin que vemos publicada); para estos
casos tenemos tambin los programas de Internet que veremos en otro apartado, pero
vamos a ver que si llega el caso se pueden hacer con toda facilidad con una simple
calculadora.
c) Cuando en cualquier caso se trata de muestras pequeas y no resulta especialmente
laborioso el clculo de medias y desviaciones con una simple calculadora.
3.2.1. Procedimiento utilizando desviaciones tpicas de las muestras (n)
En todos los modelos de anlisis de varianza hay que calcular varianzas parciales
(porque descomponemos la varianza total). En el clculo de estas varianzas, el denominador
no tiene ninguna dificultad (los grados de libertad), pero el numerador de las varianzas, la
suma de cuadrados, s resulta mucho ms laborioso.
Cuando no se utiliza directamente un programa de ordenador, lo ms cmodo es seguir
el procedimiento que utilizamos aqu para calcular las sumas de cuadrados y que no es el
tradicional que es normal ver en los libros de texto5.
5 Adaptamos y simplificamos aqu el procedimiento propuesto por Gordon (1973). Siguiendo la misma intuicin
para el clculo de las sumas de cuadrados (suma de cuadrados o numerador de la varianza = N2) hemos diseado
procedimientos anlogos para otros modelos de anlisis de varianza que simplifican notablemente los clculos si, como
hemos indicado, se dispone de una simple calculadora con programacin estadstica para calcular medias y desviaciones

Anlisis de varianza para muestras independientes

Aunque dispongamos de programas de ordenador y hojas de clculo (EXCEL, SPSS),


este procedimiento, sobre todo en procesos de aprendizaje:
1) Facilita la comprensin del anlisis de varianza, se visualiza mejor cmo se
descompone la varianza total y se evitan automatismos que no suponen comprender lo que se
est haciendo,
2) Es muy til cuando de hecho no disponemos de los datos de cada sujeto y solamente
tenemos las medias, desviaciones tpicas y nmero de sujetos de cada grupo. Esta situacin es
frecuente; son datos que podemos encontrar publicados o que podemos tener ya anotados. Los
programas de ordenador (como el SPSS o EXCEL) no suelen tener previsto cmo llevar a
cabo un anlisis de varianza a partir solamente de estos datos (N, media y de cada grupo),
aunque s es posible hacerlo en programas disponibles en Internet (mencionamos algunos en
el apartado 9).
Para entender el procedimiento hay que recordar en primer lugar la frmula de la
varianza (de la muestra):
2 =

(X - M)2
N

[1]

donde podemos despejar la suma de cuadrados: (X- M)2 = N2


Es decir, la suma de cuadrados es igual a la varianza multiplicada por el nmero de
sujetos. Se trata de la varianza de la muestra (dividiendo por N y no por N-1). En cada
planteamiento del anlisis de varianza hay qu saber qu varianza hay que calcular y
multiplicar luego por el nmero de sujetos para obtener las sumas de cuadrados. Esto es lo
que iremos viendo en los diversos ejemplos al ir proponiendo los distintos modelos de anlisis
de varianza. Al dividir estas sumas de cuadrados por los grados de libertad obtendremos los
cuadrados medios o varianzas parciales que van resultando al descomponer la varianza total.
Si utilizamos este sencillo y rpido procedimiento, habr que calcular en primer lugar
(clculos previos) una serie de desviaciones tpicas (que irn variando en los distintos
modelos de anlisis de varianza).
El procedimiento lo presentamos con un ejemplo (tabla 1)6. Tenemos tres grupos (tres
muestras independientes, de sujetos distintos); En la terminologa del anlisis de varianza
cada grupo es un nivel. Cada grupo puede representar una edad distinta, o haber seguido un
mtodo de aprendizaje distinto, o tener una procedencia distinta, etc. (es la variable
independiente) La variable dependiente, en la que hemos medido a cada sujeto y cuyos datos
hemos tabulado, puede ser un examen de conocimientos, una escala de actitudes, etc.

tpicas. Huck y Malgady (1978) exponen un procedimiento similar para el anlisis de varianza de los diseos factoriales. Las
ventajas de estos procedimientos es que permiten resolver el anlisis de varianza sin ms informacin de cada grupo que el
nmero de sujetos, la media y la desviacin, sin necesidad de disponer de todas las puntuaciones individuales. Tambin, con
slo estos datos (a veces los nicos disponibles), disponemos de programas de Internet para resolver el anlisis de varianza.
6 El ejemplo propuesto aqu est tomado de Downie y Heath (1981); slo tomamos los datos (se puede comprobar
que los resultados son los mismos que con el procedimiento tradicional); el procedimiento que seguimos es el que acabamos
de proponer simplificando el clculo de las sumas de cuadrados.

Anlisis de varianza para muestras independientes

Grupo 1
12
18
16
8
6
12
10
n1 =
7
M1 = 11.714
1 =
3.917

Grupo 2
18
17
16
18
12
17
10
n2 =
7
M2 = 15.428
2 =
2.92

Grupo 3
6
4
14
4
6
12
14
n3 =
7
M3 =
8.571
3 =
4.237

clculos previos
1 Calculamos la media y desviacin tpica de
cada uno de los tres grupos;

2 Calculamos la desviacin tpica de los


totales, de n1+ n2 + n3 = 21, t = 4.669
3 Calculamos la desviacin tpica de las tres
medias (como si se tratara de un grupo de
tres sujetos), = 2.802.

Tabla 1

Una observacin prctica importante que ya hemos hecho anteriormente y que


conviene recordar ahora (y lo recordaremos en otras ocasiones). En la tabla 1 tenemos las
puntuaciones de todos los sujetos y por eso podemos calcular con facilidad la media y
varianza del total de sujetos (N = 21 en este ejemplo), pero no siempre disponemos de los
datos de todos los sujetos, o son demasiados sujetos y resulta incmodo calcular la varianza
total con una simple calculadora. A veces de cada grupo slo conocemos los valores de N, la
media y la desviacin tpica (que podemos ver, por ejemplo, publicados en un trabajo de
investigacin, o son datos que hemos ido conservando). A partir de estos datos podemos
calcular rpidamente tanto la media (que es la media ponderada de los diversos grupos) como
la desviacin tpica de todos los datos, que nos van a hacer falta para hacer un anlisis de
varianza7.

Antes de hacer las operaciones es conveniente preparar la tabla de resultados (que


ponemos ms adelante, tabla 2) para ir colocando los resultados que vayamos obteniendo en
su lugar correspondiente y proceder con orden.
Vamos a calcular tres varianzas:
1 La varianza del total de los datos y es esta varianza la que vamos a descomponer en
otras dos, que son las dos siguientes;
2 La varianza que expresa la variabilidad entre los grupos;
3 La varianza que expresa la variabilidad dentro de los grupos.
En rigor, y para llevar a cabo todas las operaciones del anlisis de varianza, no
necesitamos calcular la varianza de todos los datos, pero es preferible hacerlo para poder
verificar que la suma de las sumas de cuadrados entre y dentro de los grupos es igual a la
suma de cuadrados de los totales.
Para cada varianza calculamos el numerador (suma de cuadrados) y el denominador
(grados de libertad):
Suma.de.cuadrados
Varianza =
Grados.de.libertad

Indicamos el procedimiento para muestras de idntico y de distinto tamao. Cuando se


trata de muestras de idntico tamao el procedimiento es algo ms sencillo; tambin en este
caso se puede utilizar el procedimiento que indicamos para muestras de distinto tamao, y as
lo haremos como ejemplo.
7 Las frmula de la desviacin tpica de los totales calculada a partir de las medias y desviaciones de cada grupo est
puesta ms adelante (frmula [32]); estas frmulas, muy tiles ocasionalmente, estn explicadas en el anexo III.

Anlisis de varianza para muestras independientes

Suma de Cuadrados (numerados de la varianza):


N t = (21)(4.669)2 =
2

1. del total:

457.79

Multiplicamos la varianza de los totales por el nmero total de sujetos. Ya hemos


indicado que si no tenemos la varianza de los totales o no disponemos de las puntuaciones de
cada sujeto, podemos calcularla a partir de los datos (N, desviacin y media) de cada muestra
(anexo III).
2. Dentro de los grupos:
a) Si los grupos son de idntico tamao:
n2 = (7)[(3.917)2 +(2.92)2+(4.237)2] =

292.75

b) Si los grupos son de distinto tamao ( y tambin si son iguales), la frmula es:
n2 = [7 x (3.917)2 ] + [7 x (2.92)2+ [7 x (4.237)2] =
292.75
3. Entre los grupos:
a) si los grupos son de idntico tamao: N 2M = (21)(2.802)2 =
(multiplicamos la varianza de las medias por el nmero total de sujetos)

164.87

n(M - Mt)2

b) si los grupos son de distinto tamao:

En este caso necesitamos calcular el valor de la media total (Mt); en este ejemplo, como
los grupos constan del mismo nmero de sujetos, la media total es igual a la media de las
medias = 11.904, y la suma de cuadrados entre los grupos ser:
[7 x (11.714 - 11.904)2]+ [7 x (15.428 - 11.904)2]+ [7 x (8.571 - 11.904)2]=

164.94

La pequea diferencia con respecto al resultado anterior se debe al uso de ms o menos


decimales y no afecta a los resultados finales del anlisis de varianza.
Grados de libertad (denominador de la varianza)
del total:
entre los grupos:
dentro de los grupos:

N - 1 (N = todos los sujetos de todos los grupos) 21- 1 = 20


k - 1 (k = nmero de grupos)
3 -1 = 2
N - k (N menos nmero de grupos o (n-1)
21 -3 = 18

Los resultados del anlisis de varianza se presentan en una tabla semejante a la tabla 2;
es la tabla clsica para presentar los resultados del anlisis de varianza.
Origen de la variacin

Suma de
Cuadrados (SC)

Grados de
libertad (gl)

(numerador de
la varianza)

(denominador
de la varianza)

Cuadrados
Medios
CM =

SC
gl

F=
CM entre
CM dentro

(varianza)

SCentre =164.87
2
CMentre=
Diferencias entre los
82.435
grupos
Diferencias entre los
18
CMdentro=
SCdentro =
sujetos dentro de los
292.75
16.26
grupos
SCtotal = 457.79
20
Variabilidad total
Tabla 2: Tabla de resultados del anlisis de varianza

Anlisis de varianza para muestras independientes

5.069
(p < .05)

La suma de cuadrados del total nos sirve para comprobar que no hay errores, pues debe
ser igual a la suma de cuadrados entre los grupos ms la suma de cuadrados dentro de los
grupos. En este caso 164.87 + 292.75 = 457.62. Las sumas no siempre cuadran porque
solemos redondear decimales, pero la discrepancia debe ser pequea. En los grados de
libertad el resultado debe ser exacto: 2+ 18 = 20 (= N-1).
El valor de F que encontramos en las tablas para 2 grados de libertad de la varianza
mayor (k-1) y 18 de la varianza menor (N - k) es de 3.55; si alcanzamos o superamos este
valor, podemos afirmar que la diferencia entre ambas varianzas est por encima de lo
puramente aleatorio, con una probabilidad de error inferior al 5% p< .05 (si hubiramos
superado el valor de 6.01 la probabilidad de error hubiera sido inferior al 1%, p <.01)8.
La variabilidad entre los grupos (entre las medias) es en este caso significativamente
ms alta que la variabilidad dentro de los grupos; podemos por lo tanto concluir que entre las
medias existen diferencias significativas: la variabilidad total se explica ms por las
diferencias entre las medias (entre los grupos) que por las diferencias intra-grupales. Dicho de
otra manera: afirmamos que dos grupos son distintos cuando sus medias difieren entre s ms
que los sujetos entre s.
Un resumen del procedimiento lo tenemos en la tabla 3 (para muestras de idntico
tamao):
Origen de la
variacin

Numerador de la varianza
o Suma de Cuadrados (SC)

Entre los grupos


(varianza parcial:
expresa las
diferencias entre
los grupos)

N (nmero total
de sujetos)
por la varianza
de las medias

Dentro de los
grupos (varianza
parcial: expresa
las diferencias
entre los sujetos)

n (nmero de
sujetos en cada
grupo) por la
suma de las
varianzas de los
grupos

Varianza total

N (nmero total
de sujetos) por
la varianza total
(de todos los
sujetos)

Denominador
de la varianza

(Grados de
libertad)

N 2
medias

Nmero de
grupos (k)
menos uno
k-1

2
n grupos

Nmero total
de sujetos
menos nmero
de grupos
N-k

2
N de
todos

Varianza
o Cuadrados
Medios (CM)

Suma de Cuadrados entre


grados de libertad

CM entre
CM dentro

Suma de Cuadrados dentro


grados de libertad

Nmero total
de sujetos
menos uno
N-1

Tabla 3

Las desviaciones son de la muestra (dividiendo por N) y suponemos muestras de


idntico tamao. Cuando los grupos son de distinto tamao las Sumas de Cuadrados
(numerador de la varianza) se calculan as:
Suma de Cuadrados entre los grupos: nMn Mt)2: en cada grupo: nmero de sujetos
del grupo por (Media del grupo menos Media total)2

8 El valor exacto de la probabilidad asociada a cualquier valor de F puede verse fcilmente en varias direcciones de
Internet puestas en al apartado n 9.

Anlisis de varianza para muestras independientes

10

Suma de Cuadrados dentro de los grupos:n2 : en cada grupo: nmero de sujetos del
grupo por la varianza.

3.2.2. Procedimiento utilizando desviaciones tpicas de la poblacin (n-1)


En el procedimiento, tal como lo hemos expuesto, hemos utilizado las desviaciones de
las muestras. El ver las variantes si utilizamos las desviaciones o varianzas de la poblacin
(dividiendo por N-1 la suma de cuadrados) nos pueden ayudar a comprender mejor lo que
estamos haciendo, y resulta ms cmodo si lo que tenemos calculado de las distintas muestras
son las desviaciones de la poblacin9.
a) Varianza o cuadrados medios entre grupos
Al menos de manera intuitiva podemos comprender que la diversidad entre los grupos
algo tendr que ver con la desviacin tpica o la varianza de sus medias, tal como hemos
hecho para calcular la suma de cuadrados entre los grupos. Multiplicamos esta varianza por
N porque todos los sujetos intervienen en el clculo de la media.
Podemos quizs verlo con ms claridad de esta manera: lo que calculamos no es la
varianza de las medias, sino la varianza de toda la muestra pero asignando a cada sujeto la
media de su grupo, como si no hubiera diferencias dentro de cada grupo (lo que sucede es
que cuando los grupos son de idntico tamao nos basta calcular la desviacin tpica de las
medias; como si en cada muestra n = 1). Simplemente estamos calculando la varianza total
pero prescindiendo de la diversidad dentro de cada grupo (sta la tendremos en cuenta en la
suma de cuadrados dentro de los grupos).
Cuando los grupos son de idntico tamao, si calculamos directamente la varianza de
las medias pero dividiendo por N-1 (varianza de la poblacin) y ponderamos esa varianza por
el nmero de sujetos que hay en cada grupo, ya tenemos los cuadrados medios entre los
grupos.
En nuestro ejemplo (muestras de idntico tamao):
Varianza de las tres medias (dividiendo por N-1):
Cuadrados Medios entre los grupos:

2n-1 =3.4322 = 11.78


(n)( 2n-1 ) = (7)(11.78) = 82.46

La variabilidad entre los grupos (representados por sus medias) est lgicamente
relacionada con la varianza de las medias.
La Suma de Cuadrados entre grupos es simplemente SC = (CM)(Grados de libertad);
nos puede interesar para completar la tabla de resultados convencional y para calcular el
coeficiente 2 que veremos despus.
Si las muestras son de tamao distinto tendremos que calcular en primer lugar la media
total (media de las medias ponderadas por el nmero de sujetos).
En este caso (podemos hacerlo aunque las muestras sean de idntico tamao) la media
total ser:
Mediatotal =

( 7)(11.714) + ( 7)(15.428) + ( 7)(8.571)


= 11.90
21

9 Adems en los programas de Internet para hacer el anlisis de varianza (reseados en el apartado 9) las
desviaciones tpicas requeridas suelen ser las de la poblacin.

Anlisis de varianza para muestras independientes

11

La Suma de Cuadrados ser la que hubiramos obtenido si todos los sujetos de cada
grupo tuvieran idntica puntuacin igual a la media de su grupo. En cada grupo por lo tanto
calculamos la diferencia entre la media del grupo y la media total, la elevamos al cuadro y
multiplicamos por el nmero de sujetos del grupo: sta es la contribucin de cada grupo a la
suma de cuadrados total.
La Suma de cuadrados entre grupos de tamao desigual ser por lo tanto
SCentre = n(M-Mtotal) donde n es el nmero de sujetos de cada grupo.
En nuestro ejemplo tendremos:
SCentre = (7)(11.714-11.9)2 + (7)(15.428-11.9) 2 + (7)(8.571-11.9) 2 = 164.9
Los grados de libertad son los mismos, nmero de grupos menos uno.
b) Varianza o cuadrados medios dentro de los grupos

Por lo que respecta a la varianza dentro de los grupos, sta es simplemente (y


obviamente) la combinacin (la media) de las varianzas de todos los grupos10.
El que el denominador (grados de libertad) sea N - k tambin puede verse con facilidad:
el denominador de cada varianza es n -1 (nmero de sujetos en cada grupo menos 1), luego el
denominador de la combinacin de todas las varianzas ser el nmero total de sujetos (suma
de todos los n) menos el nmero de grupos.
Este procedimiento para calcular los cuadrados medios dentro de los grupos (o varianza
dentro de los grupos) es fcil de ver:
La varianza de un solo grupo, como expresin descriptiva de su diversidad, es:
2n =

(X - M) 2
y ya hemos visto que la suma de cuadrados ser (X-M)2 = n2,.
n

Esta expresin de la suma de cuadrados (o numerador de la varianza) n2 nos es muy


til para facilitar los clculos, como ya hemos ido viendo.
La varianza de la poblacin (el subndice n-1 expresa ahora que dividimos la suma de
cuadrados por n 1 al calcular la desviacin tpica) estimada a partir de esta misma muestra
ser por lo tanto:
2n-1 =

n 2n
n 1

[2]

Si combinamos las varianzas de dos grupos (1 y 2) sumando sus numeradores y


denominadores tendremos que:
n 2 + n 2 2n.2
2(n-1)de 1+ 2 = 1 n.1
[3]
(n1 -1) + (n 2 -1)
Y ampliando la frmula a un nmero indefinido de muestras tenemos los cuadrados
medios o varianza dentro de los grupos (k = nmero de grupos):

10 Esta combinacin de varianzas o varianza comn es la misma que se utiliza en el contraste de medias para
calcular el tamao del efecto propuesto por Cohen (1988); en este caso se trata de la desviacin tpica.

Anlisis de varianza para muestras independientes

12

n 2n
Si los grupos son del mismo tamao: CMdentro =
k

[4]

n 2n
Si los grupos son de distinto tamao: CMdentro =
N k

[5]

Otra manera de expresar lo mismo es sta: la variabilidad total dentro de los grupos
(cuadrados medios dentro) viene dada por la varianza media de los grupos, calculando estas
varianzas dividiendo por N-1 (se trata de la estimacin de la varianza media de las
poblaciones representadas por esas muestras).
Cuando los grupos son de idntico tamao se ve muy fcilmente. Calculamos con los
datos de nuestro ejemplo (tabla 1) las desviaciones tpicas de las poblaciones representadas
por los tres grupos:
n-1 =

Grupo 1

Grupo 2

4.2341

3.1547

2
n1

La varianza media ser =


k

Grupo 3
4.5773

4.2341 + 3.1547 + 4.57732


=
= 16.27
3
2

Tenemos el mismo resultado obtenido antes (cuadrados medios dentro de los grupos,
tabla 2). Esto podemos hacerlo siempre que tengamos muestras independientes de idntico
tamao.
Si las muestras son de distinto tamao se trata de una media ponderada por el nmero
de sujetos: para calcular esta varianza media habr que 1 multiplicar cada varianza por su n,
y 2 dividir estos productos por N (no por k). Vamos a hacerlo con los mismos datos, ya que
los procedimientos para muestras de distinto tamao son tambin vlidos cuando son del
mismo tamao.
n 2n1 (7 x 4.23412 ) + (7x 3.1547 2 ) + (7x 4.57732 )
Varianza media =
=
= 16.27
21
N

En definitiva, lo que hacemos con la razn F es bsicamente comparar la varianza de


las medias (= variabilidad entre, multiplicada por el nmero de sujetos pues todos intervienen
en la media) con la varianza media de los grupos (variabilidad dentro).
En el caso ms sencillo de varias muestras independientes de idntico tamao (= n)
podemos expresar as lo que hacemos:
F=

diferencias o variabilidad entre las medias


diferencias o diversidad de los sujetos dentro de sus grupos
2

(n)(varianza de las medias n -1 )


2

[6]

media de las varianzas de los grupos (= n 1 / k )

Esta ltima expresin clarifica el anlisis de varianza tanto conceptual como


metodolgicamente y nos ofrece un procedimiento alternativo para llegar directamente a la
razn F, que es lo que nos interesa. Ms adelante ofrecemos un ejemplo resuelto siguiendo
literalmente esta frmula. En el numerador tenemos la varianza total prescindiendo de las
diferencias dentro de cada grupo (como si todos los sujetos tuvieran una puntuacin igual a la

Anlisis de varianza para muestras independientes

13

media de su grupo), y en el denominador tenemos la varianza total pero prescindiendo de las


diferencias entre las medias (entre los grupos).
Habitualmente seguiremos el procedimiento explicado en primer lugar porque
suponemos que calculamos las desviaciones tpicas (o varianzas) dividiendo por N, ya que es
el dato descriptivo que solemos calcular rutinariamente o que con ms frecuencia
encontramos ya publicado, y que adems nos permite completar con facilidad la tabla de
resultados (con las sumas de cuadrados) que es habitual presentar cuando se lleva a cabo un
anlisis de varianza.
3.2.3. Procedimiento alternativo de anlisis de varianza para varias muestras
independientes a) de idntico tamao y b) utilizando las desviaciones de la poblacin
(n-1)

Cuando tenemos varias muestras independientes y de idntico tamao, y disponemos de


una calculadora con programacin estadstica, el anlisis de varianza puede quedar muy
simplificado, yendo directamente al clculo de los cuadrados medios entre los grupos y
dentro de los grupos y de la razn F.
El procedimiento, utilizando las desviaciones de la poblacin (n-1) en vez de las
desviaciones de las muestras (n), ya est comentado antes (apartado 3.2, frmula [6]), pero
ahora lo exponemos con un ejemplo resuelto (tabla 4).

Grupo 1
12
18
16
8
6
12
10
11.714

Grupo 2
18
17
16
18
12
17
10
15.428

Grupo 3
6
4
14
4
6
12
14
8.571

n
n-1

3.917
4.231

2.921
3.1547

4.237
4.577

n=7

2
n 1

Desviacin tpica
de las medias
(dividiendo por N -1)

Varianza de
las medias

= A
2

n 1

n-1

3.4324
11.7817
Estas desviaciones tpicas (dividiendo por N)
son tiles como dato descriptivo
media de las varianzas (n-1)

17.904

9.952

20.952

n2 1 =
k

= B
16.267

Tabla 4
F=

Cuadrados Medios entre grupos


(n)(A) (7)(11.7817) 82.4719
=
=
=
= 5.069
Cuadrados Medios dentro de los grupos
B
16.267
16.267

Con una calculadora con programacin estadstica hacemos los clculos enmarcados en
una doble lnea con toda facilidad.
1 Calculamos en cada grupo la media y las dos desviaciones tpicas; la desviacin
tpica normal (de la muestra, dividiendo por N), como dato descriptivo til, y la
desviacin tpica dividiendo por N -1 que elevamos al cuadrado directamente (nos
interesan las varianzas), y que es lo que anotamos (no hay necesidad de anotar el
valor de n-1 sin elevarlo al cuadrado).

Anlisis de varianza para muestras independientes

14

Si tenemos ya calculados los valores de n (y esto es normal


que suceda) y no los de n-1, pasamos de unos a otros con
facilidad [2] (el N es el de cada grupo, 7 en este ejemplo):

2
n 1

N 2n
1

2 Calculamos A: introducimos las tres medias, calculamos su n- y lo elevamos al


cuadrado. Este valor (varianza de las medias), multiplicado por el nmero de sujetos
que hay en cada grupo (n), son los Cuadrados Medios entre los grupos.
3 Calculamos B: introducimos las varianzas de los grupos y calculamos su media; esta
media de las varianzas (las que hemos calculado dividiendo por N -1) es el valor de
los Cuadrados Medios dentro de los grupos.
4 Aplicamos la frmula de la razn F tal como la hemos puesto antes.
Este mtodo tambin puede servir simplemente como comprobacin. Al presentar los
resultados conviene poner una tabla donde aparezcan al menos los Cuadrados Medios, o
varianzas, entre y dentro de los grupos.
Si queremos presentar una tabla convencional, donde aparezcan tambin las Sumas de
Cuadrados y los grados de libertad (con este sistema calculamos directamente los Cuadrados
Medios), podemos calcular las Sumas de Cuadrados a partir de estos resultados (Suma de
Cuadrados = Cuadrados Medios por grados de libertad).
4. Clculos posteriores
4.1. Contrastes posteriores entre las medias

Un valor de F significativo nos indica que hay diferencias entre las medias por encima
de lo aleatorio, o que las diferencias entre las medias (entre los grupos) son mayores que las
diferencias entre los sujetos dentro de los grupos, pero no nos dice entre qu medias est o
estn las diferencias. Para comparar las muestras de dos en dos hay diversos mtodos.
En estos casos no utilizamos la t de Student, comparando cada media con todas las
dems. Si lo hacemos podemos encontrarnos con valores de t significativos, al nivel de
confianza que utilicemos, que sin embargo pueden ser casuales; al hacer varias
comparaciones de dos en dos aumenta la probabilidad de error. Cuando en el mismo
planteamiento tenemos ms de dos medias, se utilizan otros tipos de contrastes ms rigurosos
y apropiados. Estas comparaciones posteriores no se hacen si el valor de F no es significativo.
A pesar de lo que acabamos decir, y como ya indicamos antes, se puede utilizar la t de
Student convencional para comparar dos medias en el caso de que tengamos hiptesis previas
y justificadas acerca de alguna determinada diferencia entre dos medias. Esto sin embargo no
suele ser lo frecuente cuando planteamos un anlisis de varianza en el que simultneamente
analizamos ms de dos muestras.

Sobre estos contrastes debemos tener en cuenta inicialmente:


a) Que existen bastantes procedimientos para hacer estas comparaciones posteriores11 y
que no todos son igualmente vlidos, aconsejables o convenientes en todos los casos.
b) Que es frecuente que los programas de ordenador (como el SPSS) nos calculen varios
de estos contrastes hechos segn distintos mtodos, pero el hecho de que los d
rutinariamente un programa de ordenador no quiere decir que d lo mismo uno que otro.

11 Segn Kirk (1995) actualmente se utilizan ms de 30 contrastes; este mismo autor describe 22 procedimientos.

Anlisis de varianza para muestras independientes

15

c) Consecuentemente para valorar estos contrastes y escoger el ms apropiado es


conveniente examinar las peculiaridades de cada uno; aqu expondremos algunos de los ms
utilizados12.
Puede llamar la atencin el hecho de que haya muchos tipos de contrastes posteriores,
pero tiene su explicacin. Con estos contrastes se busca controlar y minimizar el error Tipo I
(el que se comete al rechazar13 la Hiptesis Nula de no diferencia cuando es verdadera y
habra que haber aceptado la no diferencia), y hay diversos mtodos porque se parte de
diversos presupuestos sobre el nmero y tipos de comparaciones que se van a hacer como se
ir indicando en cada caso:
a) Algn procedimiento (como el de Scheff) supone que se pueden hacer mltiples
comparaciones, todas las posibles, incluso combinando medias entre s, lo que da lugar a un
mayor nmero de contrastes posibles.
b) Con otros procedimientos (como el de Tukey) se supone que slo se van a comparar
las medias de dos en dos (y sin combinar medias entre s).
c) Otros procedimientos (como el de Dunnett) suponen un nmero de comparaciones
todava ms limitado, como la de varios grupos experimentales con uno solo grupo de control,
pero no el contraste de los grupos experimentales entre s.
Aqu nos limitamos a exponer algunos de los ms tiles y frecuentes; puede ser
suficiente atenerse a estos mtodos; cada uno tiene sus peculiaridades y utilidad especfica14.
Los contrastes que exponemos son los siguientes:
1. El contraste de Scheff. Cuando las muestras son de tamao desigual o cuando no
hay ningn tipo de hiptesis previa y se exploran diferencias por curiosidad, lo ms seguro es
atenerse al contraste de Scheff.
2. El contraste de Tukey. Cuando las muestras son de idntico tamao (o casi iguales
como veremos), el contraste de Tukey tambin es til, sencillo y muy utilizado (y en este
caso, muestras de idntico tamao, es preferible al contraste de Scheff).
Estos dos contrastes (Scheff y Tukey) son probablemente los que con ms frecuencia
se encuentran en los libros de texto. Aqu los tratamos con mayor amplitud y con ejemplos
resueltos, aunque antes de decidirse por un contraste en particular conviene repasar la
informacin disponible sobre otros contrastes.
3. Algunos contrastes que son variantes de Tukey en situaciones especficas como son
Tukey-Kramer (para muestras de tamao distinto), Games-Howell (para muestras de tamao
distinto y varianzas desiguales) y Newman-Keuls (para muestras iguales y ms liberal que el
contraste original de Tukey). Estos contrastes tienen otra tabla de probabilidades (distribucin
de q o rango estudentizado).
4. El contraste de Fisher (LSD, Least Significant Difference), una variante de la t de
Student y ms liberal que los anteriores.

12 Puede ser til adems consultar alguna obra especializada, como Klockars y Sax (1986) y Toothaker (1993).
13 Hablando con propiedad habra que decir no aceptar en vez de la expresin habitual rechazar.
14 Los contrastes de Bonferroni no los tratamos aqu; nos hemos referido a ellos al comienzo y estn comentados en
el Anexo II; tampoco fueron pensados especficamente como contrastes posteriores al anlisis de varianza. Tambin estn
programados en el SPSS.

Anlisis de varianza para muestras independientes

16

5. El contraste de Dunnett por su utilidad especfica, cuando lo que nos interesa es


comparar varias muestras experimentales con otra de control (no las muestras
experimentales entre s).
5. Sin exponerlos en detalle introduciremos los denominados contrastes ortogonales15.
Veremos que todas las frmulas de los contrastes posteriores se parecen mucho a la de
la de t de Student. En el numerador tenemos siempre una diferencia entre dos medias; en el
denominador de la t de Student tenemos las dos varianzas de los dos grupos que se comparan
y en estas frmulas lo que tenemos en su lugar son los cuadrados medios dentro de los
grupos que no son otra cosa que la varianza media de todas las varianzas de las muestras que
entran en el planteamiento, y no solamente las de las dos muestras que comparamos en cada
caso. Otra diferencia con respecto a la t de Student est en las tablas que hay que consultar
para ver las probabilidades asociadas al valor obtenido que salvo en algn caso (como en el
contraste de Fisher) son distintas.
4.1.1. Contraste de Scheff

Es uno de los contrastes ms utilizado; no suele faltar en los textos de estadstica y a


veces es el nico que se explica; por estas razones merece un comentario de cierta amplitud.
A pesar de su popularidad, y como advierten algunos autores (Klockars y Sax, 1986, entre
otros), no es necesariamente el mejor mtodo en todas las situaciones (est programado en el
SPSS).
a) Valoracin general

1) Se trata de un mtodo seguro, que se puede aplicar siempre. Es vlido para todo tipo
de contrastes; se pueden comparar las medias de dos en dos, o una media con una
combinacin lineal de otras, etc., y las muestras pueden ser tanto de idntico tamao como de
tamao desigual. La flexibilidad de este contraste lo ha hecho muy popular, aunque esta
flexibilidad tiene un precio; como iremos viendo su rigor puede ser excesivo.
2) Es un mtodo ms fiable y ms seguro cuando se violan los supuestos de normalidad
y de homogeneidad de varianzas, y con mayor razn cuando las muestras son de tamao muy
desigual. Esta es una buena razn para utilizarlo cuando dudamos de la legitimidad del
anlisis de varianza porque no se cumplen los requisitos previos.
3) A pesar de la aplicabilidad tan general de este procedimiento (prcticamente siempre
es vlido aunque no siempre es el mejor o el ms recomendable, como vamos indicando)
conviene consultar otras posibilidades (que iremos mencionando) antes de aplicar
rutinariamente el contraste de Scheff, sobre todo cuando tenemos hiptesis muy especificas,
las muestras son de idntico tamao o cuando vamos a hacer menos comparaciones de las
posibles.
4) El problema con este mtodo es que es muy conservador, y se puede aceptar la
Hiptesis Nula cuando podramos rechazarla legtimamente con otros procedimientos. En
trminos ms propios, se trata de un contraste con poco poder (se puede aceptar la Hiptesis
Nula de no diferencia cuando es falsa y podramos haber afirmado la diferencia). Es un
mtodo muy blindado contra el error denominado Tipo I (consiste en rechazar o no aceptar la

15 Todos estos contrastes pueden verse en numerosos textos; tambin en Internet se encuentran con facilidad
expuestos y valorados los diversos contrastes, por ejemplo en Lane, David M. (1993-2007). HyperStat Online Statistics
Textbook (en Introduction to Between-Subjects ANOVA) y en Dallal (2001) (puede verse adems el apartado 9, sobre
anlisis de varianza en Internet).

Anlisis de varianza para muestras independientes

17

Hiptesis Nula cuando es verdadera; este error se comete cuando aceptamos la diferencia y
en realidad no la hay; las medias proceden de la misma poblacin). Por esto decimos que se
trata de un mtodo muy conservador: esto significa que cuesta ms rechazar la Hiptesis
Nula.
5) Precisamente porque es un procedimiento muy conservador es especialmente til
cuando no hay hiptesis previas y simplemente exploramos diferencias entre grupos o entre
combinaciones de grupos. Si no aceptamos la Hiptesis Nula (y afirmamos que s hay
diferencias entre las medias), no nos equivocamos. Es un buen procedimiento cuando
comparamos grupos por mera curiosidad.
6) Es un procedimiento adecuado para comparar medias de grupos de tamao distinto;
esto hace que con frecuencia sea muy utilizado; en casi todos los otros mtodos se supone que
las muestras son de idntico tamao. Aun as, cuando las muestras son de tamao distinto,
disponemos de otras alternativas que no conviene pasar por alto y que iremos mencionando o
explicando16.
7) Con este procedimiento se puede hacer algo que frecuentemente puede ser de inters:
combinar varias muestras en una sola para comparar la nueva media con la de otras muestras.
Si tenemos, por ejemplo, tres grupos, se puede comparar cada media con las otras dos, pero
tambin podemos unir dos medias para compararla con una tercera.
Estas combinaciones de muestras (y medias) pueden ser de mucho inters, porque con
frecuencia encontramos que algunas muestras participan de una caracterstica comn y tiene
sentido unirlas para comparar la nueva muestra (combinacin de varias muestras) con una
tercera. Precisamente porque este procedimiento est diseado para hacer mltiples
comparaciones (incluso combinando medias entre s) es un mtodo ms conservador que los
dems.
Esta posibilidad de combinar muestras (posibilidad a veces poco aprovechada) permite
ampliar los anlisis y enriquecer la interpretacin. Adems combinando medias aumentamos
el nmero de sujetos y se rechaza con ms facilidad la hiptesis nula.
8) Como es un mtodo muy riguroso, sucede a veces que la razn F es significativa, y a
ese mismo nivel de confianza no encontramos diferencias significativas entre las medias.
Cuando la F es significativa y ninguna comparacin posterior lo es, el investigador suele
quedarse a veces perplejo, y pensando dnde se habr equivocado; por eso conviene conocer
de antemano esta posibilidad.
El que la razn F sea significativa y luego al comparar las medias de dos en dos no
encontremos diferencias significativas puede suceder aunque no es lo habitual. Realmente con
una F significativa encontraremos al menos una diferencia significativa entre dos medias,
pero no necesariamente entre las medias de dos grupos, sino entre combinaciones de medias
que pueden no tener un inters especfico17. Cuando encontramos una razn F significativa y

16 Contrastes posteriores que admiten muestras de tamao desigual son al menos los de Fisher, Tukey-Kramer y
Games-Howell; el contraste de Tukey y otros tambin son vlidos cuando las muestras son de tamao ligeramente distinto;
en estos casos el nmero de sujetos que se utiliza (porque entra en las frmulas) es la media armnica.
17 La posibilidad de obtener una F significativa y despus no obtener diferencias significativas al comparar los
grupos entre s es una posibilidad no frecuente en los dems contrastes, y lo mismo sucede a la inversa: puede haber un
contraste significativo y una F no significativa. Esta posibilidad puede verse discutida en Hancock y Klockars (1996) y en
Hancock y Klockars (1998: Scheffe's test which is commonly used to conduct post hoc contrasts among k group means, is
unnecessarily conservative because it guards against an infinite number of potential post hoc contrasts when only a small set
would ever be of interest to a researcher). La prueba inicial de F (en definitiva el anlisis de varianza) ofrece una proteccin

Anlisis de varianza para muestras independientes

18

luego no vemos diferencias estadsticamente significativas entre los grupos, una buena
sugerencia es acudir a los contrastes de Games y Howell (explicados despus) vlidos para
muestras con tamaos y varianzas desiguales (programado en el SPSS).
9) Por tratarse de un mtodo muy conservador, hay autores que sugieren o recomiendan
utilizar con el contraste de Scheff un nivel de confianza ms liberal, de = .10 en vez del
usual = .0518 En general en todos los casos lo ms recomendable es indicar la probabilidad
exacta (p = .03, p = .006) en vez de los usuales p < .05 p< .01
b) Procedimiento

Para mayor claridad, y dada la popularidad (y los problemas) de este contraste


distinguimos tres situaciones (aunque realmente se trata en todos los casos de lo mismo).
1) Para contrastar las medias de dos muestras

Esto es lo que hacen rutinariamente los programas como el SPSS.


Damos los siguientes pasos:
1 Calculamos este valor de t':

t' =

Por ejemplo, entre los grupos 1 y 2 tendramos t' =

| M1 - M2 |
1
1
CMdentro ( + )
n 1 n2
11.714 15.4281
1 1
(16.26)( + )
7 7

[7]

= 1.723

Cuando los grupos son de igual tamao se simplifica el clculo porque el denominador
es siempre el mismo. Los valores de t' para los diversos pares de grupos de este ejemplo son:
entre el 1 y el 2, t' = 1.723
entre el 1 y el 3, t' = 1.458
entre el 2 y el 3, t' = 3.181
2 A partir de a) nmero de grupos (k) y b) de los valores de F que vienen en las tablas,
y ya consultados en el anlisis de varianza previo, calculamos los valores significativos de t'
(construimos nuestras propias tablas) mediante la frmula [8]:
t' = (k -1)F

[8]

En nuestro caso (2 y 18 grados de libertad) que encontramos en las tablas son:

contra el error tipo I (rechazar (o no aceptar) la Hiptesis Nula cuando es verdadera) que puede resultar excesiva y no faltan
autores que recomiendan pasar directamente a los contrastes posteriores cuando hay hiptesis experimentales claras (Jaccard,
1998:28, 67). El encontrar una F significativa y no ver diferencias entre los grupos es ms frecuente cuando las muestras son
de tamao desigual (varias explicaciones, comentarios y alternativas metodolgicas en Overseas Chinese Association for
Institucional Research ( h t t p : / / w w w . o c a i r . o r g / ) I R & S t a t i s t i c s , S u m m a r i e s o f O n - l i n e D i s c u s s i o n
http://www.ocair.org/files/KnowledgeBase/Statistics/Anova.asp consultado 24, 08, 2007)
18 Esta recomendacin la vemos en Rodrigues (1977), Escotet (1980), Martnez Garza (1988) y en otros autores. En
las tablas de la F muchos textos se limitan a = .05 y .01, pero en bastantes se pueden ver tambin los valores de F para =
.10; adems tablas con =.10 las tenemos en Internet, y tambin en Internet podemos encontrar la probabilidad exacta de
cualquier valor de F; al final dedicamos un apartado a recursos de Internet en relacin con el anlisis de varianza. Tambin
convine tener en cuenta que el contaste de Games y Howell puede ser una buena alternativa al de Scheffe.

Anlisis de varianza para muestras independientes

19

para p = .05, t'= (3-1)(3.55) = 2.664


para p = .01, t'= (3-1)(6.01) = 3.466
3 Estos son nuestros valores de referencia (nuestras nuevas tablas). Comparamos ahora
las t' del paso 1 con las que acabamos de calcular para comprobar qu valores de t' llegan o
superan los valores de t' significativos (paso 2). La nica diferencia significativa se da entre
los grupos 2 y 3 (p < .05).
Cuando son muchas las comparaciones entre medias que tenemos que hacer, se puede
simplificar el procedimiento calculando en primer lugar cul debe ser la diferencia mnima
entre dos medias para determinados niveles de significacin. Para esto nos basta despejar |M1
- M2| en la frmula de t' [7] y as tenemos que:

| M 1 - M2 |= t' CMdentro (

1
n1

1
n2

[9]

Calculamos los valores de t' tal como lo hicimos antes y hallamos los valores
significativos de |M1 - M2|, que en este ejemplo sern:
para un nivel de confianza de =.05: |M1 - M2| = 2.664

1 1
(16.26)( + ) = 5.74
7 7

para un nivel de confianza de =.01: |M1 - M2| = 3.466

1 1
(16.26)( + ) = 7.47
7 7

Ahora nos basta calcular las diferencias entre medias y comprobar si alcanzan los
valores sealados:
Entre el grupo 1 y 2: |11.71-15.43| = 3.72, inferior a 5.74 (p> .05); no significativa;
Entre el grupo 1 y 3: |11.71- 8.57| = 3.14, inferior a 5.74 (p> .05); no significativa;
Entre el grupo 2 y 3: |15.43- 8.57| = 6.86, superior a 5.74 (p< .05); significativa.
2) Utilizando un nivel de confianza ms liberal ( = .10)

Si deseamos utilizar el contraste de Scheff con un nivel de confianza ms liberal, de


= 10, tenemos que buscar en las tablas de F el valor correspondiente a la probabilidad de =
.10 con 2 y 18 grados de libertad (en este ejemplo). Este valor de F es 2.62 que utilizaremos
en la frmula [8]
t'= (3 1)(2.62) = 2.289
La diferencia mnima que debemos encontrar es la que hemos visto en la frmula [9]:
1 1
Para un nivel de confianza de =.10: |M1 - M2| = 2.289 (16.26)( + ) = 4.93
7 7
En nuestro ejemplo y con = .10 seguimos sin encontrar diferencias estadsticamente
significativas entre los grupos 1 y 2 y 1 y 3.
3) Contrastes combinando medias de grupos

Como ya hemos indicado, el mtodo de Scheff no slo sirve para comparar dos grupos
entre s (es lo ms habitual) sino tambin para comparar medias combinando varios grupos.

Anlisis de varianza para muestras independientes

20

Por ejemplo, deseamos verificar si la media del grupo 2 supera significativamente a la


media combinada de los grupos 1 y 3:
La media combinada de estos dos grupos es 10.1425 (es la media de las medias, ya que
se trata de grupos con idntico nmero de sujetos).
El nuevo nmero de sujetos de este nuevo grupo es ahora 7 + 7 = 14.
Aplicando la frmula [9] tenemos: t' =

| 15.43 10.1425 |
= 2.83, p< .05
1 1
(16.26)( + )
7 14

4.1.2. Contraste de Tukey para muestras de idntico (o muy parecido) tamao

El procedimiento de Tukey se basa en el estadstico q o del rango estudentizado; no es


necesario entenderlo para utilizarlo (aunque se aprecia enseguida su semejanza con la t de
Student), pero est explicado en el anexo IV (est programado en el SPSS).
a) Valoracin general

1) Supone grupos de idntico tamao


c) Se pueden comparar todas las medias de dos en dos; el procedimiento est pensado
para k(k-1)/2 comparaciones, todas las posibles entre k grupos tomados de dos en dos.
d) Es en principio preferible a Scheff si se puede garantizar la homogeneidad de
varianzas y la distribucin normal de las poblaciones; el mtodo de Tukey es menos tolerante
con las violaciones de estas condiciones previas que el procedimiento de Scheff.
Cuando es claro que no se cumplen estas condiciones, disponemos de adaptaciones de
este contraste que exponemos en los apartados siguientes (contrastes de Tukey-Kramer y de
Games y Howell).
e) Con el contraste de Tukey se rechaza con ms facilidad la Hiptesis Nula que con el
contraste de Scheff; es preferible tambin cuando se est interesado en todos los posibles
contrastes entre pares de medias.
b) Procedimiento

1 La diferencia honestamente significativa (DHS Honestly Significant Difference)

Una diferencia es estadsticamente significativa si es igual o mayor que el valor


simbolizado como DHS (diferencia honestamente significativa). Habitualmente se calcula un
solo valor con el que se comparan todas las diferencias.
DHS= q

CM dentro
n

[10]

DHS = Diferencia honestamente significativa o diferencia mnima necesaria para


poder rechazar la Hiptesis Nula
q=

Valor del rango estudentizado que hay que consultar en las tablas apropiadas
para los grados de libertad del trmino del error (Cuadrados Medios dentro de
los grupos) y para k (nmero de grupos o de medias)19.

19 Tablas de Tukey en el documento con tablas estadsticas y las direcciones de Internet del apartado n 9.

Anlisis de varianza para muestras independientes

21

CMdentro= Varianza (Cuadrados Medios) dentro de los grupos;


n=

Nmero de sujetos o datos en cada grupo.

En nuestro ejemplo el valor de q para tres grupos y 18 grados de libertad es 3.61 (p <
.05) por lo que para rechazar la Hiptesis Nula habra que alcanzar una diferencia de:
DHS = 3.61

16.26
= 5.50
7

Esta diferencia es algo menor que la que nos indica el mtodo de Scheff. El contraste
de Tukey detecta mejor las diferencias significativas que el de Scheff y se puede utilizar en
cualquier planteamiento de anlisis de varianza, con tal de que el nmero de sujetos sea igual
(o casi) en todos los grupos.
Aunque quizs lo ms frecuente sea calcular la diferencia mnima necesaria para
rechazar la Hiptesis Nula que acabamos de ver [10], tambin se puede calcular directamente
el valor de q (como hacemos con la t de Student); podemos despejar el valor de q en la
frmula [10]; DHS es ahora la diferencia entre las medias que queremos contrastar:
| M1 - M 2 |
q=
[11]
CMdentro
n
Vamos a comparar las medias de los grupos 2 (M = 15.428) y 3 (M = 8.571) (tabla 1);
los cuadrados medios dentro de los grupos son igual a 16.26 (tabla 2):
q=

| 15.428 - 8.571 |
= 4.499
16.26
7

En las tablas de q para k (nmero de medias) = 3 y 18 grados de libertad tenemos los


valores de 3.61 (.05) y 4.70 (.01), por lo que en nuestro caso p < .05
Cuando se trata de un anlisis de varianza con ms criterios de clasificacin (como
cuando disponemos los datos en un cuadro de doble entrada), el valor de k no es siempre el
nmero de grupos. Aqu nos limitamos a exponer el procedimiento para el caso de varias
muestras independientes con un slo criterio de clasificacin; no para los casos en que hay
ms (como en los cuadros de doble entrada de los diseos factoriales; esto lo veremos en su
lugar).

2 Cuando el nmero de sujetos es ligeramente desigual


Cuando el nmero de sujetos en cada grupo es desigual (pero no muy desigual), en vez
de n (nmero de sujetos en cada grupo cuando son de idntico tamao), puede utilizarse la
media armnica (n*), de los diversos n (k es el nmero de grupos)20:

20 Cuando se utiliza la media harmnica suele emplearse la expresin unweighted means analysis, y no debe
utilizarse con muestras muy pequeas (<10) y con diferencias entre las muestras mayores de 2 en nmero de sujetos (Dallal,
2001). La recomendacin de utilizar la media armnica de n cuando los grupos son de tamao ligeramente desigual se
encuentra en muchos autores (por ejemplo Wildt y Ahtola, 1978 y Klockars y Sax, 1986).

Anlisis de varianza para muestras independientes

22

k
media armnica de n* = 1
1
1
1
+
+ +
n 1 n 2 n3
nk

n* =

k
1
( )
n

[12]

Otra posibilidad que recomiendan algunos autores21 es utilizar la media armnica de n


de solamente los dos grupos que vamos a comparar si las diferencias en tamao son algo
mayores, o simplemente podemos utilizar como valor de n el nmero de sujetos del grupo
ms pequeo; nuestro test ser en este caso ms conservador (como sucede siempre; si nos
fijamos en la frmula del contraste de Tukey veremos que a mayor n es ms fcil rechazar la
Hiptesis Nula de no diferencia).

4.1.3. Contraste de Tukey-Kramer para muestras de distinto tamao y varianzas iguales


Este contraste es vlido para comparar las medias de muestras de distinto tamao, pero
con la condicin de que las varianzas de las poblaciones a las que pertenecen las muestras
sean iguales (por iguales entendemos sin diferencias estadsticamente significativas).
Esta condicin no siempre es fcil de confirmar por lo que este procedimiento no se
debe utilizar (Toothaker, 1993) si a) las desviaciones tpicas (o varianzas) de las muestras no
son muy parecidas o b) si no disponemos de ms datos de otros estudios que nos confirmen
que las varianzas de las poblaciones son de magnitud semejante.
Aunque esta condicin es bastante restrictiva se trata de un contraste aplicable en
muchas ocasiones en las que tenemos muestras de tamao desigual. Adems con un ajuste en
los grados de libertad es un contraste vlido cuando el tamao de las muestras es distinto y
tambin las varianzas son distintas (y tenemos aqu una alternativa al procedimiento de
Scheff); se trata en este caso del contraste de Games y Howell que veremos en el apartado
siguiente.
Este contraste sigue tambin la distribucin de q (como el contraste habitual de Tukey)
y suele presentarse de dos maneras (obviamente equivalentes); presentamos las dos para
evitar confusiones.
a) Calculamos en primer lugar este valor de t':

t' =

Mi M k
1 1
CMdentro ( + )
ni n k

[13]

M y n son respectivamente las medias que vamos


a comparar y el nmero de sujetos de cada
muestra; CMdentro son, como siempre, los
cuadrados medios dentro de los grupos.

Calculamos el valor crtico de t' a partir del valor de q (al nivel de confianza deseado;
tablas de q):
t' =

q
2

[14]

Buscamos el valor de q correspondiente al nmero de medias de nuestro planteamiento


(nmero de muestras) y los grados de libertad de los cuadrados medios dentro de los grupos
(como es usual en estas tablas).

21 Por ejemplo Klockars y Sax (1986).

Anlisis de varianza para muestras independientes

23

Tambin podemos calcular directamente la diferencia mnima que tenemos que


encontrar para afirmar la diferencia; para esto nos basta con despejar el numerador de la
frmula [13] sustituyendo q por el valor que encontremos en las tablas:
|Mi-Mk|=

q
2

CMdentro (

1
1
+ )
ni nk

[15]

Si vamos a hacer varias comparaciones entre medias lo nico que ir variando es el


tamao de los grupos; el resto de los valores (q y CMdentro) son constantes.
b) Dada la relacin entre t y q cuando se trata de dos muestras (t= q/ 2 ) podemos
tambin calcular directamente el valor de q (frmula [16]) y consultar las tablas de q.
q=

Mi Mk

[16]

(1 / n i ) + (1 / n k )
CM dentro

Conviene caer en la cuenta de que ambas frmulas ([13] y [16]) son en ltima instancia
equivalentes, para evitar confusiones si encontramos distintas frmulas en distintos lugares.
Vamos a ver la equivalencia de estos procedimientos con un ejemplo que adems
clarifica el uso de estas frmulas. En la tabla 4 tenemos los datos de tres grupos de tamao
distinto (A, B y C).
A
10
8.00
3.898

n=
M=
n =

B
9
11.55
4.7868

C
8
14.125
4.780

Tabla 4
El nmero total de sujetos es N = 27. Suponemos que la razn F es significativa
(realmente lo es).
Los cuadrados medios dentro de los grupos (que necesitamos para aplicar las frmulas
[13] y [16]) son, como ya sabemos (frmula [5]), igual a n2/N - k = 22.539
Contrastamos las medias de los grupos C y A, primero con la frmula [13]:
14.125 8.00
t' =
= 2.7198
1 1
22.539 ( + )
8 10

Los grados de libertad son:

3
24

(nmero de grupos)
(N-k, grados de libertad dentro de los grupos)

En las tablas de q vemos que con un nivel de confianza de = .05 necesitamos q =


3.53, por lo que el valor crtico de t (frmula [14]) es por lo tanto:
3.53
t' =
= 2.496
2
Como nuestro valor de t (2.719) supera este valor, rechazamos la Hiptesis Nula y
concluimos que las muestras A y C difieren significativamente (proceden de poblaciones
distintas con distinta media).

Anlisis de varianza para muestras independientes

24

Para hacer este mismo contraste vamos a calcular ahora directamente el valor de q
(frmula [16]):
q=

14.125 8.00
(1 / 10) + (1 / 8)
22.539

Superamos el valor de 3.53 que vemos en las


tablas para 3 y 24 grados de libertad y
llegamos a la misma conclusin (p< 05)

= 3.846

Verificamos por ltimo que en el caso de dos muestras t =

q
2

Hemos obtenido un valor de t = 2.719 y de q = 3.846; efectivamente

3.846
= 2.719
2

4.1.4. Contraste de Games y Howell (GH) para muestras de distinto tamao y varianzas
desiguales

Cuando no estamos seguros de que las varianzas de las poblaciones a las que pertenecen
nuestras muestras sean iguales, disponemos del contraste de Games y Howell (suele
simbolizarse simplemente como GH) (est programado en el SPSS).
El procedimiento y las frmulas son idnticos al contraste anterior de Tukey-Kramer
[13]; la diferencia est en los grados de libertad dentro de los grupos para buscar el valor de
q en las tablas; estos grados de libertad quedan reducidos y har falta un valor mayor de F.
En este caso la frmula de los grados de libertad es la siguiente (Klockars y Sax, 1986;
Toothaker, 1993)22:
grados de libertad =

[(

2
i

) (

/ n i + k2 / n k

)]

( i2 / n i ) 2 ( k2 / n k ) 2
+
n1 1
nk 1

[17]

Esta frmula se puede expresar de una manera ms simple que facilita el clculo:
grados de libertad =

(d i d k )
d i2
d2
+ k
n i 1 n k 1

[18]

donde d =

2
n

Como vemos en [17] los grados de libertad para consultar las tablas de q no son N-k,
sino que los calculamos a partir de los valores de las desviaciones tpicas (de las muestras) y
del nmero de sujetos que tenemos en los grupos que comparamos. Lo normal es que
obtengamos una cifra con decimales que podemos redondear al nmero entero ms prximo.
Podemos hacer la misma comparacin entre las medias de los grupos C y A (tabla 4)
asumiendo que las varianzas son muy diferentes. El valor de q ya lo tenemos calculado
(3.846), lo que necesitamos son los grados de libertad; aplicando la frmula [17] tenemos:

22 Es la frmula de Satterthwaite (Dallal, 2001, en Significance Tests / Hypothesis Testing); como indica el mismo
autor (Dallal, 2001) ste es el procedimiento utilizado por el programa SPSS en esta situacin (muestras de tamao distinto y
varianzas desiguales).

Anlisis de varianza para muestras independientes

25

grados de libertad =

[(
(

2
C / nC ) +
2
2
C / nC )

nC 1

( A2 / n A )

( A2 / n A ) 2
nA 1

[(4.78

/ 8) + (3.8982 /10)]
=
=13.46
(4.782 / 8)2 (3.8982 / 10) 2
+
8 1
10 1
2

Los grados de libertad son ahora 13 (redondeando decimales), bastante menos que los
24 (N-k) que tenamos antes. Para grados de libertad 3 (nmero de grupos) y 13, y = .05
necesitamos un valor de q de 3.73 (mayor que q = 3.53 con 24 grados de libertad que
tenamos antes), por lo que nuestro valor de q = 3.846 (mayor que 3.73) sigue siendo
suficiente para no aceptar (rechazar) Hiptesis Nula.
Esta frmula de los grados de libertad de los cuadrados medios dentro de los grupos es
aparentemente laboriosa, pero con muestras de tamao muy distinto y varianzas claramente
desiguales, este procedimiento es una buena alternativa al de Scheff23.
4.1.5. Contraste de Newman-Keuls

El test de Newman-Keuls es muy popular, tambin requiere muestras de idntico


tamao y es algo ms liberal que el de Tukey; tambin utiliza las tablas de q.
La frmula es idntica a la de Tukey [12], la diferencia est al consultar las tablas de q:
1 las medias se ordenan de ms a menos y 2 el nmero de medias para consultar las tablas
no es el nmero de medias que tenemos en el anlisis de varianza sino las dos que se
comparan ms las que estn entre estas dos una vez ordenadas; es decir quedan excluidas las
medias mayores o menores de las dos que comparamos. Los valores crticos de q bajan segn
baja el nmero de medias, por lo que resulta ms fcil no aceptar la Hiptesis Nula; es por lo
tanto un contraste ms liberal que el de Tukey.
El contraste de Duncan (new multiple range test) es una modificacin del de NewmanKeuls, tambin se utilizan las tablas de q y es algo ms liberal (programado en el SPSS).
4.1.6. Contraste Least Significant Difference (LSD) de Fisher.

Con este contraste se utilizan las mismas tablas de la t de Student y se puede utilizar con
muestras de distinto tamao. La diferencia con la t de Student est en que en el denominador
de la t (donde figura el error tpico de la diferencia entre medias) colocamos los Cuadrados
Medios dentro, por lo tanto la frmula es:
M1 M 2
[20]
t (Fisher) =
1
1
CM dentro [ + ]
n1 n2
Cuando n = n esta frmula es idntica a la de Dunnett pero las tablas que hay que
consultar en el contraste de Dunnett son distintas.
Este contraste (LSD) slo se debe utilizar si la F es significativa; es uno de los
contrastes ms liberales (es ms fcil no aceptar la Hiptesis Nula).

23 Estos grados de libertad tambin son vlidos, y recomendables, para consultar las tablas de la t de Student cuando
comparamos dos muestras con tamao y varianzas muy desiguales (Hinkle, Wiersma y Jurs, 1994; Coombs, Algina y
Oltman, 1996).

Anlisis de varianza para muestras independientes

26

4.1.7. Contraste de Dunnett

a) Vlido para comparar las medias de los grupos experimentales (tratamientos) con
un grupo de control; no para comparar los tratamientos entre s (est pensado para k-1
comparaciones; por eso se rechaza la Hiptesis Nula con ms facilidad; estn previstas menos
comparaciones). Es til precisamente en estos casos, cuando tenemos varios grupos
experimentales y un grupo de control (est programado en el SPSS).
b) Supone idntico nmero de sujetos en cada grupo (n) aunque tambin podemos
utilizar la media armnica de n, como vimos en el mtodo de Tukey, cuando el nmero de
sujetos es desigual pero muy parecido.
Media tratamiento - Mediacontrol
Frmula del contraste de Dunnett: t' =
[19]
2CMdentro
n
CMdentro, o cuadrados medios del error, son, como siempre en estos casos, los
cuadrados medios (o varianza) dentro de los grupos. Este contraste tiene sus propias tablas
para verificar la probabilidad de un determinado valor de t'24.
4.1.8. Contrastes ortogonales

Sin entrar en una explicacin del procedimiento, mencionamos sealamos las


caractersticas de estos contrastes.
1) Se planifican de antemano, antes de recoger los datos y responden a hiptesis muy
especficas,
2) Responden a preguntas independientes que no aportan informacin redundante (por
eso se denominan ortogonales, sin relacin)25,
3) Se pueden comparar tanto medias entre s como combinaciones de medias,
4) El nmero de comparaciones que es permisible hacer es limitado y no puede ser
superior a k -1 (nmero de grupos menos uno).
No los explicamos aqu pero los tenemos en programas de ordenador y se encuentran
con facilidad en otros textos26.
4.1.9. Valoracin de los diferentes contrastes

No todos los contrastes vistos son igualmente rigurosos, con unos es ms fcil que con
otros rechazar la Hiptesis Nula.
En la lista siguiente27 aparecen los ms comunes, situados en un continuo segn sean
ms liberales o ms conservadores (segn sea ms fcil o ms difcil rechazar la Hiptesis
Nula).

24 Tablas de Dunnett en el documento con tablas estadsticas y en las direcciones de Internet indicadas en el
apartado n 9.
25 Si por ejemplo nuestra hiptesis es que los grupos A+C (dos grupos unidos en uno solo) tienen una media mayor
que los grupos B+D (otros dos grupos unidos en uno solo), no podemos plantearnos tambin si la media de A es mayor que
la de B, porque parcialmente esta comparacin est incluida en la anterior. El trmino ortogonal (orthogonality) fu usado
por primera vez por Yates en 1933 (StatSoft, Inc., 2007).
26 Los contrastes ortogonales no suelen venir explicados en textos de carcter ms bien bsico, pero s en los de un
nivel medio o superior, pues son algo ms complejos que los que exponemos aqu. Pueden verse explicados en Klockars y
Sax (1986), Guilford y Fruchter (1978) y Kirk (1995) entre muchos otros.

Anlisis de varianza para muestras independientes

27

ms liberal

ms conservador

Fisher (LSD) (Least Significant Difference)


Duncan (new multiple range test)
Newman-Keuls
Tukey (Honestly Significant Difference)
Scheff

Algunos autores recomiendan no utilizar los contrastes de Fisher, Duncan y NewmanKeuls cuando tenemos ms de tres grupos; en este caso son contrastes demasiado liberales
(se rechaza con demasiada facilidad la Hiptesis Nula)28. Esta lista no incluye el test de
Dunnett porque no est concebido para comparaciones mltiples, sino slo para comparar
distintas muestras experimentales con una sola muestra de control.
Al disponer de tantas posibilidades distintas de hacer los contrastes posteriores, puede
parecer que este paso, necesario por otra parte para llegar a las conclusiones finales, es
complicado. En la prctica una buena orientacin es escoger entre Scheff y Tukey (son los
que con ms frecuencia aparecen en los libros de texto) o el de Dunnett cuando se trata de
comparar varios grupos experimentales con un grupo de control o de referencia. Los
contrastes de Tukey-Kramer y Games y Howell (variantes de Tukey) tambin son los
oportunos en las circunstancias indicadas al comentar estos contrastes (ambos contrastes
coinciden en el tamao desigual de las muestras). Al decidir sobre la eleccin de alguno de
estos contrastes es conveniente tener a la vista las observaciones hechas a propsito de los
mismos29.
Estos contrastes suelen dividirse en dos tipos: planificados de antemano (a priori) y no
planificados de antemano (a posteriori o post hoc); el trmino post hoc se emplea
frecuentemente para designar los contrastes hechos despus de inspeccionar los datos. Los
diversos contrastes para comparar las medias de dos en dos (como el de Tukey) suelen
incluirse ente los mtodos a posteriori, pero tambin pueden planificarse de antemano, por lo
que esta distincin no es tan ntida; en un anlisis exploratorio tambin se pueden especificar
a priori los contrastes de inters30.

27 Tomada de Huck, Cormier, y Bounds (1974); Black (1999) y Gerstman (2003) presentan cuadros semejantes y los
mismos contrastes aparecen con el mismo orden.
28 Toothhaker (1993); Kirk (1995); Hancock y Klockars (1996)
29 Hancock y Klockars (1996) tienen una buena revisin crtica de todos estos contrastes. Entre los pocos que en
ltima instancia recomiendan son Scheff (para explorar), Tukey (para comparar entre s todas las medias de dos en dos en
muestras de idntico tamao) y Dunnett (no para hacer todas las comparaciones posibles sino nicamente para comparar
muestras experimentales con una muestra de control). Keselman y otros (1998) tienen un interesante estudio sobre las
preferencias metodolgicas en los diversos tipos del anlisis de varianza, tal como aparecen en investigaciones publicadas
en 17 revistas de prestigio (Child Development, Developmental Psychology, American Educational Research Journal,
Journal of Applied Psychology, etc.). Los contrastes posteriores ms utilizados son por este orden: Tukey, Newman-Keuls,
Scheff y Fisher Least Significant Difference. Tambin es posible utilizar contrastes distintos para comparar distintos pares
de medias entre s: Most analysts agree that Fisher's LSD is too liberal. Some feel that Tukey's HSD is too conservative.
While it is clear that the largest difference between two means should be compared by using Tukey's HSD, it is less obvious
why the same criterion should be used to judge the smallest difference. The [Student]-Newman-Keuls Procedure is a
compromise between LSD and HSD I use Tukey's HSD for the most part One general approach is to use both Fisher's
LSD and Tukey's HSD. Differences that are significant according to HSD are judged significant; differences that are not
significant according to LSD are judged nonsignificant; differences that are judged significant by LSD by not by HSD are
judged open to further investigation (Dallal, 2001). Este autor tiene una buena exposicin (online) sobre los distintos
contrastes.
30 Hancock y Klockars (1996) reservan el trmino a posteriori exclusivamente al contraste de Scheff; en Jaccard
(1998:27) pueden verse discutidos estos trminos.

Anlisis de varianza para muestras independientes

28

En los programas de ordenador con frecuencia aparecen de manera rutinaria una serie
de contrastes (aqu no estn expuestos o mencionados todos los posibles); lo recomendable es
repasar la informacin disponible sobre estos contrastes para escoger e interpretar el (o los)
que se estime ms idneo para una situacin determinada.
4.2. Relevancia prctica de los resultados: proporcin de varianza relacionada con la
variable-criterio de clasificacin y tamao del efecto

Mediante el anlisis de varianza propiamente dicho y los contrastes posteriores


verificamos si las diferencias entre las medias son estadsticamente significativas. Con esta
expresin lo que queremos decir es si podemos considerar que las diferencias observadas
entre los grupos en la variable dependiente (aquella en la que hemos medido a los sujetos) son
mayores de lo que podemos esperar por azar, es decir, si no estn dentro de la variabilidad
normal. En ese caso podemos atribuir las diferencias a la pertenencia a alguno de los grupos
(a un tratamiento, etc.). Ahora bien, esta significacin estadstica no coincide necesariamente
con la significacin (o relevancia) prctica: el efecto de un tratamiento (o de la pertenencia a
un grupo determinado) puede ser estadsticamente significativo pero pequeo e irrelevante.
Valores grandes de F y pequeos de p (como p<.001) no indican efectos o diferencias
grandes. Un p <.05 con un grupo pequeo puede ser ms importante que un p<.001 con una
muestra grande.
Para juzgar sobre la relevancia prctica de los resultados no tenemos un indicador
preciso y hay que hacer juicios cualitativos, pero es til poder apreciar la magnitud de ese
efecto. Disponemos al menos de dos orientaciones metodolgicas relacionadas entre s:
a) Podemos estimar la proporcin de varianza en la variable dependiente (la que hemos
medido) asociada con el criterio que ha servido para clasificar a los sujetos (pertenencia a un
grupo u otro).
b) Podemos calcular un tamao del efecto anlogo al que hacemos en el contraste de
dos medias.
En el contexto del anlisis de varianza y para poder interpretar mejor los resultados,
posiblemente lo ms habitual es calcular la proporcin de varianza que podemos atribuir a los
criterios de clasificacin (a la variable independiente).
4.2.1. Proporcin de varianza relacionada con la variable-criterio de clasificacin

Esta proporcin de varianza en la variable dependiente asociada o atribuible a los


criterios de clasificacin nos la dan una serie de coeficientes que pueden considerarse como
un tamao del efecto. Los coeficientes propuestos aqu son los coeficientes 2 y 2. Estos
coeficientes y otros anlogos son importantes porque ayudan a poner de relieve la
significacin prctica de los resultados y son comparables en su interpretacin al tamao del
efecto en el contraste de medias. Lo que no podemos hacer es calcular la media de estos
coeficientes, como se hace en el meta-anlisis, para resumir resultados de diversos estudios,
ya que son siempre positivos y no indican la direccin de la diferencia.
4.2.1.1. El coeficiente 2

Este coeficiente 2 puede aplicarse en el anlisis de varianza unifactorial (un nico


factor o criterio de clasificacin, el que estamos viendo ahora) siempre que las categoras de
clasificacin sean fijas (como suelen ser habitualmente, es decir, escogidas con criterios
lgicos, y no escogidas aleatoriamente de una poblacin mayor, por ejemplo de centros
escolares, etc.).
Anlisis de varianza para muestras independientes

29

El coeficiente 2 es un ndice general de asociacin entre dos variables, y, como ya se


ha indicado, aporta una informacin anloga al tamao del efecto en el contraste de medias.
El valor de equivale a un coeficiente de correlacin, y elevado al cuadrado nos indica la
proporcin de varianza compartida por las dos variables. En realidad no puede hablarse con
propiedad de coeficiente de correlacin, pues las categoras de clasificacin (pertenencia a un
grupo u otro) no son necesariamente continuas; en cualquier caso 2 nos indica la proporcin
de varianza en la variable dependiente (la que hemos medido) atribuible a la pertenencia a
uno u otro grupo.
1. Cuando los grupos son de idntico tamao
En el anlisis de varianza de una clasificacin simple (un criterio de clasificacin
dividido en varios niveles, que es el modelo que estamos viendo) y con grupos de idntico
tamao el clculo es el siguiente (Guilford y Fruchter, 1973:245):
(k - 1)(F - 1)
=
(k - 1)(F - 1) +kn
2

[19]

En este caso tendremos que 2 =

k = nmero de grupos,
n = nmero de sujetos en cada grupo,
F = la razn F obtenida en el anlisis.
(3 1)(5.069 1)
= .28
(3 1)(5.069 - 1) + (3)(7)

Este resultado nos indica que aproximadamente (se trata de una estimacin) el 28% de
la varianza (diferencias en los datos analizados) est relacionado con la pertenencia a uno u
otro grupo. Con una F significativa slo sabamos que esta relacin era superior a cero (que
haba relacin, pero no cunta).
Esta otra frmula del coeficiente 2 da una estimacin semejante:

2 =

SCentre (k 1)CM dentro


SC total + CM dentro

[22]

En nuestro ejemplo tenemos que:


2 =

164.87 (3 1)16.26
= .28
457.79 +16.26

2. Cuando los grupos son de distinto tamao


En las frmulas anteriores se asume que los grupos son de idntico tamao (o no muy
diferente). Cuando los grupos son de tamao claramente desigual la frmula que suele
proponerse como estimacin de 2 es sta (Kirk, 1995):
2 =
SCentre

SCentre -(k -1)CMdentro


N
+ [k( - 1)CMdentro ] + CMdentro
k

[23]

k = nmero de grupos
N/k = tamao medio de
los grupos

En nuestro ejemplo, aunque los grupos son de idntico tamao, aplicando esta frmula
tendramos:

2 =

164.87 - (3 - 1)(16.26)
= .28
21
164.87 + [3( 1)16.26] + 16.26
3

Anlisis de varianza para muestras independientes

30

Para interpretar 2 hay que tener en cuenta que31:


1. Se trata siempre de categoras fijas (posiblemente el caso ms comn),
2. Un coeficiente 2 negativo se considera igual a cero;
3. El coeficiente 2 slo debe calcularse si F es significativo;
4. El coeficiente 2 slo puede aplicarse a las categoras de clasificacin utilizadas;
puede variar si se quitan o aumentan categoras. No sucede lo mismo con la
interpretacin del valor de F, que, si es significativo y las muestras son aleatorias,
puede extrapolarse a la poblacin.
5. El coeficiente 2 se puede extrapolar a la poblacin, al menos como estimacin; en
cambio el coeficiente 2 que veremos a continuacin se refiere solamente a las
muestras analizadas.

4.2.1.2. El coeficiente 2
Otro coeficiente, muy sencillo y muy utilizado y que da una aproximacin menos exacta
de la proporcin de la variable dependiente atribuible a los criterios de clasificacin es el
coeficiente eta al cuadrado:
SC entre
=
SCtotal
2

[24]

SCentre es la Suma de Cuadrados entre grupos en este caso,


pero en otros modelos de anlisis de varianza puede ser
cualquier criterio de clasificacin (puede haber ms de un
criterio de clasificacin, como vemos en los cuadros de doble
entrada propios de los diseos factoriales)

La misma frmula ya nos est indicando que se trata de una proporcin: la proporcin de
varianza de la variable dependiente explicada por la variable cuya suma de cuadrados est en el
numerador32. En este planteamiento, varias muestras independientes, lo que tenemos en el
numerador son las diferencias asociadas a pertenecer a uno u otro grupo. No se puede
extrapolar a la poblacin, se refiere solamente la muestra. Suele dar valores mayores que el
coeficiente 2

En nuestro ejemplo (tabla 2) tenemos que 2 =

164.87
= .36
457.79

Si solamente conocemos del valor de F (podemos encontrarlo publicado) disponemos


de esta otra frmula (parecida a la [21]):
2 =

(F)(grados de libertad entre)


(F)(grados de libertad entre) + grados de libertad dentro

Aplicando esta frmula a los datos de la tabla 2 tenemos: 2 =

[25]
(5.069)(2)
= .36
(5.069)(2) +18

No sobra observar el parecido de la frmula [25] con la que utilizamos para transformar
el valor de t en un coeficiente de correlacin [26]:

31 Guilford y Fruchter (1973:260); Kirk (1995:180)


32 Normalmente utilizamos 2 que es anlogo a r2 (que expresa la proporcin de varianza comn a dos variables);
(sin elevar al cuadrado) (tambin denominado correlation ratio en ingls) viene a ser un coeficiente de correlacin no lineal
(el coeficiente r de Pearson cuantifica relaciones lineares, no curvilneas). Si se calcula (grado de relacin) solamente con
dos variables continuas y relacionadas linealmente (a ms de una, ms de la otra), equivale a r (explicacin ms detallada
en Nunnally y Bernstein, 1994:135 y Rosenthal y Rosnow, 1991:323, 351).

Anlisis de varianza para muestras independientes

31

rbp =

t2
t 2 + ( N1 + N2 - 2)

[26]

Realmente se trata de la misma frmula si la elevamos al cuadrado (r2 expresa la


proporcin de varianza compartida): en el caso de dos grupos t2 = F y r = ; los grados de
libertad entre los grupos son 2-1 = 1 y los grados de libertad al comparar dos grupos son
N1+N2-2
2 se puede utilizar con muestras de idntico o distinto tamao; es un estadstico
meramente descriptivo, referido a la muestra, y su clculo suele ser habitualmente suficiente;
para extrapolar esta misma informacin a la poblacin podemos calcular el coeficiente 2
El coeficiente 2 si lo referimos a la poblacin nos da una estimacin demasiado alta;
una estimacin ms ajustada del valor de 2 en la poblacin la tenemos con este ajuste33:
N 1
2 = 1
(1 2 )
[27]
Nk
2 = 1 21 1 (1 .36) = .289
Aplicado a nuestros datos (tabla 1) tenemos que:
21 3

Este tipo estimaciones de la proporcin de varianza de la variable dependiente


explicada por la variable independiente pueden expresarse de varias maneras y conviene
conocer las ms usuales para evitar confusiones, ya que se trata de lo mismo, as la frmula
[27] es equivalente a esta otra34 [28]:
2 = CM total - CMdentro
[28]
CMtotal
Tomamos los datos de la tabla 2. Para obtener los cuadrados medios (o varianza) del
total nos basta dividir la suma de cuadrados por los grados de libertad: 457.79/20 =22.8895
22.8895 -16.26
2 =
= .289
Aplicando la frmula [28] tenemos
22.8895
4.2.1.3. Valoracin de estos coeficientes

1) Estos coeficientes (que tambin se aplican a otros modelos de anlisis de varianza)


son importantes como anlisis complementarios, porque nos ayudan a juzgar sobre la
relevancia de los resultados y su importancia relativa cuando tenemos varios coeficientes.
2) Se trata de coeficientes no direccionales; es decir, aunque nos facilitan el valorar la
importancia de las diferencias entre las medias de la variable independiente, ya hemos
indicado que no nos dicen en qu direccin est la diferencia. Estos coeficientes tambin se
denominan tamao del efecto (es un trmino de hecho muy genrico) porque expresan
magnitud y no probabilidad (t o F nos remiten a una probabilidad).
3) Para los mismos datos los dos coeficientes, 2 y 2, dan valores diferentes, por lo que
no deben compararse entre s (2 suele ser mayor que 2).
4) Cundo se puede decir que estas proporciones de varianza explicada son grandes?

33 Hedges y Olkin (1985:102); Kirk (1995:180)


34 Estas y otras frmulas pueden verse comentadas en Hedges y Olkin (1985:100ss.)

Anlisis de varianza para muestras independientes

32

No hay criterios definidos pero a la vista de lo que suele encontrase en la literatura


experimental, si la variable independiente explica menos de un 5% de la variable dependiente
se trata de una relacin muy baja aunque sea real (no casual), y un 10% de la varianza
explicada puede considerarse mayor de lo que es normal encontrar (valoracin de Linton,
Gallo y Logan, 1975; para Runyon y Haber, 1984, es difcil encontrar valores que lleguen al
35%).
Una valoracin orientadora35 referida a 2 es sta:
.01 expresa una asociacin baja,
.06 expresa una asociacin media
.14 o ms expresa una asociacin grande o apreciable.
5) En la prctica siempre es ilustrativo e informativo comparar unos valores con otros
cuando proceden de planteamientos semejantes, e interpretar esos valores en trminos
relativos.
Estos coeficientes se utilizan con categoras fijas (escogidas por el investigador); si se
trata de categoras aleatorias (escogidas aleatoriamente de una poblacin mayor, como sera
el caso de una muestra de centros escolares, de profesores, etc., escogidos aleatoriamente para
representar una poblacin), se utilizan los coeficientes de correlacin intraclase que pueden
verse tratados en diversos autores36.
4.2.2. El tamao del efecto

Los coeficientes de asociacin que hemos visto tambin son denominados tamao del
efecto, pero este trmino puede ser aqu equvoco en el sentido de que no cuantifican la
diferencia entre dos medias; ahora nos referimos al tamao del efecto en cuanto diferencia
tipificada, propia del contraste de dos medias entre s.
En el anlisis de varianza vemos dos tipos de tamao del efecto: uno es semejante al
habitual en el contraste de medias y nos cuantifica la diferencia entre dos medias; el otro nos
da una apreciacin global (como el coeficiente ) y en su uso e interpretacin es anlogo a
los coeficientes de asociacin.
4.2.2.1. El tamao del efecto en la diferencia entre dos medias

No es tan frecuente ver calculado el habitual tamao del efecto como complemento a
los contrastes posteriores, pero podemos hacerlo como en cualquier contraste de medias. Ya
sabemos que el tamao del efecto es una diferencia estandarizada: la diferencia entre dos
medias dividida por la desviacin tpica comn a ambas muestras. Nos expresa la diferencia
entre dos medias en unas magnitudes fcilmente interpretables y comparables con cualquier
otro tamao del efecto aunque las escalas de medicin sean muy distintas. Por otra parte
disponemos de los criterios de Cohen (1988), muy seguidos habitualmente, para valorar estas
magnitudes (en torno a .20 diferencia pequea, en torno a .50 diferencia moderada y .80 o
ms diferencia grande).
En el caso del anlisis de varianza la desviacin tpica que ponemos en el denominador
puede ser la desviacin tpica combinada de las dos muestras que comparamos, pero tambin
podemos utilizar (y es ms sencillo) la desviacin tpica combinada de todas las muestras de
35 Estas valoraciones las propone Cohen (1988:284-288) y son habitualmente tenidas en cuenta (un ejemplo
indicativo es el conocido texto de Kirk, 1995:178); tambin se aplican a coeficientes anlogos como 2
36 Por ejemplo en Hedges y Olkin (1985:101ss), Kirk (1995) y otros.

Anlisis de varianza para muestras independientes

33

nuestro planteamiento sobre todo si desconocemos las desviaciones tpicas de las muestras o
si las desviaciones tpicas de todas las muestras no difieren mucho entre s37. Esta desviacin
tpica, como ya sabemos, no es otra cosa que la raz cuadrada de los cuadrados medios
dentro de los grupos (porque estos cuadrados medios son la varianza comn, no la desviacin
tpica comn).
La frmula del tamao del efecto (que simbolizamos como d) es por lo tanto38:
| Mi Mk |
[29]
d=
CMdentro
Podemos calcular el tamao del efecto de los grupos correspondiente a la diferencia
entre los grupos 2 y 3 (tabla 1); el denominador (cuadrados medios dentro de los grupos) lo
tomamos de la tabla 2.
| 15.428 8.571 | 6.857
d=
=
= 1.70 ; podemos valorar esta diferencia como grande.
16.26
4.03
Si utilizamos en el denominador la desviacin tpica combinada de estos dos grupos
nada ms (algo que tambin podemos hacer), el tamao del efecto que obtenemos es de 1.88,
ligeramente mayor.
Cuando la informacin disponible es slo la razn F y el tamao de los grupos,
Thalheimer y Cook (2002) proponen esta frmula para calcular una estimacin del tamao del
efecto.
n + n 2 n1 + n 2
d = F 1

(n 1 )(n 2 ) (n 1 + n 2 2)

[30]

4.2.2.2. El tamao del efecto como apreciacin global de la magnitud de las diferencias
entre todas las medias

Cuando tenemos solamente dos grupos, el tamao del efecto es igual a la diferencia
entre las dos medias dividida por la desviacin tpica combinada. Cuando hay ms dos grupos
simultneamente, como sucede en el anlisis de varianza, disponemos de un tamao del
efecto que no se refiere a la diferencia entre dos medias, sino a todas las diferencias de las
medias con respecto a la media total. Lo que en este caso tenemos en el numerador es una
cuantificacin de la dispersin o de las desviaciones de todas las medias con respecto a la
media comn; comparamos estas diferencias entre todos los grupos con las diferencias entre
los sujetos39.
Expresado este concepto del tamao del efecto en trminos no convencionales, la
frmula sera sta [31]:
tamao del efecto =

variabilidad de las medias


variabilidad de los sujetos

[31]

37 Cortina y Mauri (1999:11ss)


38 Jaccard (1998:36); Cortina y Nouri (2000:13); en estos dos ltimos autores puede verse un tratamiento ms
extenso y especfico del tamao del efecto en el contexto del anlisis de varianza.
39 Explicado en Cohen (1988:274ss., 284). El numerador es anlogo a la desviacin tpica de las medias; el
denominador es el mismo visto en el apartado anterior (la raz cuadrada de los Cuadrados Medios dentro de los grupos). El
modo exacto de clculo puede verse en Kirk (1995, 180ss) con un ejemplo resuelto; en la prctica es ms sencillo atenerse al
coeficiente 2

Anlisis de varianza para muestras independientes

34

En la prctica el clculo ms sencillo es a partir de 2 o 2, pues ambos valores estn


relacionados de esta manera (Cohen ,1988:284).
f=

2
1 2

[32]

Este tamao del efecto asociado a la razn F se simboliza como f (Rosenthal y Rosnow
(1991:450; que en esta frmula proponen 2 en vez de 2). Naturalmente este tamao del
efecto no nos dice a quin favorece la diferencia, y no se puede utilizar para calcular el
tamao del efecto medio tal como se hace en el meta-anlisis.
Los valores de referencia para valorar la magnitud de este tamao del efecto
corresponden a los ya vistos de 2:
tamao del efecto
2
f

pequeo
.01
.10

moderado
.06
.25

grande
.14
.40

En el caso de dos grupos nada ms, y utilizando 2 en vez de 2, f se relaciona con el


tamao del efecto (d de Cohen) de esta manera: f = d/2 (Rosenthal y Rosnow, 1991:450).
Es ms frecuente calcular 2 o 2 que f; de comprensin ms sencilla es 2 (una simple
proporcin) aunque es til conocer tambin este tamao del efecto (f) pues tambin se utiliza
y adems podemos encontrarlo en diversas tablas como referencia para calcular el nmero de
sujetos necesario para un determinado experimento o estudio (la magnitud deseada es una
variable que entra en la determinacin del tamao de la muestra).
5. Anlisis de varianza cuando solamente conocemos los valores de las medias y de las
desviaciones tpicas

Hacemos un primer lugar una observacin de inters y que justifica este apartado. Los
procedimientos que suelen exponerse para resolver el anlisis de varianza parten del supuesto
de que conocemos todos los datos de todos los sujetos. Lo mismo sucede con los programas
de ordenador (o de una hoja de clculo como EXCEL); hay que introducir todos los datos
individuales. Sin embargo ste no es siempre el caso: de varias muestras podemos conocer
solamente (o simplemente tener a mano) los valores del nmero de sujetos, la media y la
desviacin tpica. O podemos encontrar estos datos publicados en algn lugar.
En estos casos, sin ms datos de cada muestra (solamente n, M, ), podemos resolver el
anlisis de varianza, y adems de una manera muy simple; de hecho ya lo hemos visto en los
apartados anteriores aunque en todos los ejemplos disponamos de todos los datos
individuales.
Cuando no tenemos los datos de todos los sujetos, lo nico que hay que tener previsto
es cmo combinar medias y desviaciones tpicas, y es lo que vamos a exponer aqu (las
frmulas estn recogidas y demostradas en el anexo III).
Vamos a verlo con dos ejemplos; en uno tenemos en cada grupo un nmero distinto de
sujetos y en otro tenemos muestras de idntico tamao.
5.1. Cuando el nmero de sujetos es distinto en cada grupo

Datos en un tem de un cuestionario de evaluacin de una universidad por los alumnos


(valoracin global de los profesores, en una escala de 1 a 5) en tres tipos de carreras de la
misma universidad (tabla 5).

Anlisis de varianza para muestras independientes

35

n
Media
Desviacin tpica

A
1112
3.48
1.09

B
1214
3.97
1.06

C
400
4.34
1.10

Tabla 5
Lo primero que hacemos es calcular la media total (media ponderada por el nmero de
sujetos en cada grupo):
Mt =

nM (1112x3.48) + (1214x3.97) + (400x4.34) 104225.34


=
=
= 3.8244
n
1112 + 1214 + 400
2726

Suma de Cuadrados entre los grupos = n(M - Mt)2


= [1112 (3.48 - 3.824)2] + [1214(3.97 - 3.824)2] + [400 (4.34 - 3.824)2] =

264.8525

Suma de Cuadrados dentro de los grupos =


n2 = (1112 x 1.092) + (1214 x 1.062) + (400 x 1.102) =

3169.2176

Los resultados los tenemos en la tabla 6:


Cuadrados Medios

Origen de la variacin

Suma de
Cuadrados (SC)

Grados de libertad
(gl)

Entre grupos

264.8525

3 -1 = 2

132.426

Dentro de los grupos

3169.2176

2726 - 3 = 2723

1.1638

CM =

SC
gl

F=

CM entre
CM dentro

113.78
(p < .01)

Tabla 6
Podemos afirmar con mucha seguridad que los grupos pertenecen a poblaciones
distintas por lo que respecta a cmo juzgan la calidad global del profesorado; el criterio de
clasificacin (variable independiente, facultades) tiene que ver con la variable dependiente,
aunque est relacin no es grande (2 = .08). Los contrastes posteriores adecuados seran los
de Scheff (muestras de tamao muy desigual).
Lo que no hemos hecho es calcular la suma de cuadrados del total; nos puede interesar
para calcular 2, o para comprobar que las sumas de cuadrados estn bien hechas, o para
presentar completa la tabla de resultados. Podemos hacerlo sin dificultad, pero antes
necesitamos la varianza de los totales (de las tres muestras juntas).
Para combinar varianzas utilizamos esta frmula40: 2t =
2

A + B +C =

n(M 2 + 2 )
- M 2t
n

1112(3.482 +1.09 2 )+ 1214(3.972 + 1.062 ) + 400(4.34 2 + 1.102 )


2726

[33]

-242= 1.2594

Esta varianza de los totales multiplicada por el nmero total de sujetos nos da la suma
de cuadrados del total = (1.2594)(2726) = 3433.12.

40 Esta y otras frmulas para combinar medias y varianzas estn explicadas en el Anexo III.

Anlisis de varianza para muestras independientes

36

Si sumamos las dos sumas de cuadrados entre y dentro tenemos 264.8525 + 3169.2176
= 3434. Las dos sumas de cuadrados del total no son exactamente idnticas (calculadas por
caminos distintos con distinto redondeo de decimales) por el diferente redondeo de decimales
en cada paso, pero la diferencia es negligible.
5.2. Cuando el nmero de sujetos es el mismo en cada grupo

El procedimiento es similar, aunque algo ms sencillo. Vamos a utilizar los datos del
primer ejemplo (tabla 1, reproducidos en la tabla 7).
A

Media

11.714

15.428

8.571

Desv. tpica

3.917

2.921

4.237

Tabla 7
Como clculo auxiliar previo nos interesa la varianza de las medias, 2 = 7.854
Esta varianza, multiplicada por el nmero total de sujetos (N = 21) nos va dar la suma de
cuadrados entre los grupos, y la suma de las tres varianzas de los grupos multiplicada por el
nmero de sujetos que hay en cada grupo (n = 7) nos va dar la suma de cuadrados dentro de
los grupos.

Podemos calcular la razn F directamente:


N 2
(21)(7.854)
164.934
82.467
grados de libertad entre
2
2
=
=
= 5.069
F = suma de cuadrados dentro = k 12 =
(7)(41.8273)
292.79 16.266
n
grados de libertad dentro
21 3
18
Nk
suma de cuadrados entre

Tenemos el mismo resultado que hemos obtenido en tabla 2.


Como antes, no nos ha hecho falta calcular la suma de cuadrados de los totales. Nos
puede interesar calcularla para comprobar que las sumas de cuadrados entre y dentro cuadran
o para presentar completa la tabla de resultados.
Si vamos a calcular la suma de cuadrados total, nos va a hacer falta de nuevo la
varianza de los totales, que multiplicada por N nos va a dar la suma de cuadrados total. Como
se trata de muestras de idntico tamao, la frmula [33] queda simplificada as:
2t =

2 + 2
- M2t
k

[34]

La media total (Mt) , cuando las muestras son de idntico tamao, es igual a la media de
las medias = 11.90
En nuestro caso:

2
A + B+C

11.714 2 + 15.4282 + 8.5712 + 3.9172 + 2.9212 + 4.23782


- 11.902 = 21.902
=
3

La suma de cuadrados de los totales ser = (21 = N)(21.902) = 459.95 que es casi (por
no utilizar en todos los casos los mismos decimales) igual a las sumas de cuadrados obtenidas
antes (164.934 + 292.79 = 458, tabla 2).

Anlisis de varianza para muestras independientes

37

Queda claro que a partir del nmero de sujetos, la media y la desviacin tpica de cada
muestra (datos que con frecuencia estn disponibles, porque los hemos calculado
previamente, estn publicados, etc.) es rpido y sencillo hacer todos los clculos del anlisis
de varianza, sin necesidad de partir de todas las puntuaciones individuales (ni de utilizar un
programa de ordenador).
Tambin con slo estos datos, N, M y , disponemos de programas de Internet que nos
resuelven el anlisis de varianza (direcciones en el ltimo apartado); en estos programas de
Internet la desviacin tpica que hay que introducir es la de la poblacin (n-1, dividiendo por
N-1).
6. Anlisis de varianza para dos muestras independientes

Normalmente cuando tenemos dos muestras independientes utilizamos el contraste de


medias (t de Student), pero podemos utilizar igualmente el anlisis de varianza con idnticos
resultados. En el caso de dos muestras independientes tenemos que t = F ; con ambos
procedimientos llegamos a los mismos resultados y a las mismas conclusiones41.
6.1. Utilizando las desviaciones de las muestras

Desarrollamos el procedimiento con un ejemplo (tabla 9).


Las operaciones son las mismas ya vistas a propsito de ms de dos grupos (resultados
en la tabla 8). Las operaciones para grupos de distinto tamao son tambin vlidas cuando son
del mismo tamao.
Grupo A
22
18
24
22
16
18
13
18
19
22
10
n1 =
M1 = 19.2
1 =
3.156

Grupo B
12
16
10
10
4
6
17
14
14
10
10
n2 =
M2 = 11.3
2=
3.95

Clculos previos

1 Calculamos la media y desviacin tpica (de la


muestra; dividiendo por N) de cada uno de los
dos grupos;
2 Calculamos la desviacin tpica de los totales,
de n1+ n2 = N = 20;
total= 5. 328
3 Calculamos la desviacin tpica de las dos
medias (como si se tratara de un grupo de
dos sujetos), M = 3.95

Tabla 8
Sumas de Cuadrados (numerador de las varianzas):

1. Del total:

N t = (20)(5.328)2 =

567.75

2. Dentro de los grupos (SCdentro)


de idntico tamao:
de distinto tamao:

n( 21 + 22 ) = (10)(3.1562 + 3.952) =
n 112 + n 2 22 = (10 x 3.1562 )+ (10 x 3.952) =

255.63
255.63

41 Cabe preguntarse si cuando se ensea y aprende el contraste de medias (t de Student) no sera preferible comenzar
con el anlisis de varianza, que se podra despus aplicar con menor dificultad de comprensin a otras situaciones. De hecho
la explicacin dada en la introduccin al anlisis de varianza est referida al caso de dos muestras por ser ms fcil de
captar. Una limitacin de utilizar el anlisis de varianza con slo dos muestras puede estar en que los valores de F se refieren
solamente a pruebas bilaterales (Guguen. 1997), pero tambin es verdad que son las pruebas que habitualmente utilizamos.

Anlisis de varianza para muestras independientes

38

3. Entre los grupos (SCentre):


de idntico tamao:
de distinto tamao:

N 2M = (20)(3.95)2 =
n1(M1 - Mt )2 + n2 (M2 - Mt)2
= [10(19.2-15.25)2] + [10(11.3-15.25)2] =

312.05
312.05

Los grados de libertad (denominador de las varianzas)son:


20-1= 19
del total = N-1 (N = n1 + n2):
dentro de los grupos = N - nmero de grupos: 20-2= 18
entre los grupos = nmero de grupos - 1:
2-1= 1
Origen de la
variacin

Suma de
Cuadrados
(SC)

Grados de
libertad
(gl)

Cuadrados
Medios
SC
varianza =
gl

Entre de los grupos

312.05

312.05

Dentro de los grupos


Variabilidad total

255.63
567.75

18
19
Tabla 9

F=

CM entre
CM dentro

21.97
(p < .01)

14.20

Con slo dos grupos de idntico tamao los Cuadrados Medios entre los grupos se
pueden calcular directamente de manera ms sencilla (coinciden con la Suma de Cuadrados,
numerador de la varianza, porque los grados de libertad, el denominador, es igual a 1):
CM entre =

n(M1 M2 ) 2
2

[33]

Si calculamos la t de Student: t =

=
19.2- 11.3

3.156 2 3.952
+
9
9

10(19.2 11.3) 2
= 312.05
2

= 4.687

y 4.6872 = 21.967 pues t2 = F (cuando slo tenemos dos muestras).


6.2. Utilizando las desviaciones de las poblaciones
2
Si calculamos las varianzas de las poblaciones ( n1
) en vez de las varianzas de las
2
muestras ( n )podemos calcular directamente y con toda facilidad los cuadrados medios
(varianzas entre y dentro de los grupos) y la razn F, tal como hemos visto antes y tenemos
resumido en la frmula [6] y que repetimos aqu:

F=

(n)(varianza de las medias n -1 )


2

[6]

media de las varianzas de los grupos (= n 1 / k )

1. Cuadrados medios dentro de los grupos


Necesitamos las varianzas de los grupos dividiendo por N-1; podemos calcularlas
directamente si se trata de pocos sujetos, pero si ya disponemos de las varianzas dividiendo
por N y se trata de muchos sujetos y habra que introducir los datos en una hoja de clculo o
son datos que encontramos publicados o que tenemos guardados de otras ocasiones, podemos
utilizar la frmula [2], que a modo de ejemplo vamos a aplicar aqu:
Anlisis de varianza para muestras independientes

39

Grupo A: n = 3.156

2
n-1

2
n-1

n 2n
=
n 1

[2]

(10)(3.1562 )
=
= 11.067
10 1

(10)(3.952 )
=
= 17.336
10 1
11.067 + 17.336
= 14.20
2
2
n-1

Grupo B: n = 3.95
CMdentro = 2n 1 / k =

2. Cuadrados medios entre los grupos


Para calcular los cuadrados medios entre grupos necesitamos la varianza ( 2n-1 ) de las
dos medias:
2n-1 de M1 (19.2) y M2 (11.3) = 5.5862 = 31.205
Cuadrados medios entre los grupos = n x 2n-1 =(10)(31.205) = 312.05

3. Y finalmente

F=

n x 2n-1 (de las medias)

2
n-1 (de

los grupos)/nmero de grupos

312.05
= 21.97
14.20

Hemos llegado a los mismos resultados que tenemos en la tabla 9.


Aunque en este caso se trataba de solamente de dos grupos, el procedimiento es
igualmente vlido para cualquier nmero de grupos de idntico tamao.
7. Cmo presentar los resultados del anlisis de varianza

Es importante presentar los resultados con claridad. Las tablas de resultados


convencionales que se hacen en cada anlisis de varianza son claras para presentar cada
anlisis de varianza, sobre todo si se trata de un solo anlisis o de unos pocos, pero cuando se
comparan varias muestras en una serie de variables, hay que buscar un mtodo de
presentacin de conjunto que de manera casi intuitiva facilite la comprensin e interpretacin
de los resultados tanto del anlisis de varianza como de los contrastes posteriores.
En el ejemplo puesto como ilustracin (tabla 10)42 se han comparado entre s cinco
muestras en nueve variables (hay por lo tanto nueve anlisis de varianza).
En la primera columna aparecen el nombre de las variables y los valores de F, p y 2 de
cada anlisis. Aunque estos datos se pueden presentar de diversas maneras, lo que no debe
faltar, siguiendo las recomendaciones de la APA (2001), es algn indicador del tamao del
efecto o algn coeficiente de asociacin (como 2 en el ejemplo de la tabla 11) (APA, 2001).
En la segunda columna estn los grupos (dos muestras normativas) cuyas medias son
significativamente mayores que las medias de las muestras puestas en la misma fila. Aparecen
tambin los valores del contraste de Scheff y la probabilidad asociada a estos valores.
Los datos descriptivos de las muestras (nmero de sujetos, media y desviacin) pueden
figurar en otra tabla distinta.

42 Tomado de Gismero, Elena (1995). La conducta asertiva y su relacin con la anorexia nerviosa. Madrid:
Universidad Pontificia Comillas. En esta presentacin hubiera sido til incluir el tamao del efecto.

Anlisis de varianza para muestras independientes

40

De manera intuitiva se ve qu muestras tienen en general medias mayores (segunda


columna) y qu muestras tienden a tener medias ms bajas.
VARIABLE

muestras con
medias ms altas

EXPRESIN DE
DESACUERDO

CONTROL

F = 5.29,2 = .114
p < .001

DIETA

AUTOAFIRMACIN
ANTE EXTRAOS

DIETA

F = 3.18, 2 = .07
p < .05
AUTOEXPRESIN
SOCIAL 2 = .12
F = 5.632
p < .001
ASERTIVIDAD

ANOREXIA

TERAPIA

3.407, p < .03

3.471, p < .02


TERAPIA

2.885 p < .08


ANOREXIA

3.05, p < .06

CONTROL

ANOREXIA

DIETA

3.984, p < .01


ANOREXIA
3.474, p < .02

CONTROL

ANOREXIA

DIETA

4.1657, p < .001


ANOREXIA
3.658, p < .05

CONTROL

ANOREXIA

GENERAL

F = 6.34, 2 = .13
p < 0001
SATISFACCIN
PROPIO CUERPO
F = 7.07, 2 = .15
p < 0001

muestras con medias ms bajas

DIETA
TERAPIA

4.786, p < .001


ANOREXIA
3.474, p < .05
ANOREXIA
3.483, p < .02

AUTOCONCEPTO
F = 23.22, 2 = .36
p < 0001

CONTROL

ANOREXIA

BULIMIA

2.826, p < .10

3.931, p < .01

DIETA

4.818, p < .0001


ANOREXIA
8.149, p < .0001

BULIMIA

TERAPIA

3.579, p < .02

4.70, p < .001

COMPRENSIN
PARENTAL
F = 23.22, 2 = .21
p < 0001
ACEPTACIN

CONTROL

ANOREXIA

BULIMIA

TERAPIA

3.393, p < .03


ANOREXIA
3.313, p < .04

3.547, p < .01

5.24, p < .0001

DIETA

BULIMIA

TERAPIA

3.587, p < .01

5.69, p < .0001

TERAPIA

CONTROL

ANOREXIA

DIETA

5.101, p < .0001


ANOREXIA
4.389, p < .01

CONTROL

ANOREXIA

BULIMIA

3.306, p < .04

4.54, p < .001

DIETA

8.03, p < .0001


ANOREXIA
8.04, p < .0001

BULIMIA

TERAPIA

3.83, p < .01

5.02, p < .0001

SOCIAL

F = 7.71, 2 = .16
p < 0001
AUTOCONCEPTO
F = 24.44, 2 = .37
p < 0001

TERAPIA

Tabla 10
En este ejemplo (con variables en el mbito de la asertividad y del autoconcepto) se
puede observar, casi de un golpe de vista, que dos grupos, el de control (N = 57) y dieta (N =
33) no difieren entre s y a la vez ambas muestras superan en casi todas las variables al grupo
anorexia (N = 45) y en menos variables (posiblemente debido al menor nmero de sujetos en

Anlisis de varianza para muestras independientes

41

estas muestras) a las muestras bulimia (N = 12) y terapia (N = 33); la muestra anorexia es la
que aparece en peores condiciones en estas variables43.
Debajo del nombre de cada grupo est puesto el valor de Scheff y su probabilidad;
hubiera quedado ms completa la informacin aadiendo el tamao del efecto
correspondiente a cada contraste.
Otra manera de presentar los resultados es la que figura en la tabla 12. Adems de
presentar la tabla habitual de resultados y otra informacin relevante (puede ser suficiente una
informacin semejante a la puesta en la primera columna de la tabla 11), si se quiere poner el
nfasis en la magnitud de las diferencias entre los grupos, se puede hacer una tabla en la que
figuren las diferencias estadsticamente significativas (la probabilidad p corresponde en este
caso a los contrastes de Scheff) y los tamaos del efecto al comparar las medias de dos en
dos. Un ejemplo puede ser el de la tabla 11, comparando alumnos de diversas facultades en la
importancia que se da a tener puestos de autoridad en distintas profesiones.44
PiscoMedias ms
pedagoga
altas
Derecho y p = .001
Econmicas d = .56
Ingeniera

Medias ms bajas
Enfermera Derecho y Ingeniera
Econmicas
p = .000
----d = .65
p = .16
----d = .45
Tabla 11

Trabajo
Social
p = .000
d = .67
p = .096
d = .47

Filosofa
Teologa
p = .04
d = .50

M edias

Esta informacin puede ir acompaada de algn grfico como el de la figura 1 en el que


se aprecian con facilidad las diferencias entre las medias.
11
10,5
10
9,5
9
8,5
8
7,5
7
Psicopedag.

Enfermera

Derch.
IngenieProfesiones
Econm
ra

Trabajo
Social

Filosof.
Teologa

Figura 1
Otra manera de presentar un resumen de los resultados es sta:
1 Se ordenan las medias de ms a menos
2 Se unen con la misma lnea continua las medias que no difieren entre s

43 En un trabajo acadmico (como una tesis doctoral) las tablas completas de los resultados de cada anlisis de
varianza pueden ir en un anexo; lo que se presenta en esta tabla es un resumen significativo con la informacin que se va a
interpretar o comentar..
44 Datos tomados de la tesis doctoral de Rufino Meana La experiencia subjetiva de sentido y su relacin con
variables psicolgicas y sociodemogrficas, Universidad Pontifica Comillas (2003).

Anlisis de varianza para muestras independientes

42

Por ejemplo (ejemplo ficticio):


Medias de cuatro grupos ordenadas de ms a menos:
IV

III

II

-No difieren entre s el I y el III, el III y el II y el II y el IV (unidos por lnea continua)


-El I supera al II y al IV y el III solamente al IV (no unidos por lnea continua).
Tambin caben cuadros y resmenes en los que se pueden incluir comentarios
cualitativos como complemento a los datos cuantitativos.
8. El anlisis de varianza en programas informticos y en Internet
8.1. Anlisis de varianza para muestras independientes en EXCEL y en el SPSS

Para utilizar estos recursos hay ya manuales especficos, aqu nos limitamos a dar
algunas indicaciones. Para utilizar EXCEL o el SPSS (y en general cualquier paquete
informtico con programas estadsticos) necesitamos introducir en primer lugar todos los
datos de todos los sujetos; no podemos operar a partir solamente del nmero de sujetos, media
y desviacin tpica de cada grupo. En este apartado nos referimos exclusivamente al anlisis
de varianza para varias muestras independientes.
EXCEL. El anlisis de varianza para muestras independientes se denomina en EXCEL
anlisis de varianza de un factor. Adems de los datos descriptivos de cada grupo nos da la
tabla final de resultados, pero no los contrastes posteriores.
SPSS. En analizar (barra superior) tenemos la opcin comparar medias y all ANOVA
de un factor. De los contrastes posteriores comentados (post hoc en el cuadro de dilogo)
tenemos, entre otras opciones, los contrastes de Scheffe, Tuckey, Duncan (comentado en el
apartado dedicado al contraste de Newman-Keuls del que es una variante; los contrastes de
Duncan y Newman-Keuls para muestras de idntico tamao son algo ms liberales que el de
Tukey), Games-Howell (tamao distinto y varianza desiguales, puede ser una buena
alternativa a Scheff) y Dunnett.

Otros clculos complementarios, como el coeficiente 2 y tamao del efecto, se


completan fcilmente con una calculadora teniendo las frmulas a la vista.
8.2. Recursos en Internet relacionados con el Anlisis de Varianza

En Internet disponemos adems de numerosos recursos para llevar a cabo anlisis


estadsticos. Pueden ser especialmente tiles en varias situaciones:
a) Cuando no tenemos disponibles hojas de clculo como EXCEL, o programas
informticos como el SPSS.
b) Cuando de las distintas muestras tenemos disponibles el nmero de sujetos, las
medias y las desviaciones; slo con estos datos no podemos utilizar programas como el SPSS
que requieren la introduccin de todos los datos de todos los sujetos, pero s podemos llevar a
cabo un anlisis de varianza con toda facilidad.
Por lo que respecta al anlisis de varianza en Internet hacemos una seleccin de pginas
Web (hay muchas ms) tiles con distintas finalidades45.

45 Las direcciones de Internet son con frecuencia inestables pero disponiendo de informacin sobre ttulos y autores
no es difcil encontrar estas u otras con informacin semejante en los buscadores de Internet.

Anlisis de varianza para muestras independientes

43

8.2.1. Test de Bartlett para comprobar la homogeneidad de varianzas

Si queremos verificar si las varianzas no difieren significativamente podemos utilizar el


test de Bartlett, sencillo y programado en Internet, http://home.ubalt.edu/ntsbarsh/Businessstat/otherapplets/BartletTest.htm
Basta introducir de cada muestra el nmero de sujetos y las varianzas (no las
desviaciones tpicas) y si p > .05 podemos aceptar la homogeneidad de varianzas (esta
direccin, con otras muchas posibilidades de anlisis estadsticos, se encuentra en la Home
Page de Hossein Arsham http://home.ubalt.edu/ntsbarsh/Business-stat/home.html en
JavaScript E-labs Learning Objects)
8.2.2. Tablas de la F de Snedecor, Tukey, Dunnett y Bonferroni

Las tablas convencionales que suelen estar en libros de texto tambin estn disponibles
en Internet.
Tablas de la F de Snedecor

Las tablas de la F de Snedecor se encuentran en muchas direcciones de Internet, con


distintas presentaciones y para distintos niveles de confianza, por ejemplo:
ALEXEI, SHAROV. Department of Entomolgy, Virginia Tech, Blacksburg, VA On-Line
Lectures, http://www.ento.vt.edu/~sharov/PopEcol/tables/f005.html para = .05, .01 y .001
GERSTMAN, B. BURT (2003). StatPrimer, http://www.sjsu.edu/faculty/gerstman/StatPrimer/
en Probability Tables para = .10, .05, .025, .01 y .001
SIX SIGMA Reference Tables http://www.micquality.com/reference_tables/index.htm para
= .01, .025, .05, .10 y .25
STATSOFT, INC., Distribution tables, http://www.statsoft.com/textbook/sttable.html tablas
para = .10, .05, .025 y .01
Tablas de Tukey

http://www.stat.duke.edu/courses/Spring98/sta110c/qtable.html
BISSONNETTE, VICTOR L., Berry College
http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables,
http://fsweb.berry.edu/academic/education/vbissonnette/tables/posthoc.pdf
CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas)
Tablas de Dunnett

ARMSTRONG, J. SCOTt http://www.forecastingprinciples.com/tables.pdf Reprinted from


Armstrong, J. Scott, Long-Range Forecasting. New York, John Wiley 1985 (reproducidas de
la publicacin original de Dunnett (niveles de confianza .05 y .01 para pruebas de una y dos
colas)
LANE, DAVID M. HyperStat Online Statistics Textbook
(http://davidmlane.com/hyperstat/index.html)
http://davidmlane.com/hyperstat/table_Dunnett.html (en Introduction to Between-Subjects
ANOVA Comparing means with a control)
Table Critical values for the Dunnett test http://www.watpon.com/table/dunnetttest.pdf

Anlisis de varianza para muestras independientes

44

BISSONNETTE, VICTOR L., Berry College http://facultyweb.berry.edu/vbissonnette/ Some


Useful Statistical Tables,
Table Critical values for the Dunnett test http://www.watpon.com/table/dunnetttest.pdf
CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas)
Tablas de Bonferroni

BISSONNETTE, VICTOR L., Berry College


http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables,
Critical Values of Dunns (Bonferroni) test (experimentwise = .05)
8.2.3. Probabilidades exactas de la razn F en Internet

Las probabilidades exactas de la razn F (y otros estadsticos) pueden verse al menos en


estas direcciones:
a) THE CHINESE UNIVERSITY OF HONG KONG, DEPARTMENT OF OBSTETRICS AND
GYNAECOLOGY, http://department.obg.cuhk.edu.hk/researchsupport/statmenu.asp;
en Statistics Tool Box se busca Statistical Tests y all Statistical Significance, o
directamente http://department.obg.cuhk.edu.hk/researchsupport/F_Test.asp.
b) HYPERSTAT ONLINE TEXTBOOK (de David M. Lane)
http://davidmlane.com/hyperstat/ en Analysis Tools buscar Tables; (hay varios
programas; se puede ir directamente a http://davidmlane.com/hyperstat/F_table.html
o a http://members.aol.com/johnp71/pdfs.html
c) SISA, Simple Interactive Statistical Analysis (Daan Uitenbroek PhD, Research and
Statistical Consultancy, Hilversum, The Netherlands)
http://www.quantitativeskills.com/sisa/ (en significance testing).
d) GRAPH PAD SOFTWARE http://graphpad.com/quickcalcs/PValue1.cfm
8.2.4. Cmo llevar a cabo un Anlisis de Varianza en Internet

Aunque en las pginas seleccionadas nos fijamos en el anlisis de varianza para


muestras independientes, podemos encontrar tambin programas para hacer otros tipos de
anlisis de varianza.
Esta seleccin (es slo una seleccin pues hay muchos ms programas en Internet) la
dividimos en dos apartados: a) cuando tenemos disponibles medias y desviaciones de las
muestras y b) cuando vamos a introducir todos los datos de todos los sujetos.
8.2.4.1. A partir del nmero de sujetos, medias y desviaciones de las muestras

Estos programas son muy tiles porque con frecuencia no disponemos de los datos de
cada sujeto y los nicos datos disponibles de cada muestra (a veces en obtenidos en anlisis
previos) son el nmero de sujetos, la media y la desviacin tpica; con slo estos datos no
podemos acudir a EXCEL o al SPSS.
Seleccionamos tres programas muy sencillos (hay muchos ms); nos basta introducir el
nmero de sujetos, la media y la desviacin tpica de cada muestra.
a) PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations.
http://members.aol.com/johnp71/javastat.html (ste es el modo de citar esta fuente).
Analysis of Variance from Summary Data
http://members.aol.com/johnp71/anova1sm.html (en Web Pages that Perform
Statistical Calculations! http://members.aol.com/johnp71/javastat.html)
Anlisis de varianza para muestras independientes

45

La desviacin tpica que hay que introducir es la de la poblacin (dividiendo por N-1);
es lo normal en los programas de Internet. Si el nmero de sujetos es muy grande las dos
desviaciones apenas difieren (dividir por 200 o por 199 no altera gran cosa los resultados)
pero si se tiene calculada la desviacin tpica de la muestra (n) es muy sencillo calcular la de
la poblacin (n-1):
n-1 =

N n2
N 1

Este programa no calcula los contrastes posteriores.


b) DANIEL SOPER.com http://www.danielsoper.com/default.aspx en Statistics
calculators ANALYSIS OF VARIANCE One-Way ANOVA from Summary Data
Este programa no calcula los contrastes posteriores
c) DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF
HONG KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp La
referencia citada en esta fuente es: Armitage P. Statistical Methods in Medical
Research (1971). Blackwell Scientific Publications. Oxford. P.189-207
Este programa da adems simultneamente el contraste de Tukey y tambin estn
programados los contrastes posteriores de Scheff en
http://department.obg.cuhk.edu.hk/ResearchSupport/Least_sig_diff_Scheffe.asp (en el
men de la izquierda, en categories buscar group differences).
8.2.4.2. Introduciendo los datos de todos los sujetos

Cuando hay que introducir todos los datos de todos los sujetos, lo habitual es utilizar
EXCEL o el SPSS, pero tambin disponemos de programas en Internet.
Un programa sencillo lo tenemos en KIRKMAN, T.W , College of Saint Benedict/Saint
Johns University [http://www.csbsju.edu/] http://www.physics.csbsju.edu/stats/anova.html; el
ndice de anlisis estadsticos de este centro est en http://www.physics.csbsju.edu/stats/
Los datos se pueden introducir de dos maneras, copindolos de una tabla o
introducindolos directamente. Este programa no calcula los contrastes posteriores.
Otro programa para llevara cabo un anlisis de varianza introduciendo los datos de
todos los sujetos (se pueden copiar y pegar de una tabla WORD o de EXCEL) es LOWRY,
RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html (ANOVA en el
men de la izquierda); incluye los contrastes posteriores de Tukey.

Anlisis de varianza para muestras independientes

46

8.2.4.3. Contrastes posteriores

Los contrastes de Bonferroni estn programados en GraphPad, San Diego, CA


[http://graphpad.com/] Free Online Calculators for Scientists
http://graphpad.com/quickcalcs/posttest1.cfm (en how the calculations are performed se
especifica que se trata del test de Bonferroni) pero se trata de un contraste considerado
demasiado conservador (tiene poca potencia para rechazar la Hiptesis Nula cuando
realmente es falsa (Hancock y Klockars, 1996; Jaccard, 1998)46. No se trata propiamente de
contrastes posteriores, sino de las probabilidades equivalentes a .05 cuando hacemos
mltiples contrastes, y tampoco es un procedimiento pensado especficamente para el anlisis
de varianza.
En DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY
OF HONG KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp tenemos
programados los contrastes posteriores de Scheff, Tukey y los correspondientes a la prueba
de Kruskal-Wallis que es la alternativa no paramtrica (utilizando rangos) al anlisis de
varianza para muestras independientes.
9. Referencias bibliogrficas
AMERICAN PSYCHOLOGICAL ASSOCIATION. (2001). Publication Manual of the American
Psychological Association (5th edition). Washington, DC: Author.
ARSHAM, HOSSEIN, Homepage http://home.ubalt.edu/ntsbarsh/Business-stat/home.html (en
JavaScript E-labs Learning Objects)
BISSONNETTE, VICTOR L., Berry College (2000). Course Resources
http://fsweb.berry.edu/academic/education/vbissonnette/
BLACK, THOMAS R. (1999). Doing Quantitative Research in the Social Sciences. London:
Sage.
CHAVES, COSME Introduccin a la Estadstica http://costaricalinda.com/Estadistica/
COHEN, JACOB (1988). Statistical Power Analysis for the Behavioral Sciences. Second
Edition. Hillsdale, N.J.: Lawrence Elrbraum.
COOMBS, WILLIAM T.; ALGINA, JAMES and OLTMAN, DEBRA OLSON, (1996). Univariate and
Multivariate Omnibus Hypothesis Tests Selected to Control Type I Error Rates When
Population Variances Are Not Necessarily Equal. Review of Educational Research, 66
(2), 137-179.
CORTINA, JOSE M. and NOURI, HOSSSEIN (2000). Effect Size for ANOVA Designs.
Quantitative Applications in the Social Sciences. Thousand Oaks: Sage.
DALLAL, GERARD E. (2001) The Little Handbook of Statistical Practice (en Multiple
Comparisons) http://www.tufts.edu/~gdallal/LHSP.HTM (consultado 5 de Octubre,
2007).
DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG
KONG, http://department.obg.cuhk.edu.hk/index.asp?scr=1024
DOWNIE, N.M. Y HEATH, R.W., (1971). Mtodos estadsticos aplicados. Madrid: Ediciones
del Castillo
ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona:
Ceac.
GERSTMAN, B. BURT (2003). StatPrimer, http://www.sjsu.edu/faculty/gerstman/StatPrimer/
GISMERO, ELENA (1995). La conducta asertiva y su relacin con la anorexia nerviosa.
Madrid: Universidad Pontificia Comillas.
46 Pueden verse los comentarios hechos antes a propsito de estos contrastes y en el Anexo II.

Anlisis de varianza para muestras independientes

47

GORDON, LEONARD V. (1973). One-Way Analysis of Variance Using Means and Standard
Deviations. Educational and Psychological Measurement, 12 1973; vol. 33: pp. 815 816
GRAPH PAD SOFTWARE Online calculators for scientists
http://graphpad.com/quickcalcs/PValue1.cfm
GUGUEN, NICOLAS (1997). Manuel de Statistique pour Psychologues. Paris: Dunod.
GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,
Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
HANCOCK, GREGORY R. AND KLOCKARS, ALAN J., (1996). The Quest for : Developments
in Multiple Comparison Procedures in the Quarter Century Since Games (1971). Review
of Educational Research, 66, (3). 269 - 306.
HEDGES, LARRY V. and OLKIN, INGRAM, (1985). Statistical Methods for Meta-Analysis. New
York: Academic Press.
HINKLE, DENNIS E.; WIERSMA, WILLIAM and JURS, STEPHEN G. (1994). Applied Statistics
for the Behavioral Sciences. Boston: Houghton-Mifflin.
HUCK, SCHUYLER W. and MALGADY, ROBERT G., (1978). Two-Way Analysis of Variance
Using Means and Standard Deviations. Educational and Psychological Measurement, 38,
235-237.
HUCK, SCHUYLER W., CORMIER, WILLIAM H. AND BOUNDS, WILIAM G., (1974), Reading
Statistics and Research, New York, Harper & Row
JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KESELMAN, H. J.; HUBERTY, CARL J.; LIX, LISA M.; OLEJNIK, STEPHEN; CRIBBIE, ROBERT
A.; DONAHUE, BARBARA; KOWALCHUK, RHONDA K.; LOWMAN, LAUREEN L.;
PETOSKEY, MARTHA D. and KESELMAN, JOANNE, C. (1998). Statistical Preferences of
Educational Researchers: An Analysis of Their ANOVA, MANOVA and ANCOVA
Analyses. Review of Educational Research, 68 (3), 350-385.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
KIRKMAN, T.W. (1996) College of Saint Benedict/Saint Johns University. Statistists to Use.
http://www.physics.csbsju.edu/stats/
KLOCKARS, ALAN J. and HANCOCK, GREGORY R. (1998). A More Powerful Post Hoc
Multiple Comparison Procedure in Analysis of Variance. Journal of Educational and
Behavioral Statistics, Vol. 23 (3).
KLOCKARS, ALAN J. and SAX, GILBERT, (1986). Multiple Comparisons: Sage University
Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
LANE, DAVID M. HyperStat Online Statistics Textbook (Last updated:
3/16/2009)http://davidmlane.com/hyperstat/index.html (consultado 07, 010, 2007)
LINTON, MARIGOLD; GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975), The Practical
Statistician, Simplified Handbook of Statistics, Monterey, Brooks/Cole.
MARTNEZ GARZA, NGEL, (1988). Diseos Experimentales. Mxico: Trillas.
NUNNALLY, JUM C. and BERNSTEIN, IRA H. (1994). Psychometric Theory, 3rd. ed., New
York, McGraw-Hill.
PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical
Journal 1998;316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236
PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations.
http://members.aol.com/johnp71/javastat.html
Anlisis de varianza para muestras independientes

48

RODRIGUES, AROLDO, (1977). Investigacin experimental en psicologa y educacin.


Mxico: Trillas.
ROSENTHAL, ROBERT and ROSNOW, RALPH L. (1991). Essentials of Behavioral Research,
Methods and Data Analysis. Boston: McGraw-Hill.
RUNYON, RICHARD P. y HABER, AUDREY, (1984) Estadstica para las Ciencias Sociales,
Mxico, Fondo Educativo Interamericano.
SHAROV, ALEXEI (1996). Quantitative Population Ecology, On-Line Lectures,
http://home.comcast.net/~sharov/PopEcol/
SIX SIGMA Reference Tables http://www.micquality.com/reference_tables/index.htm
STATSOFT, Inc. (2007). Electronic Statistics Textbook. Tulsa, OK: StatSoft. WEB:
http://www.statsoft.com/textbook/stathome.html.
THALHEIMER, WILL & COOK, SAMANTHA. (2002). How to Calculate Effect Sizes From
Published Research Articles: A Simplified Methodology. A Work-Learning Research
Publication Available online:
http://www.learningaudit.com/white_papers/effect_sizes/Effect_Sizes_pdf4.pdf
(consultado 30 de Mayo, 2011).
TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper
Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
UITENBROEK, DAAN SISA, Simple Interactive Statistical Analysis.
http://www.quantitativeskills.com/sisa/
WILDT, ALBERT R. and AHTOLA, OLLI T., (1978). Analysis of Covariance, Sage University
Paper Series on Quantitative Applications in the Social Sciences. Beverly Hills: Sage.

Anlisis de varianza para muestras independientes

Anlisis de varianza
para varias muestras relacionadas
Universidad Pontificia Comillas
Facultad de Ciencias Humanas y Sociales
Pedro Morales Vallejo
(ltima revisin, 15 de Septiembre de 2011)

ndice

1. Introduccin.........................................................................................................

2. Anlisis de varianza.............................................................................................

3. Observaciones sobre los grados de libertad.........................................................

3.1. La condicin de esfericidad .......................................................................

3.2. Cmo proceder en la prctica .....................................................................

4. Contrastes posteriores..........................................................................................

5. Anlisis complementarios: los coeficientes de asociacin y de fiabilidad..........

5.1. Coeficientes de asociacin (2 y 2parcial) .....................................................

10

5.2. Coeficientes de fiabilidad .............................................................................

11

5.2.1. Fiabilidad de filas y columnas ............................................................

11

5.2.2. Relacin entre fiabilidad (consistencia interna) y anlisis de varianza


para muestras relacionadas.................................................................. 13
5.2.3. Cuando las dos razones F (de las filas y de las columnas)
son estadsticamente significativas .....................................................

16

5.2.4. Anlisis de varianza para muestras relacionadas


y el coeficiente de Cronbach............................................................

17

6. Un ejemplo de anlisis de varianza para muestras relacionadas .........................

19

6.1. Anlisis de varianza ......................................................................................

19

6.2. Coeficientes de fiabilidad y 2 .....................................................................

20

6.3. Contrastes posteriores y representacin grfica ...........................................

21

7. Anlisis de varianza para muestras relacionadas en EXCEL y en el SPSS ........

22

8. El anlisis de varianza para muestras relacionadas en Internet...........................

22

9. Referencias bibliogrficas ...................................................................................

22

1. Introduccin
En este modelo de anlisis de varianza1 tenemos los mismos sujetos con observaciones
o puntuaciones en la misma variable pero en condiciones distintas o en la misma condicin
pero en tiempos distintos2. Como se trata de los mismos sujetos tenemos muestras
relacionadas o emparejadas.
Tambin puede tratarse de sujetos fsicamente distintos pero igualados en variables
relevantes (variables que controlamos con esta igualacin); en este caso se trata tambin de
muestras relacionadas. En la presentacin de los datos las filas son los sujetos, y las columnas
son las condiciones.
Una ventaja de utilizar a los mismos sujetos en tratamientos experimentales es que
necesitaremos menos sujetos que si se trata de muestras independientes: si queremos
comprobar la eficacia relativa de tres actividades distintas de aprendizaje con sujetos
distintos, y estimamos en 10 el nmero mnimo de sujetos, necesitaremos 30 sujetos. Si
utilizamos a los mismos sujetos en las tres actividades, nos bastarn 10 sujetos, y adems no
tenemos que preocuparnos de que los tres grupos sean equivalentes pues se trata siempre de
los mismos sujetos3.
Se trata de comprobar en qu medida la variabilidad total se debe a diferencias entre los
sujetos (filas), a diferencias entre las condiciones (columnas) o a la interaccin entre filas y
columnas.
Podemos distinguir varios planteamientos sencillos que se pueden analizar mediante
este modelo de anlisis de varianza. Realmente se trata del mismo planteamiento, pero puede
resultar sugerente verlo desde diversas perspectivas o desde diversas preguntas de
investigacin que podemos hacernos y cuyas respuestas podemos encontrar en este modelo de
anlisis de varianza. Se trata de un mtodo de anlisis vlido siempre que se trate de muestras
relacionadas, aunque no se trate de diseos experimentales en sentido propio.
1 Cuando los mismos sujetos van a pasar por una serie de tratamientos experimentales.
La variable dependiente, la que medimos, es siempre la misma (medidas repetidas), como
puede ser aprendizaje, satisfaccin, mejora, etc., que medimos despus de cada tratamiento.
En este caso cada condicin (distintos mtodos, ejercicios, etc.) puede influir en los
tratamientos o experiencias subsiguientes: el aprendizaje previo, el cansancio, etc., de una
ocasin puede estar influyendo en los resultados de la ocasin siguiente. Este problema
(derivado del orden en el que los sujetos pasan por las distintas experiencias) puede
resolverse de dos maneras:

1 Tambin se le denomina a veces de clasificacin doble, o de un factor con medidas repetidas, o de dos factores
con una muestra por grupo (en EXCEL); el trmino ms genrico y claro es sencillamente anlisis de varianza para
muestras relacionadas: en todas las condiciones (en cada fila) tenemos a los mismos sujetos o a sujetos igualados.
2 Si lo que deseamos es conocer no si hay diferencias entre ocasiones, sino si se advierte una tendencia a aumentar o
disminuir, tenemos un anlisis de varianza especfico para verificar tendencias que veremos ms adelante.
3 Sobre estas y otras ventajas e inconvenientes de este modelo de anlisis de varianza, y sobre el nmero de sujetos,
puede verse Pascual, Fras y Garca (1996:137; 203) y en monografas como la de Ximnez y San Martn (2000) que
incluyen cmo llevar a cabo este anlisis de varianza con el SPSS.

Anlisis de varianza para muestras relacionadas

a) Mediante diseos equilibrados (counterbalanced): los sujetos pasan por los distintos
tratamientos en un orden distinto, para neutralizar o minimizar los efectos del aprendizaje
previo, cansancio, etc.4
b) Utilizando sujetos distintos en cada condicin, pero igualados en caractersticas
importantes (como podran ser sexo, edad, rendimiento previo, etc.).
Si los tratamientos (columnas) son tres (por ejemplo), se divide a la muestra en bloques
de tres sujetos igualados en variables que pueden afectar a la variable dependiente (los
resultados, el progreso o efecto de una terapia o mtodo, etc.). Si se tratara de ensayar tres
procedimientos de aprendizaje, se podra igualar a los sujetos de cada fila en rendimiento
previo, motivacin, sexo, etc. Preferiblemente los tres sujetos de cada bloque se asignan
aleatoriamente a los diversos tratamientos (en un diseo experimental en sentido propio).
2 Este modelo de anlisis de varianza suele presentarse en el contexto de los diseos
experimentales (los mismos sujetos pasan por diversas condiciones o experiencias), pero
presentar este modelo de anlisis de varianza en referencia nicamante a diseos
experimentales, es de hecho muy restrictiva porque puede dejar fuera de nuestra atencin
otras posibilidades de inters y adems muy sencillas y asequibles.
Si los mismos sujetos valoran (por ejemplo un una escala escala de 1 a 5) la eficacia,
gusto, importancia, utilidad, etc., de una serie de conceptos del mismo mbito (actividades,
motivaciones, etc.) tenemos muestras relacionadas: los sujetos dan su valoracin mediante
respuestas escritas (se limitan a responder a varias preguntas) segn su experiencia, sin
necesidad de hacer en ese momento ningn experimento; la vida ya ha hecho que pasen por
las diferentes situaciones o condiciones. Es decir, no necesitamos necesariamente que los
sujetos pasen por diversas experiencias o condiciones; basta que respondan a una serie de
preguntas sobre una serie de conceptos o variables del mismo mbito. En esta situacin el
orden en el que se valoran los distintos elementos deja de ser un problema (o se puede alterar
el orden de los tems presentados en los cuestionarios si pensamos que el orden puede
condicionar las respuestas).
3 El ejemplo que nos va a servir para introducir el mtodo tambin sugiere otras
posibilidades: cuando varios profesores evalan a los mismos alumnos De dnde vienen las
diferencias? De que los alumnos son distintos y los profesores tienden a coincidir en sus
juicios? (ste sera un resultado deseable) O de que los profesores son distintos en su modo
de evaluar? En general siempre que tengamos un grupo de evaluadores que valoran a los
mismos sujetos (o conceptos, etc.) este anlisis nos permitir apreciar el grado de consistencia
o de acuerdo de los evaluadores al diferenciar unos sujetos (o conceptos) de otros5.
4 Este anlisis de varianza se presta de manera especial a determinar la jerarqua de
valores de un grupo o simplemente la jerarqua de preferencias. Si un grupo valora una serie
de conceptos (que pueden expresar valores, como libertad, igualdad, progreso econmico,
etc.) segn su importancia (en una escala de nada a muy importante), podemos ver:
a) En qu medida los sujetos son consistentes (estn ms o menos de acuerdo)
ordenando estos conceptos segn su importancia; podemos calcular unos coeficientes

4 Una manera prctica de hacerlo puede verse en Girden (1992:3).


5 Un ejemplo semejante (con un planteamiento algo ms complejo) puede verse en Waddington (2000): cinco
profesores corrigen tres veces los trabajos (traduccin del ingls al espaol) de 64 alumnos utilizando cada vez un mtodo
distinto de correccin; se trata de verificar con qu procedimiento los profesores difieren menos entre s.

Anlisis de varianza para muestras relacionadas

de fiabilidad que nos indicarn en qu grado los sujetos estn de acuerdo


diferenciando unos conceptos de otros.
b) Qu valores difieren entre s (en importancia) por encima de lo que se podra esperar
por azar: podemos desembocar en un orden que en un cierto grado refleja la
jerarqua de valores (o simplemente de preferencias) prevalente en el grupo.
De la misma manera que pensamos en valores, podemos pensar en otras categoras: los
sujetos pueden valorar motivaciones, problemas, etc., incluso lo que puede parecer ms
trivial, como colores o programas de televisin. Siempre es posible establecer una jerarqua
(si la hay) de preferencias (trmino ms global que valores).
En la exposicin del mtodo distinguimos dos partes:
1 El anlisis de varianza propiamente dicho;
2 Clculos complementarios, como los coeficientes de asociacin y de fiabilidad.
Si en las columnas tenemos los tems de un test o escala, ya veremos ms adelante que
con este planteamiento podemos calcular el mismo coeficiente de fiabilidad que
habitualmente calculamos con otros procedimientos (como el coeficiente de Cronbach).
Una utilidad especfica de este modelo de anlisis de varianza es precisamente que puede
ayudar a la comprensin del coeficiente ms utilizado de fiabilidad ( de Cronbach), que
posiblemente como mejor se comprende es a partir del anlisis de varianza (dedicaremos un
apartado especfico a este tema con algunos ejemplos).
2. Anlisis de varianza
En el ejemplo utilizado para exponer el mtodo (tabla 1)6 las filas son alumnos (f = 6) y
las columnas son profesores (c = 4) que han evaluado en la misma caracterstica a los seis
alumnos. Las preguntas que nos hacemos son estas:
Las diferencias que observamos en los datos:
* Se deben a que los profesores son distintos evaluando? (unos son ms benvolos,
otros lo son menos)
* O ms bien las diferencias se deben a que los alumnos son distintos en la variable
medida, y son as vistos por sus profesores con un grado suficiente de acuerdo?
Si la varianza de las filas (alumnos) es estadsticamente significativa (superior a lo
aleatorio) tendremos un dato a favor de la unanimidad de los profesores: si hay diferencias se
deben sobre todo a que los alumnos son distintos, no a que los profesores son distintos en su
estilo de evaluar (pueden ser, por ejemplo, por ejemplo ms o menos benvolos) o a la
interaccin profesor-alumno (algunos profesores pueden sentirse inclinados a valorar mejor o
peor a determinados alumnos).

6 Los datos estn tomados del ejemplo que presenta el texto de Downie y Heath (1971); el modo de resolver el
anlisis de varianza que exponemos aqu es sin embargo distinto y ms sencillo si se dispone de una calculadora con
programacin estadstica. En EXCEL se hace fcilmente buscando Anlisis de datos en Herramientas; este anlisis se
denomina en EXCEL Anlisis de varianza de dos factores con una muestra por grupo (no incluye los contrastes posteriores,
ni los coeficientes que se van a exponer); tambin se puede resolver en programas de Internet como indicamos en al apartado
correspondiente.

Anlisis de varianza para muestras relacionadas

profesores (columnas)

alumnos
(filas)
totales columnas
medias columnas

A
10
4
8
3
6
9
40
6.67

B
6
5
4
4
8
7
34
5.67

C
8
3
7
2
6
8
34
5.67

D
7
4
4
2
7
7
31
5.17

total
filas
31
16
23
11
27
31

media
filas
7.75
4.00
5.75
2.75
6.75
7.75

Tabla 1
De las filas y de las columnas slo necesitamos o las medias o los totales; lo que resulte
ms cmodo. Con frecuencia las medias y desviaciones (de las filas o de las columnas) son un
dato informativo de inters en s mismo.
Aunque programas como el SPSS o incluso EXCEL nos lo pueden dar resuelto, el
procedimiento que exponemos nos ayudar a ver cmo descomponemos la varianza total en las
varianzas parciales que nos interesan; adems si no disponemos de estos recursos, con una
simple calculadora con programacin estadstica (para calcular medias y las desviaciones)
podemos resolverlo con toda facilidad, sobe todo con muestras pequeas.
1 Clculos previos
1. Calculamos las medias (o simplemente los totales) de cada fila y de cada columna;
ahora suponemos que hemos calculado las medias de filas y de las columnas.
2. Calculamos las desviaciones tpicas (o las varianzas directamente):
del total (de todos los datos; N = cxf = 24 datos):
de las medias de las columnas (Mc):
de las medias de las filas (Mf):

t =
Mc=
Mf=

2.198
.547
1.873

Si en vez de las medias de las filas o las columnas hemos calculado los totales de las
filas y/o de las columnas, calculamos sus desviaciones tpicas:
desviacin tpica:

de los totales de las columnas (tc):


de los totales de las filas (tf):

tc =
tf =

3.269
7.492

Es importante advertir que en todos los casos N = nmero de datos, (no nmero de
sujetos) o nmero de filas por nmero de columnas (c x f = 24 en este caso).
2 Clculo de las sumas de cuadrados
Calculamos las Sumas de Cuadrados a partir de las desviaciones tpicas ya calculadas y
de N (nmero de datos); las frmulas aparecen en la tabla 2; en este caso utilizamos las
desviaciones tpicas de las medias de filas y columnas. Tambin podemos ir colocando los
resultados directamente en la tabla 3.

Anlisis de varianza para muestras relacionadas

(24)(1.873)2 =

84.19

SCcolumnas = N Mc =

(24)(.547)2 =

7.18

SC de la interaccin:

SCtotal - (SCfil + SCcol) =

(115.95) - (84.19 + 7.18)=

SC de los totales:

SCtotal = N t =

SC de las filas:

SCfilas = N Mf =

SC de las columnas:

24.58

(24)(2.198)2 =

115.95

Tabla 2
Si en vez de calcular las medias de filas y columnas, hemos sumado el total de las filas
y de las columnas, calcularemos las desviaciones tpicas:
de los totales de las filas
de los totales de las columnas

tf = 7.492
tc = 3.269

En este caso las Sumas de Cuadrados son:


f
2
SC f = ( tf )( ) =
de las filas:
c
c
2
de las columnas: SCc = ( tc )( ) =
f

6
(7.492)2 =
4
4
(3.269)2 = =
6

84.19

7.13

Si calculamos las Sumas de Cuadrados a partir de las medias nos dar el mismo
resultado que si las calculamos a partir de los totales, salvo pequeas diferencias por el
redondeo de decimales (y que a efectos prcticos no tienen mayor importancia).
Si sumamos las Sumas de Cuadrados de filas y de columnas veremos que esta suma no
es igual a la Suma de Cuadrados total; la variabilidad del total de las puntuaciones no se
explica solamente por la variabilidad de las filas (diferencias entre los alumnos) y de las
columnas (diferencias entre los profesores); nos queda la variabilidad debida a la interaccin
entre filas y columnas (alumnos y profesores). A esta fuente de variacin se le denomina
residual (tambin interaccin, resto), y es la que nos queda cuando eliminamos la
variabilidad debida a las diferencias sistemticas de filas y de columnas. Esta varianza,
aleatoria y no controlada, va a ser el trmino de comparacin de las otras dos varianzas.
3 Grados de libertad

Los grados de libertad son:

de las filas
de las columnas
de la interaccin
del total

f-1=
c-1=
(f-1)(c-1)=
N-1=

(6-1)
(4-1)
(5 x 3)
(24-1)

= 5
= 3
= 15
= 23

4 Tabla de resultados

En la tabla apropiada [3] vamos poniendo los resultados. Al consultar las tablas de la
razn F nos fijaremos en los grados de libertad del numerador (de las filas y de las columnas)
y del denominador (de la interaccin). Esta es la norma general, pero en este caso, muestras
relacionadas, esta norma puede variar como indicaremos al final, en el apartado
observaciones sobre los grados de libertad.

Anlisis de varianza para muestras relacionadas

origen de la
variacin

SC
numerador

gl
denominador

filas
(alumnos)

84.19

columnas
(profesores)

7.18

interaccin

24.58

15

CM = SC/gl
Varianza (2)

= /

84.19

16.84

5
7.18

115.95

= 2.39

3
24.58
15

total

= 16.84

1.64
2.39
1.64

interaccin

= 10.27

< .01

= 1.46

> .05
(no sign.)

= 1.64

23

Tabla 3
5 Interpretacin

1. La variabilidad debida a diferencias entre los alumnos es significativamente superior


a la debida a la interaccin profesor-alumno (grados de libertad: 5 y 15, para = .05
necesitamos F = 2.90, que es el valor que viene en las tablas, y nosotros hemos obtenido
10.27). La varianza se debe a que los alumnos son distintos (no a que los profesores son
distintos); los profesores en este caso han establecido diferencias entre los alumnos
valorndolos sin grandes discrepancias.
2. Sobre los grados de libertad para consultar las tablas hacemos despus unas
observaciones importantes.
El procedimiento habitual (utilizar los grados de libertad de las dos varianzas que se
comparan) no siempre es el adecuado en este caso, porque no se cumplen determinados
requisitos de este modelo. Como indicamos en las observaciones, los grados de libertad ms
seguros son 1 y N-1.
3. La variabilidad entre los profesores (diferencias sistemticas de los profesores en su
estilo de calificar) no es significativa (grados de libertad 3 y 15, para = .05 necesitamos F =
3.29). Los profesores no difieren apreciablemente entre s, y las diferencias que puede haber
entre ellos (en su estilo de evaluar, ms o menos severos) apenas contribuyen a la varianza
total.
3. Observaciones sobre los grados de libertad
3.1. La condicin de esfericidad

Cuando se mide en varias veces sucesivas a los mismos sujetos (y siempre que
tengamos muestras relacionadas) como es frecuente en muchos diseos experimentales (o en
estudios exploratorios), estas medidas estn correlacionadas; en este caso bajan los cuadrados
medios del trmino del error (el denominador de la razn F) y se obtiene con mayor facilidad
un valor de F significativo. Un supuesto implcito en este modelo (medidas repetidas), para
que los valores de F con los grados de libertad especificados antes sean vlidos (es decir, que
correspondan a la probabilidad indicada en las tablas), es la condicin denominada de
esfericidad, que viene a decir que las covarianzas entre cada par de tratamientos son las
mismas (de ocasin a ocasin el cambio es idntico)7.

7 En trminos ms estadsticos: si convertimos la matriz de correlaciones en una matriz de varianzas-covarianzas, las


varianzas deberan ser idnticas entre s y lo mismo las covarianzas.

Anlisis de varianza para muestras relacionadas

Cuando esta condicin no se cumple, y no suele cumplirse, la distribucin de F que


viene en las tablas no es exacta y es de hecho muy liberal: se rechaza con demasiada facilidad
la Hiptesis Nula.
3.2. Cmo proceder en la prctica

La recomendacin ms aceptada es la siguiente:


1. Si la F no es significativa con los grados de libertad usuales [(f-1) o (c-1) y (f-1)(c1)], el resultado no es significativo; hasta aqu es la prctica habitual.
2. Los grados de libertad ms conservadores, y ciertamente siempre correctos (no
inducen a error), son 1 y N -1 (N es aqu el nmero de sujetos, no el nmero de datos); si con
estos grados de libertad el resultado es estadsticamente significativo se puede rechazar la
Hiptesis Nula con seguridad.
En el ejemplo que nos ha servido para exponer el mtodo, la razn F correspondiente a
las filas es de 10.27; con 5 y 15 grados de libertad debemos alcanzar el valor de 2.90 segn
las tablas, y lo superamos con creces. Con grados de libertad 1 y N -1 (1 y 5) el valor de F que
viene en las tablas es 6.61; tambin lo superamos (con lo que p < .05, pero no p < .01) por lo
que podemos rechazar la Hiptesis Nula con el criterio ms conservador.
3. Si vemos que el resultado no es significativo con 1 y N -1 grados de libertad, todava
puede serlo con los ajustes en los grados de libertad.
Hay dos ajustes posibles, uno ms conservador ( , de Box, tambin denominado de
Greenhouse-Geisser) y otro ms liberal ( , de Huynh y Feldt). El estadstico (psilon)
expresa en qu medida se apartan los datos del requisito de esfericidad. A mayor valor de ,
los datos se apartan menos del modelo terico (de la condicin de esfericidad).
Estos ajustes son de clculo laborioso8 pero estn programados en programas
informticos como el SPSS. Al menos conviene conocer a) cmo se utilizan estos coeficientes
y b) cmo proceder en la prctica habitual cuando no disponemos de alguna de alguna de las
modalidades del coeficiente .
a) Cmo utilizar el coeficiente
El valor de es siempre inferior a la unidad; cuando = 1, la esfericidad es perfecta. Se
trata de un coeficiente por el que multiplicamos los grados de libertad de las dos varianzas
que contrastamos; los grados de libertad quedan as reducidos y cuesta ms rechazar la
Hiptesis Nula. Si tenemos que, por ejemplo, = .60, los grados de libertad iniciales, 5 y 15,
se convierten en:
5 (.60) = 3
15 (.60) = 9
Los grados de libertad son menos y consecuentemente necesitamos un valor mayor de F
para poder rechazar la Hiptesis Nula.

8 Pueden verse las frmulas en diversos autores (por ejemplo, Girden, 1992:19; Kirk: 1995:281; Ximnez y San
Martn, 2000:42); Kirk es el que expone de manera ms sencilla cmo calcular a partir de la matriz de covarianzas
(tambin nos lo da el SPSS). Ambos autores repiten la recomendacin de utilizar como grados de libertad 1 y N-1 como
medida de seguridad, aunque esta recomendacin puede resultar muy conservadora. Una explicacin de estos coeficientes
puede verse tambin en Llobell, Fras y Garca (1996:158) y en Garca, Fras y Llobell (1999).

Anlisis de varianza para muestras relacionadas

b) Cmo proceder en la prctica habitual


Lo ms seguro es suponer que no se cumple la condicin de esfericidad y proceder
teniendo en cuenta estas cautelas:
1 La prctica ms segura es utilizar como grados de libertad 1 y N -1; si con estos
grados de libertad el resultado es significativo, ciertamente lo es y podemos rechazar la
Hiptesis Nula. Con frecuencia, y en resultados muy claros, superamos con creces los valores
que vienen en las tablas.
2 Aun as ste es un criterio muy conservador (grados de libertad 1 y N-1) y podemos
aceptar como no significativos resultados que s lo son (nos puede dar falsos negativos).
Si el resultado es significativo con los grados de libertad convencionales, (c-1) o (f-1) y
(c-1)(f-1), pero no lo es con 1 y N -1, es entonces cuando deberamos aplicar uno de estos dos
ajustes (programados en el SPSS) (Girden, 1992:21):
Si > .75: (de Huynh y Feldt, el ajuste ms liberal)
Si < .75 (o si no sabemos nada sobre ): (de Box o Greenhouse-Geisser, el ajuste
ms conservador)
4. Contrastes posteriores

Si nos interesan los contrastes posteriores, suele recomendarse el contraste de Tukey9;


una propuesta ms segura (sobre todo con muestras pequeas y cuando no se cumple la
condicin de esfericidad) que vemos recomendada10 son los contrastes de Bonferroni (o
Dunn-Bonferroni)11.
Frecuentemente cuando tenemos muestras relacionadas lo que ms nos puede interesar
son los coeficientes a) de asociacin ( o ms habitualmente 2) y b) de fiabilidad expuestos
ms adelante. En este ejemplo no tiene inters comprobar entre qu profesores hay diferencias
significativas, posiblemente incluso aun cuando la razn F de los profesores fuera
significativa tampoco tendra especial inters; en otros planteamientos s puede interesar ver
qu columnas o condiciones difieren entre s.
5. Anlisis complementarios: los coeficientes de asociacin y de fiabilidad

Como en planeamientos semejantes, la razn F (como la t de Student) nos remiten a una


probabilidad de ocurrencia, pero no a una magnitud.
Hay dos clculos complementarios de inters, a) coeficientes de asociacin, como en
otros modelos de anlisis de varianza y b) coeficientes de fiabilidad ms propios de este
modelo de anlisis de varianza para muestras relacionadas.

9 El SPSS nos da estos contrastes posteriores (Tuckey y Bonferroni)).


10 Como Toothaker y Miller (1996:557-558), Girden (1992:29), Ximnez y San Martn (2000:49).
11 En los contrastes de Bonferroni se utiliza la t de Student convencional (para muestras relacionadas en este caso),
pero con un nivel de confianza ms estricto; el nivel de confianza adoptado (por lo general .05) se divide por el nmero de
comparaciones previstas; si nuestro nivel de confianza es = .05 (lo habitual) y vamos a hacer tres comparaciones, para
rechazar la hiptesis nula a este nivel ( = .05) debemos obtener una probabilidad de p = .05/3 = .0167. Aunque los
contrastes de Bonferroni suelen ser valorados como excesivamente conservadores (Jaccard, 1998; Perneger, 1998), s

parecen ms aconsejables en el caso de medidas repetidas.


Anlisis de varianza para muestras relacionadas

10

5.1. Coeficientes de asociacin (2 y 2parcial)

Como en otros planteamientos de anlisis de varianza, un coeficiente muy utilizado es


el coeficiente eta (); es un coeficiente de asociacin vlido cuando una variable es
categrica, no continua (como son los profesores o columnas en este ejemplo). Tambin, y
como en otros modelos de anlisis de varianza, se utiliza 2, pero 2 (o ) es de comprensin
ms intuitiva (una proporcin) que 2 y ms sencillo de clculo12. Una razn F
estadsticamante significativa, que muy probable obtenerla con muestras grandes, nos da
seguridad para concluir que hay diferencias, pero no dice nada sobre la relevancia o magnitud
de estas diferencias; sta es la informacin que nos dan estos coeficientes, y en este sentido
(expresan una magnitud, no una probabilidad) se trata de un tamao del efecto que permite
completar la conclusin alcanzada con la razn F propia del anlisis de varianza.
Como en coeficientes anlogos (como r) elevada al cuadrado indica la proporcin de
varianza en la variable continua (las calificaciones de los alumnos en este ejemplo) atribuible
a diferencias en la variable categrica (diferencias entre los profesores en este caso).
En el caso del anlisis de varianza para muestras independientes tenemos un nico
coeficiente , en el caso de muestras relacionadas tenemos dos, uno corresponde a las
columnas y otro a las filas; en cada caso dividimos cada suma de cuadrados por la suma de
cuadrados total (frmulas [1] y [2]).
columnas =

SC columnas
SC total

filas =

SC filas

En nuestro ejemplo:

[1]

[2]

SC total
columnas

7.18
= .248 y 2 = .06
115.95

filas =

84.19
= .726 y 2 = .53
115.95

Fijndonos en 2 vemos que la proporcin de varianza en la variable dependiente (las


calificaciones) se explica sobre todo (53 % de la varianza) por diferencias entre los alumnos y
apenas (6 %) por las diferencias entre los profesores. Todos estos coeficientes conviene
interpretarlos tambin en trminos relativos, comparando unos con otros.

Eta cuadrado parcial (2parcial)13 expresa la proporcin de varianza de una variable


dependiente explicada por la variable independiente manteniendo constantes otras fuentes de
error; es decir prescindimos de otras fuentes de variabilidad. En la frmula [1] (, no 2;
normalmente interesa la [1] que corresponde a la variable independiente) en el denominador
en vez de la suma de cuadrados total, tendremos la suma de cuadrados de las columnas ms
la suma de cuadrados del error (de la interaccin) (Rosenthal y Rosnow, 1991:463):

12 Las frmulas de 2 pueden verse en muchos textos, como Ximnez y San Martn (2000:46).
13 Este coeficiente eta cuadrado parcial correspondiente a las columnas (variable independiente) lo calcula el SPSS
como parte del output.

Anlisis de varianza para muestras relacionadas

11

parcial =

SC columnas
SC columnas + SC error

[3]

En este ejemplo, y elevando al cuadrado el coeficiente , tenemos:


2
=
parcial

7.18
= .226
7.18 + 24.58

Las diferencias entre profesores explican el 22.6% de la varianza, si prescindimos de


otras fuentes de variabilidad (manteniendo constantes a los alumnos). Si hacemos lo mismo
con los alumnos (filas) tendremos 84.19/(84.19+24.58) = .774; el 77.4% de la varianza queda
explicado por diferencias entre los alumnos (manteniendo constantes a los profesores).
5.2. Coeficientes de fiabilidad
5.2.1. Fiabilidad de filas y columnas

Aqu hablamos de fiabilidad en el sentido de consistencia interna; en este ejemplo


(profesores evaluando a los mismo alumnos) nos interesa comprobar el grado de consistencia
o de homogeneidad (o de grado de acuerdo) de los profesores evaluadores (las columnas) al
diferenciar a los alumnos (las filas); en otros planteamientos nos interesa sobre todo verificar
la consistencia o grado de acuerdo de las filas (sujetos) diferenciando a las columnas.
Este clculo de la fiabilidad o consistencia de las columnas al clasificar o diferenciar a
las filas (o las columnas a las filas) suele ser de inters en muchos planteamientos del anlisis
de varianza para muestras relacionadas; por esta razn dedicamos despus a la fiabilidad un
apartado adicional. Podramos definir la fiabilidad en este caso como el grado de acuerdo de
la filas diferenciando a las columnas o de las columnas diferenciando a las filas.
En otros casos lo que interesa es comprobar si las filas (los sujetos) diferencian bien a
las columnas. Si por ejemplo los alumnos evaluaran a una serie de profesores (o de
experiencias, etc.), nuestra hiptesis sera que los profesores son distintos (o las experiencias
son distintas) y que los alumnos son consistentes al diferenciar las columnas. En este caso un
resultado esperado hubiera sido el contrario al de este ejemplo: la varianza se debera no a
que los alumnos son distintos, sino a que los profesores, o las experiencias, son distintas.
Las frmulas de los coeficientes de fiabilidad son las siguientes14:
Fiabilidad de las columnas (de todas):

rcc =

CM filas CM error
CM filas

[4]

Fiabilidad de una sola columna:

rcc =

CM filas CM error
CM filas + (k 1)CM error

[5]

Fiabilidad de las filas:

rff =

CM columnas CM error
CM columnas

[6]

14 Tomamos las frmulas de Guilford y Fruchter (1973) y de Nunnally y Bernstein (1991) pero podemos
encontrarlas en muchos textos.

Anlisis de varianza para muestras relacionadas

12

Los smbolos son ya conocidos:


rcc =
rff =
CMf=
CMc=
CMe =
k=

fiabilidad de las columnas;


fiabilidad de las filas;
Cuadrados Medios (o varianza) de las filas;
Cuadrados Medios (o varianza) de las columnas;
Cuadrados Medios (o varianza) del trmino del error; en este caso de la
interaccin;
nmero de columnas (profesores en nuestro ejemplo)

Como podemos ver las frmulas de la fiabilidad o consistencia interna de las filas [6]
son iguales a las de las columnas [4], substituyendo CMf por CMc
En este ejemplo lo que nos interesa es el clculo de fiabilidad (grado de acuerdo) de
todos los profesores (las columnas); queremos comprobar en qu grado establecen diferencias
entre los alumnos de manera consistente.
La fiabilidad de los profesores es en este caso:
rcc =

16.84 1.64
16.84

= .903

Esta cuantificacin de la consistencia aade informacin al valor significativo de F, y


nos dice que los profesores estn muy de acuerdo o son muy consistentes al evaluar a los
alumnos (los ordenan de manera muy parecida, aunque pueden ser muy distintos en sus
valoraciones absolutas).
De manera anloga, y si tiene sentido en el planteamiento de los datos, podemos
calcular la fiabilidad de las filas (hasta qu punto son las filas las que discriminan
consistentemente a las columnas). Este sera el caso si las filas (alumnos) juzgaran a las
columnas (profesores, actividades, etc.).
Estos coeficientes son anlogos al coeficiente de Cronbach; en realidad se trata de lo
mismo. En un test o escala podemos calcular el coeficiente mediante el anlisis de varianza,
poniendo a los tems en las columnas y a los sujetos en las filas.
La pregunta que nos hacemos en el caso de la fiabilidad de un test es semejante:
Hasta qu punto los tems (columnas) son consistentes (estn de acuerdo)
discriminando, diferenciando a los sujetos (filas) en aquello que es comn a todos los tems
(lo que estamos midiendo)?
Si hay diferencias en los totales (varianza total) esperamos que se deba a que los sujetos
medidos son distintos, no a que los tems son distintos y miden cosas distintas (por eso estos
coeficientes se denominan de homogeneidad: de homogeneidad o consistencia interna de las
columnas o jueces, en este caso). Si en el ejemplo que nos ha servido para exponer el mtodo
suponemos que los cuatro profesores son tems de una escala, y calculamos el coeficiente
de Cronbach con la frmula habitual, llegaremos al mismo resultado.
Esta relacin entre fiabilidad y anlisis de varianza la explicamos con ms detalle en el
apartado siguiente.

Anlisis de varianza para muestras relacionadas

13

5.2.2. Relacin entre fiabilidad (consistencia interna) y anlisis de varianza para


muestras relacionadas.

Explicamos con ms detalle esta relacin por el inters que tiene la fiabilidad tanto en
psicometra (fiabilidad de los tests) como en muchos planteamientos experimentales: nos
puede interesar verificar la consistencia o fiabilidad de una serie de jueces cuando evalan
una serie de sujetos u objetos. Posiblemente la fiabilidad, en su sentido ms habitual
(coeficientes de consistencia interna referidos a tests y escalas) se entiende mejor a travs del
anlisis de varianza.
Para entender el concepto de fiabilidad en este contexto es til la analoga con el
concepto de la unanimidad de unos jueces evaluando (o con ms propiedad ordenando o
clasificando de ms a menos) a una serie de sujetos.
Para ordenar o
diferenciar bien
hace falta:

1 Que los jueces sean coherentes entre s, es decir, tengan el


mismo criterio, se fijen en lo mismo, estn bsicamente de
acuerdo
2 Que los sujetos sean distintos segn el criterio compartido
por los jueces (se ordena mejor a los muy diferentes)

Vamos a pensar en dos situaciones distintas.


Situacin 1

Los jueces son los tems de un test (y aqu est la analoga, en pensar que los tems van
a juzgar a una serie de sujetos): todos los tems-jueces participan del mismo criterio (es decir
miden lo mismo), y tenemos este resultado (tabla 4):
sujetos
1
2
3
4
5
6
medias (y ) de los
tems (columnas)

1
2
1
3
4
5
6
3.5
1.707

2
2
1
4
3
5
6
3.5
1.707

tems
3
4
1
2
2
1
4
3
3
4
5
5
6
6
3.5
3.5
1.707
1.707

5
2
1
3
4
5
6
3.5
1.707

6
1
2
4
3
5
6
3.5
1.707

medias de los
sujetos (filas)

1.67
1.33
3.50
3.50
5.00
6.00

Tabla 4
Qu vemos en estos resultados:
a) Las medias de los tems (columnas) son semejantes (idnticas en este caso);
b) Las medias de los sujetos (filas) son muy distintas.
Adems vemos que las correlaciones entre los tems-jueces son altas o al menos claras:
coinciden en asignar puntuaciones altas o bajas a los mismos sujetos (los sujetos 1 y 2
puntan bajo en todos los tems, los sujetos 3 y 4 puntan en el centro de la escala en todos
los tems, y los sujetos 5 y 6 puntan alto en todos los tems).
Es claro que sin un suficiente grado de acuerdo en los jueces o sin suficientes
diferencias entre los sujetos, no se daran estas relaciones. Los coeficientes de fiabilidad
vienen a expresar el grado de relacin global entre los jueces (por eso se denominan de
consistencia interna entre los tems o jueces). Es ms, sin diferencias entre los evaluados

Anlisis de varianza para muestras relacionadas

14

no se puede comprobar empricamente (mediante coeficientes de correlacin) que los jueces


miden lo mismo.

Conclusin: los tems (que son los jueces) tienen un alto de acuerdo ordenando o
diferenciando a los sujetos, estableciendo diferencias con el mismo criterio; las columnas
(tems) son fiables cuando clasifican a las filas. De este grado de acuerdo (comprobado)
deducimos que miden lo mismo. Aunque refirindonos a los tems de tests y escalas, de la
mera relacin entre los tems (que si es alta desembocar en un coeficiente de fiabilidad alto)
no podemos sin ms concluir que los tems miden lo mismo (hacen falta consideraciones
conceptuales sobre la formulacin de los tems; los sujetos pueden quedar ordenados de
manera semejante en todos los tems y a pesar de eso es posible que las formulaciones de los
tems no reflejen con nitidez un mismo rasgo bien definido).
Esta suficiente grado de acuerdo de los tems (expresin un tanto impropia tratndose
de tems) es lo que cuantificamos mediante el coeficiente de Cronbach, pero podemos
llegar al mismo resultado con los coeficientes ya vistos y que son posteriores al anlisis de
varianza. Lo que sucede es que si lo que queremos es calcular la fiabilidad de un test, las
frmulas habituales de la fiabilidad son ms cmodas que el anlisis de varianza.
Situacin 2

Los jueces son unos sujetos que con idntico criterio (utilidad, eficacia, etc.) valoran
una serie de tems: mtodos, actividades, profesores, etc.
Tenemos este resultado hipottico (tabla 5):
tems
sujetos
1
2
3
4
5
6
medias (y ) de los
tems (columnas)

1
2
1
2
2
1
1
1.50
.50

2
6
6
6
5
5
6
5.67
.47

3
4
3
4
3
4
4
3.67
.47

4
4
4
3
4
5
3
4.00
.63

5
6
6
6
6
6
6
6.00
.00

6
1
2
1
1
1
2
1.33
.47

medias de los
sujetos (filas)

3.83
3.67
3.67
3.50
3.67
3.67

Tabla 5
Esta situacin ejemplifica un modelo potencialmente muy til de investigacin
mediante el anlisis de varianza para muestras relacionadas.
Qu vemos ahora:
a) Las medias de los sujetos son muy parecidas unas a otras, apenas hay diferencias;
b) Las medias de los tems son muy desiguales;

Conclusin: tenemos algo parecido a la tabla anterior [4], pero al revs: ahora son los
sujetos quienes muestran un gran acuerdo en cmo valoran los tems (actividades,
experiencias, profesores, etc.). Las medias de los sujetos son muy parecidas, pero las de los
tems son muy distintas, y son los tems los que quedan ordenados en una jerarqua clara.
Ahora el concepto de fiabilidad, de consistencia interna, lo aplicamos a los sujetos.
En la primera situacin los tems (las columnas) ordenan, clasifican, etc., a los sujetos
(filas) de manera consistente; en la segunda situacin son los sujetos (filas) quienes ordenan a

Anlisis de varianza para muestras relacionadas

15

las columnas, valoran las filas con bastante unanimidad en el criterio establecido (eficacia,
agrado, etc.).
Los coeficientes de fiabilidad (homogeneidad, consistencia interna) expresan en qu
grado las columnas (tems de un test) miden lo mismo15 y diferencian a los sujetos que son
distintos en aquello que tienen en comn los tems (frmulas del coeficiente de Cronbach,
coeficientes de Kuder-Richardson). Y a la inversa: se puede calcular la fiabilidad de los
sujetos (las filas) cuando ordenan los tems (las columnas).
Estos coeficientes de fiabilidad, de las filas ordenando a las columnas y de las
columnas ordenando a las filas, son los que calculamos a partir de los resultados del anlisis
de varianza para muestras relacionadas (relacionadas porque los sujetos son los mismos en
todas las condicioneso en todos los tems).
En cualquier caso la fiabilidad tiende a ser alta:
a) Cuando los jueces son consistentes, participan del mismo criterio;
b) Cuando los jueces son muchos (se minimizan las inconsistencias)
c) Cuando los sujetos (u objetos) juzgados son muy diferentes entre s (es ms fcil
ordenarlos).
Esta grado de acuerdo o consistencia interna se manifiesta en las correlaciones entre los
jueces (como entre los tems de un test); la correlacin implica diferencias sistemticas en los
sujetos u objetos evaluados.

Resumiendo: fiabilidad y anlisis de varianza


Pregunta comn a estos planteamientos: De dnde vienen las diferencias (la varianza
total)? De que las filas son distintas o de que las columnas son distintas?
Una solucin directa nos la da el anlisis de varianza para muestras relacionadas, que
divide (analiza) la varianza total en tres varianzas parciales:
1 Varianza debida a que las filas son distintas
2 Varianza debida a que las columnas son distintas
3 Varianza aleatoria, debida a la interaccin fila-columna (no debida a que las columnas
o las filas son sistemticamente distintas).

Resultados del anlisis varianza:


1. Nos dice si las varianzas 1 y/o 2 son significativamente distintas de la varianza 3
(superiores a lo que consideramos aleatorio).
2. Podemos calcular el coeficiente de fiabilidad de las filas cuando establecen
diferencias entre las columnas y el coeficiente de fiabilidad de las columnas cuando
establecen diferencias entre las filas. Estos coeficientes son idnticos (el mismo resultado) al
coeficiente de Cronbach.

15 La expresin usual miden lo mismo no es exacta; lo que cuantifican estos coeficientes es en qu grado los tems
estn relacionados, y esta relacin inter-tem nos confirma (o deducimos) que de alguna manera miden lo mismo, expresan el
mismo rasgo. Tambin puede suceder que tengamos una fiabilidad alta con tems que claramente no miden el mismo rasgo
(con criterios conceptuales) pero que estn claramente relacionados entre s; siempre es necesaria una evaluacin cualitativa.

Anlisis de varianza para muestras relacionadas

16

5.2.3. Cuando las dos razones F (de las filas y de las columnas) son estadsticamente
significativas

En cualquiera de estos planteamientos podemos encontramos con que las dos razones F
(de las filas y de las columnas) son significativas (superiores a lo que podemos juzgar como
aleatorio), aunque por lo general (no siempre), cuando tenemos este resultado, una de las
razones F y uno de los coeficientes de fiabilidad suelen ser apreciablemente mayores que los
otros. Aun as este resultado puede desconcertar: Pueden simultneamente clasificar,
diferenciar, ordenar las filas a las columnas y las columnas a las filas?
Vamos a pensar en una situacin de fcil comprensin: los alumnos de una clase (filas)
evalan a sus profesores (columnas). Un resultado ideal sera que las diferencias provengan
sobre todo de que los profesores son distintos (y son as vistos por los alumnos) y no de que
los alumnos son distintos en su manera de evaluar. En este caso tendramos la F de las
columnas (profesores) significativa y la fiabilidad de las filas (alumnos) alta: los alumnos
distinguen bien unos profesores de otros16.
Imaginemos que las dos razones F son significativas: los profesores son distintos y
tambin los alumnos son distintos en su forma de evaluar, en ambos casos sus varianzas son
superiores a lo que podemos encontrar por azar. Este resultado posible Implica
contradiccin? Es interpretable?
Un resultado as es posible, no es contradictorio y es interpretable. Lo que sucede es
que los resultados que obtenemos y las interpretaciones que hacemos no pueden encerrarse en
un s o un no, en un blanco o negro. Es fcil verlo con un ejemplo muy simplificado.
Vamos a suponer que dos alumnos evalan a dos profesores en una escala de 1 a 6 en
un rasgo cualquiera. Un profesor es mejor que el otro a juicio de los dos alumnos, pero los
dos alumnos tienen un modo distinto de evaluar:
Alumno benvolo:
Alumno crtico:

Profesor 1
6
2

Profesor 2
5
1

Alumno benvolo. Un alumno califica al mejor profesor con un 6 y al peor profesor con
un 5. Aunque distingue entre los dos profesores, este alumno tiende a juzgar con
benevolencia; le gustan los dos profesores, al menos los evala bien, aunque uno le gusta ms
que el otro.
Alumno crtico. El otro alumno califica al mismo mejor profesor con un 2 y al otro
profesor, que a su juicio es tambin peor, con un 1. Estima que un profesor es mejor que el
otro, pero califica bajo a los dos; no le gusta ninguno de los dos, pero considera que uno es
peor que el otro.
En un caso as (en un ejemplo real tendramos ms alumnos) las dos razones F van a ser
significativas: los alumnos son consistentes cuando ordenan a los profesores segn su calidad
(por eso la F de los profesores es significativa), pero ellos tambin son sistemticamente
distintos en su forma de evaluar. La fiabilidad de los alumnos sera alta en este caso porque

16 En este caso (cuestionario de evaluacin del profesorado) habra que calcular la fiabilidad de cada tem; tambin
se podra calcular la fiabilidad de subconjuntos de tems homogneos (que describen el mismo rasgo) sumados en un total,
como si se tratara de un test convencional.

Anlisis de varianza para muestras relacionadas

17

coinciden en sealar cules son los mejores y los peores profesores segn su juicio, aunque
no coincidan en las valoraciones absolutas (tienden a coincidir en el orden)17.
Cuando en un cierto grado se dan estas diferencias entre los alumnos, su razn F es
significativa, es decir, la diversidad entre los alumnos (su varianza) es superior a lo
meramente aleatorio: las diferencias entre los alumnos no son casuales, es que evalan de
distinta manera. Pero esto no quiere decir que no diferencien adecuadamente a unos
profesores de otros: coinciden en el orden en que sitan a sus profesores; en identificar al
menos, segn su propio juicio, a los mejores y peores profesores. Esto es lo que significa una
fiabilidad alta de los alumnos: coincidencia bsica en diferenciar a unos profesores de otros;
en este sentido decimos que los alumnos son unnimes, aunque naturalmente esta unanimidad
no lo es en sentido propio (la fiabilidad admite grados; en un caso como ste, si la fiabilidad
es alta, diramos que hay suficiente convergencia o grado de acuerdo en sus juicios).
Este ejemplo es aplicable a cualquier otra situacin, y algo anlogo sucede con la
fiabilidad de los tests (y exmenes). Los tems, cuando se suman en una puntuacin total,
pueden diferenciar adecuadamente a los sujetos; unos tienden a puntuar sistemticamente ms
alto en todos ellos, otros ms bajo, etc.; pero esto no quiere decir que los tems sean de
parecida dificultad. Una fiabilidad alta en un test querra decir que los tems estn
bsicamente de acuerdo (como si fueran jueces) cuando diferencian (ordenan, con ms
propiedad) a unos sujetos de otros. En el apartado siguiente aclaramos ms, con un ejemplo,
la relacin entre el anlisis de varianza y la fiabilidad de tests y escalas.
5.2.4. Anlisis de varianza para muestras relacionadas y el coeficiente de Cronbach

Es importante ver la relacin existente entre estos coeficientes de fiabilidad derivados


directamente del anlisis de varianza, y el ms conocido coeficiente de consistencia interna
de Cronbach, que utilizamos habitualmente para calcular la fiabilidad de tests y escalas. Se
trata de lo mismo, aunque cuando nos referimos a la fiabilidad de los tests lo explicamos
desde otra perspectiva18.
Qu significa la fiabilidad convencional de tests y escalas tambin podemos entenderlo a
travs del anlisis de varianza como ya ha quedado explicado anteriormente al inicio de este
apartado19; en la situacin 1 veamos cmo los tems de un supuesto test eran consistentes
cuando diferenciaban a los sujetos. Ahora lo vamos a ver con un ejemplo. Los datos son
ficticios, pero nos permiten visualizar cmo ambos procedimientos nos llevan al mismo
resultado.
En este ejemplo (tabla 6) tenemos las respuestas de cuatro sujetos a un test compuesto
por seis tems.

17 Un coeficiente de correlacin alto entre dos elementos quiere decir que los sujetos los ordenan de manera
semejante, pero no que tengan valores absolutos semejantes.
18 Un tratamiento ms completo de la fiabilidad de los tests en Morales (2008, captulo 6).
19 La relacin entre fiabilidad y anlisis de varianza la puso de relieve ya hace aos Hoyt (1941, 1952) y est bien
explicada en Rosenthal y Rosnow (1991:55) y en Nunnally y Bernstein (1994:274)

Anlisis de varianza para muestras relacionadas

18

tems
sujetos
a
b
c
d
media
desviacin

n 1
6
6
3
4
4.75
1.29

n 2
6
5
3
3
4.25
1.29

n 3
5
5
2
2
3.50
1.50

n 4
4
4
3
1
3.00
1.225

n 5
6
3
4
1
3.50
1.80

n 6
6
5
4
2
4.25
1.48

total
33
28
19
13
23.25
7.758

Tabla 6
Estos son los datos que solemos tener cuando analizamos un test: el total de cada sujeto
y la media y desviacin tpica de cada tem.
Vamos a calcular en primer lugar el coeficiente de Cronbach con la frmula usual:

= (

k
k 1

) (1-

2i
2t

)= (

1.29 2 + 1.292 + 1.502 +1.2252 +1.80 2 + 1.482


6
) (1)
6 1
7.7582
= (1.2) (1 -

12.509
60.1865

) =.95

Hacemos ahora, con los mismos datos, un anlisis de varianza para muestras
relacionadas con estos resultados (tabla 7):

origen de la
variacin
tems
Sujetos
tems x sujetos

Total

Suma de
Cuadrados
8.375
40.125
10.125
58.625

Grados de
libertad
5
3
15
23
Tabla 7

Cuadrados
F
medios
1.675
2.482 p>.05
13.375
19.81 p <.05
.675

La varianza significativa es la que corresponde a los sujetos; son los sujetos los que
difieren entre s y no los tems entre s; ahora bien, si los sujetos difieren entre s es porque los
tems establecen diferencias entre los sujetos como si se tratara de jueces cuyas opiniones
coinciden (en este ejemplo, tabla 6, puede verse a simple vista).
Ya sabemos cmo cuantificar esta fiabilidad de los tems (de las columnas en este caso,
frmula [4]):
CMfilas - CMerror 13.375 .675
rcc =
=
= .95
CM filas
13.375
Hemos llegado al mismo valor del coeficiente de Cronbach. Esta fiabilidad de los
tems es lo que denominamos consistencia interna. Si los tems fueran unos jueces diramos
que los tems juzgan de manera semejante a los sujetos; de esta consistencia interna
deduciremos que miden lo mismo, aunque en esta deduccin puede haber otras fuentes de
error en las que no entramos aqu20.

20 Esta consistencia interna es puramente emprica; de hecho los tems ordenan de manera semejante a los sujetos,

Anlisis de varianza para muestras relacionadas

19

Habitualmente calculamos la fiabilidad de los tests y escalas mediante el clculo directo


del coeficiente de Cronbach, pero posiblemente es desde el anlisis de varianza como se
entiende mejor qu es lo que cuantifican estos coeficientes.
6. Un ejemplo de anlisis de varianza para muestras relacionadas
6.1. Anlisis de varianza

En el ejemplo que nos ha servido para introducir el anlisis de varianza para muestras
relacionadas (o emparejadas) tenamos en las columnas (variable independiente) cuatro
profesores que han calificado a los mismos alumnos (filas). El inters en este ejemplo era
verificar que no haba diferencias significativas entre los profesores y ver la fiabilidad o
grado de acuerdo de los profesores al evaluar a los mismos alumnos. Ahora presentamos otro
ejemplo en el que el inters va en otra direccin: verificar las diferencias entre las columnas
(condiciones experimentales) y la fiabilidad o grado de acuerdo de los sujetos (filas)
diferenciando unas columnas de otras. Este ejemplo es semejante al presentado en la situacin
1 (apartado 5.2.2) y lo exponemos con cierto detalle y con un caso real porque puede sugerir
otros planteamientos parecidos.
En una residencia de estudiantes (chicas) se pregunta a 10 residentes por sus
preferencias a la hora de realizar 7 tareas distintas (ayudar en la limpieza de los baos, la sala
de estar, sala de estudio, atender el telfono, barrer el pasillo, ayudar en lavadero y en la
cocina).
Las respuestas valorativas van desde 1 (no me gusta nada) a 6 (me gusta mucho)21. En
la tabla 8 figuran las respuestas de las residentes, la media y desviacin tpica (de la muestra,
dividiendo por N) de cada columna o tarea y el total de cada alumna al sumar todas sus
respuestas.
residentes

1. Bao

2. Sala de
estar

3. Sala de
estudio

1
2
3
4
5
6
7
8
9
10

1
1
3
1
3
2
1
1
1
1
1.5
.806

2
2
1
2
2
1
2
2
4
2
2
.775

3
3
1
2
1
1
2
2
3
2
2
.775

M columnas
columnas

4.
Telfono

5
6
5
3
5
1
3
4
5
4
4.1
1.375
Tabla 8

5. Pasillo

6.
Lavadero

7. Cocina

Total
filas

5
1
5
2
2
2
5
2
6
5
3.5
1.113

3
2
4
4
4
3
4
6
2
4
3.6
1.345

2
6
4
4
3
2
3
3
6
4
3.7
1.345

21
21
23
18
20
12
20
20
27
22

pero esto no quiere decir necesariamente que conceptualmente midan un mismo rasgo bien definido; un grupo de nios de
diversas edades pueden quedar ordenados de manera semejante en peso y altura, sin que esto quiera decir que peso y altura
midan lo mismo.
21 De un trabajo de Sara Lozano, alumna de 2 de Psicopedagoga, curso 1998-1999

Anlisis de varianza para muestras relacionadas

20

La tabla de resultados del anlisis de varianza (EXCEL) la tenemos en la tabla 9.


origen de la
variacin
filas
(residentes)
columnas
(tareas)
interaccin
(error)
total

SC
numerador

gl
denominador

CM = SC/gl
(varianza)

F crtico
( = .05)

18.629

2.070

1.401

0.211

2.059

65.086

10.848

7.343

0.000

2.272

79.771
163.486

54
69

1.477
Tabla 9

Observamos que:
La F de las filas no es estadsticamente significativa; las diferencias entre las alumnas
estn dentro de lo aleatorio.
Aqu conviene tener claro en qu no difieren las alumnas: no difieren significativamente
en sus totales (si sumamos a cada una todas sus respuestas) o en sus medias. A simple vista se
detectan diferencias que parecen grandes (la ms baja es 12 y la ms alta es 27) pero con tan
pocos sujetos cualquier diferencia entre dos sujetos tiene una probabilidad de ocurrir
aleatoriamente superior al 5%. En cualquier caso esta F de las filas no tiene aqu inters
interpretativo; nuestro inters est en verificar si hay diferencias entre las columnas (entre las
tareas)..
La F de las columnas s es estadsticamente significativa; entre las tareas hay
diferencias superiores a lo que podemos esperar por azar.
Tenemos el problema de la condicin de esfericidad que no hemos comprobado (s se
comprueba en el SPSS) y que no suele cumplirse. En este caso ya hemos visto que los grados
de libertad ms seguros y conservadores al consultar las tablas de la razn F son 1 y N-1 (en
este caso 1 y 9). Con un nivel de confianza de = .05 y grados de libertad 1 y 9 vemos en las
tablas que el valor de F que necesitamos es de 5.12 y el nuestro (7.343) es superior por lo que
podemos rechazar la Hiptesis Nula y afirmar que existen diferencias significativas entre las
tareas.
6.2. Coeficientes de fiabilidad y 2

Si las tareas difieren entre s es porque hay un cierto grado de acuerdo entre las
residentes al valorar de distinta manera las tareas que tienen que compartir; este grado de
acuerdo es la fiabilidad de las filas (frmula [6]):
rff =

CM columnas CM error
10.848 1.477
=
= .86
CM columnas
10.848

Podemos afirmar que el grado de acuerdo de las residentes al diferenciar unas tareas de
otras es apreciablemente grande.
La fiabilidad de las columnas (tareas) diferenciando a las filas (sujetos) no tiene
especial inters pero es ilustrativo calcular este coeficiente (frmula [4])
rcc =

CM filas CM error
2.070 1.477
=
= .29
CM filas
2.070

Anlisis de varianza para muestras relacionadas

21

Obviamente es un coeficiente muy bajo; lo que tiene inters es caer en la cuenta de cul
hubiera sido nuestra interpretacin si la fiabilidad de las columnas al diferenciar a las filas
hubiera sido alta. Este coeficiente es el mismo coeficiente de Cronbach; si hubiese sido
relativamente alto estaramos ante un test o escala de actitud de servicio o de gusto por este
tipo de tareas en general, pero vemos que no es ste el caso.
Los coeficientes 2 son coherentes con los resultados vistos (frmulas [1] y [2]
eliminando la raz cuadrada):
Proporcin de varianza en la variable dependiente (respuestas de los sujetos) explicada
por diferencias:
entre las tareas:

2
columnas
=

entre los sujetos:

2filas =

SC columnas
65.086
=
= .398
SC total
163.486

SC filas
SC total

65.086
= .114
163.486

Casi el 40% de la varianza est explicado por diferencias entre las tareas y poco ms del
11 % por diferencias entre los sujetos. El coeficiente 2parcial (frmula [3] sin la raz cuadrada)
es igual a .449: aproximadamente un 45% de la varianza (diferencias en las respuestas) queda
explicado por las diferencias entre tareas teniendo en cuenta solamente estas diferencias entre
tareas y prescindiendo de los errores de medicin (que en este caso equivalen a las
peculiaridades individuales manifestadas en las respuestas).
6.3. Contrastes posteriores y representacin grfica

En este caso hemos hecho los contrastes posteriores (de Tuckey, con el SPSS). Las
cuatro tareas con medias mayores (telfono, cocina, lavadero y pasillo) no se diferencian
significativamente entre s, pero estas cuatro tareas s tienen diferencias estadsticamente
significativas con las tres tareas con medias ms bajas (sala de estar, sala de estudio y bao)
que entre s tampoco difieren. Tenemos dos bloques de tareas claramente diferenciados; con
ms sujetos s podran haber aparecido ms diferencias significativas.
Una manera de presentar estos resultados es como aparecen en la figura 1: se ponen por
orden las tareas y sus medias y se subrayan las que no difieren entre s.
4. Telfono

7. Cocina

6. Lavadero

5. Pasillo

2. Sala de estar

3. Sala de estudio

1.Bao

4.1

3.7

3.6

3.5

2.0

2.0

1.5

Figura 1
Aunque no se hagan los contrastes posteriores s es til presentar alguna figura
semejante en la que aparezcan las tareas ordenadas segn sus medias. La razn F de las tareas
que es estadsticamente significativa y la alta fiabilidad o grado de acuerdo de los sujetos
diferenciando unas tareas de otras ya es suficiente para hacer una interpretacin de los
resultados.
En este ejemplo los sujetos han valorado el gusto por una serie de tareas; es fcil intuir
la utilidad de este modelo de anlisis de varianza; en vez de tareas podran ser otras variables
de inters pertenecientes al mismo mbito conceptual para que tenga sentido la comparacin
o establecer una jerarqua (experiencias, valores, motivaciones, etc.). Tambin puede tratarse
Anlisis de varianza para muestras relacionadas

22

de la misma variable en ocasiones sucesivas o medidas despus de pasar por experiencias


distintas (en el ejemplo expuesto los sujetos se limitan a responder a un cuestionario, no
despus de realizar una determinada tarea). En la introduccin ya se han expuesto diversos
planteamientos susceptibles de ser analizados con este modelo de anlisis de varianza.
7. Anlisis de varianza para muestras relacionadas en EXCEL y en el SPSS
EXCEL. Este anlisis de varianza lo tenemos en Herramientas - Anlisis de datos Anlisis de varianza de dos factores con una muestra por grupo.

Nos da solamente los datos descriptivos y la tabla de resultados; no incluye contrastes


posteriores, ni los otros coeficientes (fiabilidad, 2) ya expuestos.

Una cautela. Al sealar los datos (dispuestos en columnas) hay que seleccionar tambin
una columna adicional a la izquierda de la tabla (que se puede intercalar y se deja en blanco)
porque esta primera columna se interpreta como rtulos (que en las filas no suelen interesar).
SPSS. En el SPSS este modelo de anlisis de varianza se encuentra en analizar y all en
modelo lineal general, en medidas repetidas. Este anlisis de varianza es ms complejo y hay
que acudir a manuales especficos (como Pardo Merino y Ruz Daz, 2005; Ximnez y San
Martn (2000). El SPSS no presenta la tabla de resultados convencional por lo que, si interesa
presentar esta tabla de resultados, se puede hacer fcilmente con EXCEL. El SPSS calcula los
contrastes posteriores pero no los coeficientes de fiabilidad (muy sencillos, como hemos
visto, a partir de la informacin de la tabla de resultados).
8. El anlisis de varianza para muestras relacionadas en Internet.

En Internet disponemos al menos de este programa:


LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar
College, Poughkeepsie, NY, USA; One-Way Analysis of Variance for Independent or
Correlated Samples http://faculty.vassar.edu/lowry/anova1u.html;
Est en la misma pgina en la que est el anlisis de varianza para muestras
independientes. Tiene all mismo una versin en espaol. Hay que introducir (o copiar y
pegar) todos los datos. Una limitacin de este programa es que no admite mas de cinco
variables o columnas.
En el cuadro de dilogo hay que indicar el nmero de muestras (de columnas) y escoger
Correlated samples. Este programa tiene los contrastes posteriores de Tukey (la diferencia
mnima necesaria para afirmar que es estadsticamente significativa); en este sentido este
programa es preferible a EXCEL, al menos si interesan los contrastes posteriores. No calcula
los coeficientes de fiabilidad, pero con la frmula a la vista se calculan muy fcilmente con
una calculadora.
9. Referencias bibliogrficas

DOWNIE, N.M. y HEATH, R.W., (1971). Mtodos estadsticos aplicados. Madrid: Ediciones
del Castillo
GARCA PREZ, J.F.; FRAS NAVARRO, M.D. y LLOBELL, J. PASCUAL (1999). Los diseos de
la experimentacin experimental, comprobacin de hiptesis. Valencia: C.S.V.
GIRDEN, ELLEN R., (1992). Anova repeated measures. Quantitative Applications in the Social
Sciences. Newbury Park & London: Sage

Anlisis de varianza para muestras relacionadas

23

GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,


Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
HOYT, C.J., (1941). Test Reliability Estimated by Analysis of Variance. Psychometrika, 3,
153-160.
HOYT, C.J., (1952). Estimation of Test Reliability for Un-Restricted Item Scoring Methods.
Educational and Psychological Measurement, 12, 752-758.
JACCARD, JAMES (1998). Interaction Effects in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LLOVEL, J. PASCUAL; FRAS, DOLORES y GARCA, FERNANDO (1996). Manual de psicologa
experimental. Barcelona: Ariel.
MORALES VALLEJO, PEDRO (2008). Estadstica aplicada a las Ciencias Sociales. Madrid:
Universidad Pontificia Comillas.
NUNNALLY, JUM C. and BERNSTEIN, IRA H. (1994). Psychometric Theory, 3rd. ed., New
York, McGraw-Hill.
PARDO MERINO, A. y RUZ DAZ, M.A. (2005). Anlisis de datos con SPSS 13 Base. Madrid:
McGraw Hill.
PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical
Journal 1998; 316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236
ROSENTHAL, ROBERT and ROSNOW, RALPH L. (1991). Essentials of Behavioral Research,
Methods and Data Analysis. Boston: McGraw-Hill.
TOOTHAKER, LARRY E. and MILLER, LISA (1995), Introductory Statistics for the Behavioral
Sciences, 2nd edit., Pacific Grove, Brooks/Cole, 706pp.
WADDINGTON, CHRISTOPHER (2000). Estudio comparativo de diferentes mtodos de
evaluacin de traduccin general (Ingls-Espaol). Madrid: Universidad Pontificia
Comillas.
XIMNEZ, CARMEN y SAN MARTN, RAFAEL (2000). Anlisis de Varianza con medidas
repetidas. Madrid: La Muralla.

Anlisis de varianza para muestras relacionadas

Anlisis de varianza con dos criterios de


clasificacin (diseos factoriales)
Pedro Morales Vallejo
Universidad Pontificia Comillas
Facultad de Ciencias Humanas y Sociales
(ltima revisin: 2 de Diciembre, 2009)

ndice
1. Planteamiento general y conceptos previos.........................................................
1.1. Clasificacin de los sujetos en dos categoras .............................................
1.2. Qu pretendemos comprobar........................................................................
1.3. Importancia de la interaccin.......................................................................
1.4. Caractersticas de la muestra .......................................................................
1.5. Nmero de sujetos en cada clasificacin......................................................
1.5.1. Nmero idntico de sujetos en cada clasificacin..............................
1.5.2. El nmero de sujetos en trminos absolutos ......................................
1.6. Importancia del tipo de categoras de clasificacin.....................................

3
3
3
4
5
5
6
7
7

2. Mtodo.................................................................................................................
2.1. Disposicin de los datos ...............................................................................
2.2. Visin global del proceso .............................................................................
2.3. Clculos previos............................................................................................
2.4. Clculos propios del anlisis de varianza .....................................................
2.4.1. Sumas de Cuadrados ...........................................................................
2.4.2. Grados de libertad ...............................................................................
2.4.3. Varianzas o Cuadrados Medios...........................................................
2.4.4. Comparacin o contraste de varianzas (razn F) ................................
2.4.5. Resultados finales: tabla de resultados................................................
2.4.6. Interpretacin ......................................................................................
2.4.7. Resumen del procedimiento ................................................................

8
8
9
10
11
11
12
12
13
14
14
15

3. Anlisis adicionales .............................................................................................


3.1. Coeficientes de asociacin............................................................................
3.1.1. Coeficiente 2 .....................................................................................
3.1.2. Coeficiente 2 ......................................................................................
3.2. Contrastes posteriores ...................................................................................
3.2.1. Contraste entre las medias de niveles del mismo factor ......................
3.2.2. Contraste entre las medias dentro del mismo nivel de un factor
(cuando la interaccin es significativa).................................................
3.3. El tamao del efecto en los diseos factoriales ............................................
3.3.1. Cuando el factor secundario es una variable manipulada.....................
3.3.2. Cuando el factor secundario es una caracterstica natural
de la poblacin ....................................................................................

15
16
16
17
18
19
22
24
24
24

4. La representacin grfica de los resultados como ayuda


a la interpretacin en los diseos factoriales .......................................................

26

5. Anlisis de varianza para diseos factoriales en EXCEL y SPSS .......................

28

6. Referencias bibliogrficas ....................................................................................

29

Anexo. Anlisis de Varianza (diseos factoriales) en Internet ................................

29

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

1. Planteamiento general y conceptos previos


1. 1. Clasificacin de los sujetos en dos categoras
La disposicin de los datos al clasificar a los sujetos es importante, no slo como
ilustracin, sino porque contribuye a entender lo que estamos haciendo.
Se clasifican los sujetos segn dos variables o categoras de clasificacin (que suelen
denominarse factores) en un cuadro de doble entrada. En el ejemplo sugerido en la tabla 1 los
factores son a) actividades didcticas y b) la duracin de estas actividades. La variable
dependiente (la que medimos a los sujetos) sera en este caso nivel de aprendizaje. Los
factores o criterios de clasificacin pueden ser ms de dos, pero en la presentacin del mtodo
nos limitamos a dos nada ms1. Cada uno de los dos factores est dividido en dos o ms
niveles o subcategoras. Dada la disposicin de los datos, tambin suele hablarse de filas y
columnas (en este caso hay tantas filas y columnas cuantos niveles tengan los factores).
Un ejemplo tpico podra ser el puesto en la tabla 1; clasificamos a los sujetos segn dos
criterios:
a) Factor A: segn hayan participado en una determinada actividad. Este factor tiene
dos niveles; suponemos que se trata de dos actividades distintas, o dos variantes de la
misma actividad.
b) Factor B: segn el tiempo que haya durado esta actividad; en este factor de duracin
suponemos tres niveles o duraciones distintas.
Factor A (actividades)
A1
A2
Factor B
(duracin)

20 minutos B1
40 minutos B2
una hora
B3
Tabla 1

En cada clasificacin tenemos el mismo nmero de sujetos. Con esta misma disposicin
de los datos se pueden visualizar muchos posibles diseos experimentales utilizando otros
criterios de clasificacin.
1.2. Qu pretendemos comprobar
Lo que pretendemos comprobar es en qu grado las diferencias que encontremos en la
variable dependiente (la que hemos medido, en este caso puede ser rendimiento escolar) se
explican por las diferencias entre las actividades, o por las diferencias entre los tiempos, o por
alguna combinacin actividad-duracin.
Analizamos por lo tanto tres posibles fuentes de diferencias:

1 Con slo dos criterios de clasificacin, el planteamiento ms frecuente, el mtodo que proponemos es muy sencillo,
sin ms ayuda que una calculadora con la media y desviacin tpica programadas; adems en procesos de aprendizaje ayuda
a entender lo que estamos haciendo. Con ms de dos criterios de clasificacin se puede adaptar y utilizar el mismo
procedimiento pero es preferible acudir directamente a programas de ordenador; los resultados son fciles de interpretar si se
ha aprendido antes a resolver e interpretar el planteamiento con dos criterios de clasificacin. El anlisis de varianza factorial
se puede tambin hacer con EXCEL, SPSS y programas disponibles en Internet (mencionamos algunos en el Anexo).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

a) Una actividad puede ser ms eficaz que otra, independientemente de su duracin,


b) Una duracin puede ser ms eficaz que otra en cualquier actividad,
c) Una actividad puede ser ms eficaz que otra, pero solamente si dura en determinado
tiempo.
Podemos formular por lo tanto tres Hiptesis Nulas (formuladas en referencia al caso
planteado en la tabla 1):
1 Las dos muestras que han seguido actividades distintas proceden de la misma
poblacin (no hay diferencia significativa entre las actividades; no se aprende ms con
una que con otra).
2 Las tres muestras que han trabajado durante tiempos de distinta duracin proceden de
la misma poblacin (no hay diferencia significativa entre las duraciones).
3 Las seis muestras que han trabajado en actividades distintas y con duraciones distintas
proceden de la misma poblacin (no hay diferencias significativas entre los diversos
subgrupos en los que se combinan actividad-duracin).
Tendremos que calcular tres varianzas que corresponden a las tres fuentes de
diferencias, y una cuarta varianza que expresa la variabilidad normal o aleatoria, y que nos
servir como trmino de comparacin de las otras varianzas (denominador de la razn F).
Consecuentemente al final del proceso tendremos tres razones F que nos permitirn aceptar o
no aceptar las tres Hiptesis Nulas.
Como en el anlisis de varianza en general, lo que verificamos es la relacin que puede
haber entre la variable dependiente (la caracterstica de los sujetos que hemos medido) y los
criterios que nos han servido para clasificar a los sujetos.
Una manera posible de analizar estos datos sera considerar que tenemos 6 grupos de
muestras independientes y utilizar un anlisis de varianza de una clasificacin simple para
varias muestras independientes. Pero en este caso, si obtuvisemos una F significativa que nos
indicara que hay diferencias entre los grupos, no sabramos si atribuirla a que las actividades
son distintas, o a que las distintas duraciones producen resultados distintos, o a que
determinadas combinaciones actividad-duracin son ms eficaces que otras. Los resultados
podran ser ambiguos o difciles de interpretar con precisin.
1.3. Importancia de la interaccin
Otra manera de enfocar la solucin es hacer dos anlisis de varianza: uno para comparar
las dos actividades (nos bastara en este ejemplo un simple contraste de medias ya que se trata
solamente de dos actividades) y otro para comparar las tres duraciones. Pero nos quedaramos
sin saber la importancia de la relacin actividad-duracin. Esta relacin es la que
denominamos genricamente interaccin. En nuestro ejemplo puede ser que una actividad sea
preferible, produzca mejores resultados, pero solamente si tiene una duracin ptima. En
general en la investigacin educacional o psicolgica la interaccin puede tener mucha
importancia.
Con frecuencia lo que tenemos es:
1. Un factor denominado principal que es el objeto principal de nuestro estudio (en
nuestro ejemplo distintas actividades);
2. Otro factor cuyos niveles suelen ser circunstancias o condiciones que pueden afectar a
los niveles del factor principal; por ejemplo duraciones distintas, con o sin alguna
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

circunstancia, distintas variantes, tipos de sujetos, dosis; tambin puede tratarse de


agrupaciones naturales de lo sujetos (por ejemplo gnero, lugar de procedencia, grupo tnico,
etc.).
Un mtodo (experiencia, actividad, terapia, etc.) puede ser mejor en unas circunstancias,
pero en otras puede ser tan bueno o malo como los dems (circunstancias posibles que pueden
modificar los resultados en la evaluacin de unas actividades: medios auxiliares, tiempo
dedicado, hora del da o poca del ao, etc.). Podemos pensar que de manera anloga algunas
medicinas son mejores para unos pacientes que para otros, o pueden estar contraindicadas en
determinadas personas, o pueden ser incompatibles con otros medicamentos se trata
tambin de interacciones: los efectos de un tratamiento pueden depender del nivel de una
segunda variable. Podemos pensar en semillas de una planta: una variedad puede producir una
mayor produccin pero solamente en un determinado tipo de suelo, o con un determinado
fertilizante, o una determinada cantidad de riego o de exposicin solar, etc.2
Es fcil ver que este planteamiento tiene una especial utilidad precisamente porque
permite analizar las interacciones. Tambin es verdad que cuando la interaccin es
significativa la interpretacin puede ser menos simple; hay que matizar ms las conclusiones.
1.4. Caractersticas de la muestra
a) En este planteamiento todos los sujetos son distintos Se trata por lo tanto de muestras
independientes; no hay sujetos repetidos en ms de un grupo (otras variantes de este mismo
modelo, con los sujetos clasificados en dos o ms factores, son vlidas para muestras
relacionadas, pero no es ste el caso que presentamos ahora).
b) En un diseo experimental en sentido propio los sujetos deben ser asignados
aleatoriamente a las distintas condiciones experimentales para poder controlar otras variables.
Los sujetos, por ejemplo alumnos, han sido asignados aleatoriamente a cada uno de los
subgrupos para poder generalizar los resultados (controlamos de esta manera otras variables
extraas que pueden influir en la variable dependiente que hemos medido). Si no hay
asignacin aleatoria no se trata de un diseo experimental en sentido propio. La aleatoriedad
permitir generalizar las conclusiones (validez externa) a otros sujetos de la misma poblacin
(representados por esta muestra) con una mayor seguridad.
Si no hay asignacin aleatoria de los sujetos a los grupos, caben otros modos de
controlar variables con otros diseos (con sujetos igualados en variables importantes, o
utilizando diseos ms complejos). En muchas investigaciones (o simplemente en estudios
experimentales) la no aleatoriedad es casi la norma (por su facilidad: se trabaja con grupos
hechos o disponibles). Estos anlisis (que no responden a un diseo experimental en sentido
propio) son tambin tiles, pero hay que preguntarse siempre qu otras cosas pueden estar
influyendo en la variable dependiente, y tener ms cautela en la interpretacin y sobre todo en
la extrapolacin de los resultados.
1.5. Nmero de sujetos en cada clasificacin
Con respecto al nmero de sujetos hay que distinguir dos cuestiones distintas, a) la
conveniencia de disponer de un nmero idntico de sujetos en cada clasificacin, y b) el
nmero de sujetos en trminos absolutos en cada clasificacin (en cada celda).
2 Precisamente este tipo de diseos tuvieron su origen en la investigacin en el campo de experimentacin agrcola y
de la biologa en general.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

1.5.1. Nmero idntico de sujetos en cada clasificacin


En este modelo de anlisis de varianza debe de haber el mismo nmero de sujetos en
cada clasificacin; el mtodo es as ms potente aunque no se cumplan los presupuestos de
normalidad en la poblacin y de homogeneidad de varianzas. El mtodo resulta adems
mucho ms sencillo y tal como lo explicamos aqu suponemos siempre que el nmero de
sujetos es el mismo.
El distinto nmero de sujetos en cada clasificacin deja de ser problemtico cuando las
frecuencias en cada clasificacin son proporcionales. Nmeros proporcionales quiere decir lo
mismo que las frecuencias tericas o esperadas en los planteamientos de ji cuadrado (aun as
advertimos que el procedimiento que expondremos supone un idntico nmero de sujetos en
cada clasificacin; con grupos de idntico tamao el procedimiento es adems ms sencillo).
Cuando el nmero de sujetos es desigual, los procedimientos sugeridos para igualar el
nmero de sujetos son varios:
1 Descartar sujetos aleatoriamente.
Con muestras razonablemente grandes la recomendacin habitual es descartar
aleatoriamente datos para obtener frecuencias iguales3 (tambin se pueden descartar
observaciones para conseguir frecuencias proporcionales). Esta recomendacin es aplicable
en principio a cualquier planteamiento de anlisis de varianza porque, como ya hemos
indicado, con un nmero idntico de sujetos en cada grupo pierde importancia la violacin de
normalidad y de homogeneidad de varianzas.
El desechar sujetos debe hacerse de manera estrictamente aleatoria; la condicin que
indican los autores mencionados es que el nmero mnimo de sujetos por celda no sea inferior
a 10, ms o menos.
2 Estimar las puntuaciones que faltan.
Si en algn caso falta algn sujeto en una celda (es normal la prdida de sujetos en
planteamientos experimentales) se pueden estimar las puntuaciones que faltan (missing
scores) poniendo en su lugar la media de la celda; esta prctica no afecta apenas a los
resultados si los sujetos por celda son al menos 10. Con este procedimiento se pueden estimar
entre un 10 y un 25% de los datos.4
3 Utilizar las medias
Si utilizamos las medias de cada subgrupo en vez de las puntuaciones individuales,
tendremos en cada clasificacin n = 1, y tambin se puede llevar a cabo este anlisis de
varianza (diseos factoriales) con un solo sujeto en cada clasificacin. En principio este tipo
de solucin no es deseable porque supone mucha prdida de informacin, pero tampoco
conviene descartar esta posibilidad porque puede tener su inters en s misma. Al tratar de las
variantes de los diseos factoriales trataremos este caso especfico en el que podemos utilizar
medias (y consecuentemente, n = 1 en cada celda) en vez de puntuaciones individuales. En
este caso el procedimiento viene a ser el mismo que el anlisis de vainas para muestrs
relacionadas.

3 Por ejemplo Glass y Stanley (1974:439); Escotet (1980:84-85); Linton, Gallo y Logan (1975:131).
4 Linton, Gallo y Logan (1975:131). Cuando los dos factores tienen idntico nmero de niveles (como en el diseo
denominado cuadrado latino que no explicamos aqu) hay una frmula especfica para estimar el valor de las puntuaciones
que nos faltan; puede verse en Tejedor (1984:236).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

1.5.2. Nmero de sujetos en trminos absolutos


El nmero de sujetos necesario (o conveniente) en cada clasificacin depende de varias
variables. Nos referimos a tablas nxn (dos criterios de clasificacin). En trminos generales
necesitaremos ms sujetos a) cuando los niveles de cada factor son menos (necesitamos ms
sujetos en tablas 2x2 que en tablas 4x4) y b) la magnitud de las diferencias en la que estamos
interesados; si queremos detectar diferencias pequeas nos harn falta muchos ms sujetos
que si slo estamos interesados en diferencias grandes.
Como criterio orientador, y si se trata de detectar diferencias entre moderadas y
grandes (ciertamente no pequeas) podemos pensar en el nmero de sujetos en cada
clasificacin que figura en la tabla 2.
Magnitud de la tabla
2x2
2x3
2x4
3x3
3x4
4x4

Nmero de sujetos
entre
13 y 32
entre
11 y 26
entre
9 y 22
entre
7 y 18
entre
6 y 15
entre
5 y 12
Tabla 2

Para detectar con seguridad diferencias pequeas (y por lo general de menor inters) son
necesarios muchos ms sujetos5.
1.6. Importancia del tipo de categoras de clasificacin
Tratando de diseos factoriales es importante recordar que las categoras de
clasificacin (variables independientes) pueden ser:
a) Fijas (escogidas segn criterio del investigador),
b) Aleatorias (escogidas aleatoriamente de una poblacin mayor);
c) Mixtas (una categora fija y otra aleatoria).
Del hecho de que las categoras sean fijas o aleatorias:
1. No depende el mtodo que vamos a seguir, que es el mismo;
2. S depende la generalizacin de las conclusiones, que ser mayor con categoras
aleatorias. Con categoras fijas, las conclusiones son aplicables en principio a las
categoras empleadas.
3. S va a depender el denominador de la razn F empleado en cada caso, como
veremos despus (en la tabla 4).
En el caso de categoras fijas (el ms frecuente) el denominador va a ser siempre el
mismo que ya hemos visto en el anlisis de varianza para varias muestras independientes (es
decir, los cuadrados medios dentro de los grupos), por lo que esta distincin entre tipos de
categoras no es en principio especialmente importante. Se trata sin embargo de conceptos que
conviene recordar y que a la vez sugieren posibilidades de investigacin. En investigacin
educacional (y de otro tipo) podemos tener categoras aleatorias si tenemos, como factor o

5 El nmero de sujetos en cada clasificacin lo tratamos en el anexo VI y tambin en el documento Tamao de la


muestra: Cuntos sujetos necesitamos? http://www.upco.es/personal/peter/investigacion/Tama%F1oMuestra.pdf. Estos
criterios orientadores estn adaptados de las extensas tablas de Kirk (1995:401 y tabla E.15).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

categora de clasificacin, centros, aulas, profesores, etc., seleccionados aleatoriamente de una


poblacin mayor.
Es importante caer en la cuenta que son las categoras de clasificacin, y no los sujetos,
las que pueden ser o no ser escogidas aleatoriamente. Los sujetos, cuyos resultados (variable
dependiente) se van a analizar, deben asignarse aleatoriamente a los diversos subgrupos si se
pretende que el diseo se aproxime ms a lo experimental. Con muestras aleatorias es ms
legtimo generalizar las conclusiones a la poblacin porque as se controlan otras variables
desconocidas que podran contaminar o explicar los resultados.
2. Mtodo
2.1. Disposicin de los datos
En el ejemplo que nos va a servir para exponer el mtodo6 tenemos dos factores (tabla
3):
1. Factor A (mtodos) dividido en tres niveles (tres variantes metodolgicas).
2. Factor B (profesores) dividido en cuatro niveles (cuatro profesores).
En la tabla 3 aparecen los datos de los sujetos segn pertenezcan a un profesor (B1, B2,
B3 y B4) y a un mtodo determinado (A1, A2 y A3).
En este hipottico caso consideramos que ambas categoras son fijas: los mtodos han
sido escogidos con criterios lgicos y los profesores suponemos que son simplemente los que
estaban disponibles para participar en una investigacin; no han sido escogidos
aleatoriamente de una poblacin mayor de profesores.
Tenemos por lo tanto 12 combinaciones profesor-mtodo. En cada combinacin hay
cinco alumnos
Es conveniente disponer los datos con claridad, en un cuadro de doble entrada segn los
dos criterios de clasificacin, en el que aparezcan las puntuaciones directas de todos los
sujetos, tal como aparece en la tabla 3. Incluso haciendo todos los clculos con un programa
de ordenador, es til tener in mente, en ste y otros modelos de anlisis de varianza, cmo se
disponen los datos.

6 Los datos los tomamos del ejemplo que presentan Guilford y Fruchter (1973) para explicar este modelo de anlisis
de varianza (el procedimiento que seguimos aqu es distinto, semejante a los ya vistos); modificamos la designacin de las
variables para utilizar trminos que nos resultan ms familiares (mtodos y profesores).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

profesores
(factor B)

Media
desviacin

MA1B3 = 7
1.414
9
6
8
8
9
MA1B4 = 8
1.095

mtodos (factor A)
A2
4
1
5
2
3
MA2B1 = 3
1.414
6
6
2
3
8
MA2B2 = 5
2.191
9
4
8
4
5
MA2B3 = 6
2.098
7
8
4
7
4
MA2B4 = 6
1.673

MA3B1 = 2
1.095
3
1
1
2
3
MA3B2 = 2
.894
6
4
3
8
4
MA3B3 = 5
1.789
6
5
7
9
8
MA3B4 = 7
1.414

Medias de los mtodos


(A)

MA1 = 6

MA2 = 5

MA3 = 4

A1
6
4
2
6
2

Profesor B1
Media
desviacin

MA1B1 = 4
1.789
8
3
7
5
2
MA1B2 = 5
2.280

Profesor B2
Media
desviacin

7
6
9
8
5

Profesor B3
Media
desviacin

Profesor B4

A3
4
2
2
1
1

Medias de B

MB1 = 3

MB2= 4

MB3 = 6

MB4 = 7

Media y total
Mt = 5
t = 2.4966

Tabla 3
2.2. Visin global del proceso
Los clculos que vamos a hacer los dividimos en tres tipos: clculos previos, anlisis de
varianza en sentido propio y anlisis complementarios.
1 Clculos previos
Van a ser los mismos que en otros procedimientos anlogos (medias, desviaciones,
varianza de medias)
El clculo de las desviaciones tpicas de las medias puede parecer poco usual, pero ya
hemos visto que simplifica mucho las operaciones y ahorra tiempo si no se utiliza
directamente un programa de ordenador. Ya hemos indicado adems en otra ocasin que
propiamente no se trata de calcular desviaciones o varianzas de medias, sino de todos los
sujetos, pero asignndoles como puntuacin individual la media de su grupo; como los grupos
son de idntico tamao basta calcular la desviacin de las medias. Estos clculos se hacen con
rapidez con una calculadora corriente con programacin estadstica o utilizando una hoja de
clculo.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

10

2 Clculos especficos del anlisis de varianza.


A partir de los clculos precedentes (desviaciones tpicas de medias) se calculan con
facilidad las Sumas de Cuadrados, que suele ser lo ms laborioso en el anlisis de varianza, y
el resto de las operaciones.
3 Anlisis complementarios.
Frecuentemente van a ser coeficientes de asociacin para ver la importancia relativa de
las distintas fuentes de varianza; tambin podemos hacer los contrastes posteriores que
resulten de inters (con sus correspondientes tamaos del efecto).
Desde el comienzo debemos tener a la vista la tabla de resultados (tabla 5), que es
semejante a las que encontramos en otros modelos de anlisis de varianza.
Ms adelante presentamos un resumen de todo el procedimiento de anlisis (tabla 6), y
puede resultar til verlo desde el principio, ya que es semejante a otros procedimientos de
anlisis de varianza con los que ya estamos familiarizados.
Aunque vamos a explicar el proceso de manera muy pormenorizada, se puede ver de un
golpe de vista observando la tabla 4 (datos y clculos previos ya hechos) y la tabla 6 (tabla de
resultados con las frmulas incluidas); estas dos tablas pueden ser suficientes, como
referencia, para llevar a cabo todo el proceso.
El proceso completo, lo que vamos a hacer o podemos hacer, lo sintetizamos de esta
manera:
1. Anlisis de varianza propiamente dicho, que nos va decir qu fuentes de variacin son
estadsticamente significativas (razones F).
2. Coeficientes del tipo 2 o 2 que nos van a permitir apreciar la relevancia e
importancia prctica de los resultados.
3. Representacin grfica de los resultados como ayuda a la interpretacin; ya veremos
cmo hacerla.
4. Contrastes posteriores en el caso de que sean necesarios o nos parezcan convenientes,
y el tamao del efecto al comparar dos medias entre s..
5. Interpretacin global de los resultados, incluyendo valoraciones e interpretaciones
cualitativas, conclusiones, etc.
2.3. Clculos previos
Estos clculos previos facilitan los clculos de las Sumas de Cuadrados. Se trata
simplemente del clculo de medias y desviaciones tpicas (suponemos que estos clculos se
hacen al menos con calculadora programada.
1 Clculo de medias y desviaciones
En la tabla 3 tenemos ya calculadas estas medias y desviaciones:
1) Media y desviacin de cada uno de los subgrupos (de las 12 combinaciones AB)
2) Media de cada columna (tres medias; mtodos, factor A)
3) Media de cada fila (cuatro medias; profesores, factor B)
4) Media y desviacin de los totales (de los 60 datos)

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

11

La desviacin tpica de todos los datos (de N) en realidad no nos es necesaria; es til
para calcular la suma de cuadrados total, que es igual a la suma de las otras sumas de
cuadrados. Esta suma de cuadrados total nos permite comprobar que las otra sumas de
cuadrados estn bien hechas.
La media total (de N = 60; media de las medias de A o de B) tampoco nos es necesaria;
es til si vamos a calcular la desviacin tpica de los totales siguiendo el procedimiento
explicado en el Anexo III.
2 Clculo de varianzas de medias
Estas varianzas (calculadas dividiendo por N, no por N-1) nos van a simplificar el
clculo de las sumas de cuadrados (en realidad ya sabemos que se trata de varianzas
calculadas en toda la muestra, pero asignando a cada sujeto no la puntuacin obtenida sino la
media de su grupo; al tratarse de grupos de idntico tamao nos basta calcular las varianzas de
las medias).
1) Varianza de las medias de los niveles del factor A 2MA = .8162=
(mtodos, tres medias):
2) Varianza de las medias de los niveles del factor B 2MB = 1.5812 =
(profesores, cuatro medias):

0.8858
2.50

3) Varianza de las medias de todas las combinaciones AxB 2MAxB = 1.8712 = 3.50
(doce medias)
Si tenemos desde el principio una visin global del proceso, podemos ir directamente al
clculo de las Sumas de Cuadrados, que veremos enseguida. Los resultados se pueden ir
poniendo directamente en la tabla de resultados (tabla 5). En casi todos los casos se trata de
multiplicar las varianzas de las series de medias por el nmero total (N) de sujetos.
2.4. Clculos propios del anlisis de varianza
2.4.1. Sumas de Cuadrados (SC)
A partir de los datos que ya tenemos vamos a hacer todos los clculos del anlisis de
varianza que aparecern en la tabla 5 (tabla de resultados), pero que iremos presentando por
partes. En la prctica, y segn vamos calculando las varianzas necesarias, podemos ir
directamente a la tabla de resultados, pues las operaciones que vamos a hacer son muy
sencillas (resumidas en la tabla 6).
Para calcular las diversas varianzas (o Cuadrados Medios, CM) necesitamos calcular el
numerador (o Suma de Cuadrados) y el denominador (o Grados de Libertad, gl).
Las Sumas de Cuadrados las calculamos multiplicando las varianzas (las desviaciones ya
calculadas elevadas al cuadrado) por el nmero total de sujetos, ya que todos ellos
contribuyen a todas las varianzas (en este caso N = 60):
Sumas de Cuadrados (o numerador) correspondiente a la varianza de:
1. El total

SCt = N t

= (60)(2.4966)2 =

2. Factor A (mtodos)

SCA= N 2A

= (60)(.816)2 =

40

3. Factor B (profesores)

SCB = N 2B

= (60)(1.581)2 =

150

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

374

12

4. Interaccin entre los dos factores, o variabilidad (diferencias en los resultados)


debida a las diversas combinaciones entre profesores y mtodos y que simbolizamos
como AxB,
2

SCAxB = N AxB - (SCA+ SCB)

= (60)(1.871)2 - (150 + 40) =

20

5. Dentro de los grupos, o residual; variabilidad dentro de los 12 subgrupos una vez
eliminada la variabilidad debida a los mtodos, a los profesores y a la interaccin
entre mtodos y profesores.
Esta varianza residual es la varianza dentro de los grupos (de todas las combinaciones
AB).
Podemos calcularla de dos maneras:
1) A partir de la suma de cuadrados del total
SCdentro = SCt - (SCA + SCB + SCAxB) = 374 - (150 + 40 + 20) =

164

2) Esta suma de cuadrados dentro de los grupos tambin se puede calcular


directamente, y puede servir de comprobacin, a partir de las varianzas dentro de
los grupos (12 en este ejemplo) si las hemos calculado previamente7: se suman y se
multiplica esta suma por el nmero de sujetos que hay en cada grupo:
SCdentro= n(12 + 22 + 2n )
Las frmulas para calcular las Sumas de Cuadrados (o numeradores de las varianzas)
estn puestas tambin en la tabla 6.
Podemos comprobar que la suma de las sumas de cuadrados parciales es igual a la
suma de cuadrados total; simplemente hemos descompuesto el numerador de la varianza
total.
2.4.2. Grados de libertad (gl)

Los grados de libertad van a ser el denominador de cada varianza. El determinar los
grados de libertad que corresponden a cada varianza es muy sencillo:
1. Del factor A (mtodos)
2. Del factor B (profesores)
3. De la interaccin (AxB)
4. Dentro de los grupos
5. Del total

A-1 =
B-1 =
(A-1)(B-1) =
N -k =
N-1=

(3-1) =
(4-1) =
(3-1)(4-1) =
(60 12) =
(60-1) =

2
3
6
48
59

Podemos verificar que los grados de libertad del total es igual a la suma de todos los
dems.
2.4.3. Varianzas o Cuadrados Medios (CM)

Dividiendo la Suma de Cuadrados por los Grados de Libertad tenemos las diversas
varianzas en las que hemos descompuesto la varianza total, tal como estn ya calculadas en la

7 Recordamos que la suma de las varianzas se calcula con rapidez introduciendo en la calculadora (con
programacin estadstica) todas las desviaciones tpicas; la suma de las varianzas la obtenemos en la funcin x2

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

13

tabla 5, y que muestra los resultados finales del anlisis de varianza. Normalmente es la nica
tabla que se presenta pues all estn los datos que permitirn interpretar las conclusiones.
Como en el caso de varias muestras independientes, si hubiramos calculado en los 12
subgrupos las desviaciones tpicas dividiendo por N-1, los cuadrados medios dentro de los
grupos (denominador de la razn F) es simplemente la varianza media de los grupos
( 2n-1 /k) .
2.4.4. Comparacin o contraste de varianzas (razn F)

Finalmente comparamos las varianzas de inters (las de los factores y su interaccin)


con la varianza que podemos considerar como aleatoria, para comprobar qu fuentes de
varianza podemos considerar significativas o superiores a lo que se puede esperar por azar.
En estos planteamientos tenemos tres fuentes de varianza que nos interesa examinar:
1) La varianza debida al factor A (mtodos)
2) La varianza debida al factor B (profesores)
3) La varianza debida a la interaccin entre los dos factores (A x B).
Es decir, deseamos calibrar cul es el influjo de las dos variables que hemos utilizado
para clasificar a los sujetos (y que genricamente llamamos aqu factor A y factor B, en este
caso mtodos y profesores), y tambin el influjo de la relacin entre las dos variables. En una
palabra: entre los sujetos tenemos diferencias (varianza, expresada en la varianza total), y nos
preguntamos Cules de estas tres fuentes de diferencias son importantes, por encima de lo
puramente casual?
Estas tres varianzas van a ser el numerador de otros tantos clculos de la razn F. El
denominador ser el trmino de comparacin. Compararemos cada una de las tres varianzas
con la varianza que podamos considerar como aleatoria, la que hubiramos encontrado de no
existir lo especfico de los mtodos, los profesores y su interaccin que es precisamente lo
que estamos investigando. sta es la varianza que hemos denominado antes dentro de los
grupos, y que quizs con ms propiedad puede denominarse varianza residual. Sin embargo
esto no es siempre as, el trmino apropiado de comparacin va a depender de que las
categoras de clasificacin sean fijas, aleatorias o mixtas. En la tabla 4 exponemos cual debe
ser el denominador de la razn F8.
En nuestro ejemplo se trata de un modelo de categoras fijas, por lo que en todos los
casos el denominador o trmino de comparacin ser CMdentro o la varianza (Cuadrados
Medios) dentro de los grupos o residual. Si en este ejemplo los profesores hubieran sido
escogidos aleatoriamente de un conjunto mayor, el factor B sera una categora aleatoria, pero
suponemos que se trata de los profesores que estaban disponibles para hacer esta
investigacin.

8 La justificacin puede verse en Guilford y Fruchter (1973:257)

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

14

Numerador, o varianza cuya


significacin deseamos comprobar

Denominador (varianza
aleatoria), o trmino de
comparacin del numerador

Modelo de categoras fijas

CMA............................................................................
CMB ............................................................................
CMdentro en todos los casos
CMAxB .......................................................................

Modelo de categoras aleatorias

CMA ................................................. CMAxB


CMB ................................................. CMAxB
CMAxB ............................................. CMdentro

Modelo de categoras mixtas

CM de la categora aleatoria ............ CMdentro


CM de la categora fija .................... CMAxB
CMAxB .............................................. CMdentro

Tabla 4, denominador de la razn F


2.4.5. Resultados finales: tabla de resultados

Los resultados finales del anlisis de varianza se ponen en una tabla, tal como lo
hacemos ahora en la tabla 5.
Origen de la
variacin

SC
numerador

gl
denominador

CM = 2 =

Factor A
(mtodos)

40

40

factor B
(profesores)

150

interaccin
AxB

20

dentro de los
grupos

164

total

374

gl

= 20

150

3
20

48

6
164
48

SC

= 50

= 3.32

F=
20
3.42

50

= 5.85

< .01

= 14.50

< .01

= .97

no sign.

3.42
3.32

3.42

= 3.42

59

Tabla 5
2.4.6. Interpretacin

1. La varianza debida a la combinacin profesor-mtodo es prcticamente nula; la


variabilidad (diferencias) en los resultados no se debe a determinadas combinaciones
profesor-mtodo (no hay profesores que funcionen especialmente mejor o peor que los dems
con un determinado mtodo).
2. Las varianzas originadas tanto por los profesores como por los mtodos son ambas
significativas; si hay diferencias es porque los profesores son distintos y tambin porque los
mtodos son distintos. Hay profesores ms eficaces (con cualquier mtodo) y mtodos ms
eficaces (con cualquier profesor).
3. La mayor variabilidad se debe con mucho a los profesores (factor B),
independientemente del mtodo que utilicen. Sin embargo si lo que se deseaba probar era que
los mtodos son distintos en eficacia, que no da lo mismo uno que otro, esto puede darse por
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

15

probado, porque la varianza de los mtodos (factor A) es significativamente superior a cero


(hemos obtenido una F= 5.85 y el valor necesario que vemos en las tablas de la F es 5.08).
Aun as el peso de los profesores, en los resultados finales, parece mayor que el de los
mtodos. Para analizar e interpretar mejor los resultados haremos despus algn clculo
adicional.
2.4.7. Resumen del procedimiento

El procedimiento puede parecer a primera vista un tanto complejo, pero si se examina


paso a paso se advierte enseguida su simplicidad.
La tabla 6 puede ser una referencia de uso cmodo para hacer todos los clculos con
rapidez, si estamos familiarizados con los smbolos :
N=
n=
2MA =
2MB =

2
MAxB

Nmero total de sujetos


Nmero de sujetos en cada grupo
Varianza de las medias del factor A (medias de las tres columnas)
Varianza de las medias del factor B (medias de las cuatro filas)

Varianza de las medias de todos los subgrupos (medias de los doce


subgrupos)
Suma de las varianzas de todos los subgrupos
Varianza de los totales (de todos los sujetos como si se tratara de un solo
grupo)

2dentro =
2t =

tabla de resultados:
Origen de la
variabilidad

Suma de Cuadrados

Grados de
libertad

Factor A

SCA = N 2MA =

A-1=

Factor B

SCB = N 2MB =

B-1=

AxB
SCAxB = N 2MAB - (SCA + SCB) =
(interaccin AxB)
error, dentro de
los grupos

SCdentro = n 2dentro =

Cuadrados
Razn F
Medios

(A-1)(B-1)
=
N-k=

N-1=

Variabilidad total SCtotal = N t =

Tabla 6
3. Anlisis adicionales

Vamos a distinguir dos tipos de anlisis complementarios:


1 Coeficientes de asociacin,
2 Contrastes entre medias, con sus correspondientes tamaos del efecto
Veremos adems cmo hacer una representacin grfica de los resultados, que es muy
til como ayuda a la interpretacin y para comunicar los resultados. No hay que hacer siempre
todo lo que es posible hacer, sino lo que aporte en cada planteamiento informacin til.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

16

3.1. Coeficientes de asociacin

Una razn F significativa nos indica que una determinada fuente de varianza (que
corresponde a la variable puesta en el numerador de la razn F) se relaciona con las
diferencias en la variable dependiente (la que hemos medido en los sujetos) ms de lo que
cabra esperar por azar: la variabilidad observada en la variable dependiente se puede atribuir
a las variables del numerador de la razn F. Sin embargo no es fcil comparar entre s dos F
significativas; aunque sus valores sean muy distintos tambin lo son los grados de libertad.
Con frecuencia es suficiente comprobar la proporcin de varianza atribuible a cada
variable (o a su interaccin si resulta significativa). Esto nos lo indica el coeficiente 2 o el
coeficiente 2 (sus valores oscilan entre 0 y 1).
3.1.1. Coeficiente 2

Las frmulas del coeficiente 2 estn indicadas en la tabla 7, junto con los resultados
correspondientes a este ejemplo (podemos observar que el denominador es siempre el
mismo).
Estimacin de la
proporcin de
varianza atribuible a:

Valor del coeficiente 2

Resultados (en este ejemplo)

Factor A
(mtodos)

2 =

SC A - (A - 1)(CM dentro )
CM dentro + SC total

[1]

2 =

Factor B
(profesores)

2 =

SC B - (B- 1)(CM dentro )


CM dentro + SC total

[2]

2 =

La interaccin
(AxB)

2 =

SC AxB - (A -1)(B -1)(CM dentro )


[3]
CM dentro + SC total

40 ( 2)(3.42)
3.42 + 374
150 (3)(3.42)
3.42 + 374

= .088
= .370

2 = 20( 2)(3)(3.42) =-.001


3.42+374

Tabla 7
Si algn valor de 2 es negativo se interpreta como cero.
Estas frmulas son apropiadas solamente cuando:
1 El nmero de sujetos es el mismo en cada clasificacin
2 Se trata de muestras independientes
3 En diseos o anlisis de categoras fijas (como suele ser frecuente).
En este ejemplo podemos ver que una proporcin apreciable de la varianza del factor B
(los profesores) est asociada a la variable dependiente (las puntuaciones analizadas). La
proporcin de varianza correspondiente al factor A (mtodos) es muy pequea. Estas
proporciones se comparan entre s y se interpretan mejor que si slo disponemos de los
valores de la razn F. Si este ejemplo fuera real concluiramos que la fuente importante de
varianza (de las diferencias en lo que hayamos medido) est sobre todo en los profesores, no
tanto en los diversos mtodos. Ahora podramos simplemente fijarnos en las medias de los
distintos profesores (o de los mtodos si fuera se el caso).
La proporcin de varianza que se puede atribuir a la interaccin puede considerarse
igual a cero, ya que su F correspondiente no llega a 1.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

17

Este coeficiente 2 no es extrapolable; solamente se refiere a los datos analizados, y


slo puede utilizarse con las categoras fijas. Si se trata de categoras aleatorias (y si una de
ellas es aleatoria tambin lo es la interaccin a estos efectos) las frmulas que se utilizan son
las mismas del anlisis de varianza para varias muestras relacionadas.
3.1.2. Coeficiente 2

2 = SC x
SC total

Tambin puede utilizarse el coeficiente 2

[4]

SCx simboliza cualquier suma de cuadrados (de los factores y de la interaccin). El


valor de 2 tiene un sesgo positivo y suele ser bastante mayor que el de 2 por lo que no son
comparables entre s.
En nuestro ejemplo tenemos:

2 (A) =
2 (B) =
2 (AxB) =

40
= .106
374
150
= .40
374

20
= .053
374

Una variante de inters de este coeficiente es eta al cuadrado parcial, que nos indica la
proporcin de varianza asociada a un factor (o a la interaccin) neutralizando la varianza
debida a otras fuentes (otros factores o su interaccin)9:
2 parcial =

SC x
SC x + SC dentro

[5]

Si deseamos conocer la proporcin de varianza asociada al factor B (profesores)


prescindiendo del influjo del mtodo, tenemos:
2 (B) parcial=

150
= .477
150 + 164

Observamos que ahora 2 correspondiente a B (profesores) es ligeramente mayor si


neutralizamos el efecto del mtodo (como si todos fueran igualmente eficaces).
Estos coeficientes (2 o 2) se deberan utilizar rutinariamente como complemento al
anlisis de varianza. Resultados (valores de F) estadsticamente significativos son compatibles
con una relacin muy baja entre la variable independiente y la variable dependiente. Si la
variable independiente explica menos del 5% de la varianza de la variable dependiente, se
trata de una relacin muy baja aunque sea real (no casual).
Para valorar las magnitudes de estos coeficientes ya se dieron algunas indicaciones a
propsito del anlisis de varianza para varias muestras independientes; en cualquier caso
siempre se pueden comparar entre s los coeficientes dentro de un mismo planteamiento.
Resultados significativos pero que explican una proporcin de varianza muy baja, pueden
indicar que quizs habra que refinar la metodologa (si se trata de un diseo experimental); o

9 Jaccard (1998:38). En el mismo lugar pueden verse otros coeficientes.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

18

quizs haya que redefinir los conceptos o ajustarlos ms. La proporcin de varianza explicada
en un estudio dado est afectada por la variabilidad (varianza) no controlada, debida a
variables extraas. Por esta razn ms que buscar valores absolutos altos, es ms til
comparar unos coeficientes con otros y comprobar cul es la importancia relativa de estas
fuentes de varianza.
3.2. Contrastes posteriores

Es frecuente limitarse a calcular los distintos coeficientes de asociacin (2, 2), pero
tambin podemos hacer los contrastes posteriores que sean de inters10.
Vamos a distinguir dos situaciones:
1) En tablas 2x2, cuando los criterios de clasificacin son solamente dos y cada uno est
dividido en dos niveles;
2) En tablas nxn, cuando al menos uno de los dos factores est dividido en ms de dos
categoras.
1 En tablas 2x2, con slo dos niveles en cada categora.
En estos casos los contrastes posteriores son innecesarios. Si por ejemplo la razn F del
factor A es estadsticamente, habr una diferencia clara entre sus dos niveles A1 y A2. Lo
mismo sucede con el otro factor. Si la interaccin es significativa, esto quiere decir que uno
de los dos niveles de un factor es mayor que el otro. En todos estos casos slo interesa
comparar dos medias entre s, y si la razn F es significativa, ya sabemos que una media es
significativamente mayor que la otra sin hacer ms contrastes (s nos puede interesar aadir el
tamao del efecto).
2 En tablas nxn, cuando tenemos al menos un criterio de clasificacin (o factor)
dividido en ms de dos niveles.
En estos casos s pueden hacernos falta los contrastes posteriores apropiados. En
algunos casos son estos contrastes los que permiten llegar a conclusiones ms interpretables:
cuando tenemos ms de dos niveles en alguno de los factores y la varianza correspondiente a
alguno de ellos o la de la interaccin es significativa, tendremos ms de dos medias y ser
importante ver dnde est la diferencia.
En este cuadro tenemos el planteamiento clsico de un anlisis de varianza, con dos
factores principales (A y B); el factor A est dividido en tres niveles y el factor B en dos
(tabla 8).

Factor B

B1
B2
medias de A

A1
A1B1
A1B2
A1

Factor A
A2
A2B1
A2B2
A2
Tabla 8

A3
A3B1
A3B2
A3

medias de B
B1
B2

Con este planteamiento obtenemos cuatro varianzas o cuadrados medios (de los dos
factores principales, A y B, de la interaccin, AxB, y del trmino del error o varianza dentro

10 Pueden verse en monografas ms especializadas, como Toothaker (1993).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

19

de los grupos) y tres razones F al dividir las varianzas de A, B y AB por la varianza del
trmino del error (dentro de los grupos, aleatoria). Estas razones F nos dirn si son
significativas las diferencias debidas a A, a B y a AxB (o a una combinacin entre niveles de
factores).
Los contrastes posteriores que nos pueden interesar son entre dos tipos de medias:
a) Entre distintos niveles del mismo factor
b) Entre las medias del mismo nivel de un factor.
1. Diferencias entre los diversos niveles de A o de B; es decir, diferencias entre niveles
del mismo factor.
En el esquema anterior podramos comparar A1 con A2 , etc.
A veces estas comparaciones pueden ser innecesarias cuando slo tenemos dos medias
que contrastar. Si en el esquema anterior la razn F correspondiente al factor B es
significativa, esto quiere decir, sin necesidad de ms contrastes, que entre las dos medias
correspondientes a B, B1 y B2 , existe una diferencia estadsticamente significativa, porque
slo tenemos dos medias. En cambio si la razn F correspondiente al factor A es significativa,
podemos encontrar diferencias entre A1 y A2 , entre A1 y A 3 , y entre A 2 y A 3 . En este caso
s necesitaremos hacer los contrastes posteriores si nos interesa saber entre qu niveles de A
hay una diferencia estadsticamente significativa.
2 Si la varianza (cuadrados medios) correspondiente a la interaccin es
estadsticamente significativa, nos puede interesar comparar entre s diversas combinaciones
de AB.
Tenemos 6 combinaciones distintas de AB, de donde nos salen 15 posibles
comparaciones [(6 x 5)/2], aunque ya veremos que en este caso nos interesa hacer menos
comparaciones de las que es posible hacer.
3.2.1. Contraste entre las medias de niveles del mismo factor

Cuando la razn F correspondiente a uno o a los dos factores es estadsticamente


significativa nos puede interesar comparar los diversos niveles de A entre s ( A1 , A2 , etc.). El
procedimiento que exponemos es el adecuado para hacer estas comparaciones, pero no lo es
para comparar una media de un nivel de A con otra de otro nivel B (y tampoco suele ser de
especial inters).
Hay que advertir que si la interaccin es estadsticamente significativa, estas
comparaciones pueden no interesar. Concluir con un este mtodo es mejor que otro sin aadir
pero slo en esta condicin o con este grupo, no es decir mucho, e incluso puede inducir a
error. Y es eso lo que quiere decir que la interaccin es significativa: que entre los niveles de
un factor hay diferencias (por ejemplo entre A1 y A2), pero no en general, sino en un nivel del
otro factor (por ejemplo, A1 y A2 difieren en B2 pero no en B1).
Para comparar entre s las medias de los distintos niveles de un factor tenemos los
mismos procedimientos ya vistos para varias muestras independientes (Scheff, Tukey, etc.),
pues estamos en ese caso. Posiblemente el contraste ms comn es el de Tukey, y es el que
recomiendan algunos autores en esta situacin (Toothaker, 1990):

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

20

q=

M1 -M 2
CM dentro
n

[6]

Podemos tambin calcular la Diferencia Estadsticamente Significativa (DHS),


despejando la diferencia entre las medias en la frmula [6].
a) n es el nmero de datos (o de sujetos) que sumamos para calcular cada media y no el
nmero de sujetos que hay en cada clasificacin. Naturalmente en las dos medias que
contrastamos el nmero de sujetos es el mismo. En estos planteamientos de anlisis de
varianza (diseos factoriales, dos o ms criterios de clasificacin) el nmero de sujetos en
cada clasificacin es el mismo. Si en este ejemplo tuviramos cuatro sujetos en cada
clasificacin (cuatro en A1B1 y cuatro en A1B2), el n de la frmula [6] sera ocho (si estamos
comparando A1 con A 2 ).
b) El valor de q resultante lo consultamos en las tablas de q (rango estudentizado)
teniendo en cuenta cul es el nmero de medias (k) y cuntos son los grados de libertad aqu.
1 El nmero de medias (k) es el nmero de niveles del factor correspondiente. Si
estamos en este ejemplo comparando entre s las medias de A, k = 3, porque tenemos
tres medias en el factor A.
2 CMdentro es, como siempre en estos casos, el valor de los cuadrados medios del error
o dentro de los grupos; lo que es distinto son los grados de libertad para consultar las
tablas de q.
Los grados de libertad para consultar las tablas de q son igual a N-ab
N:

es el nmero total de sujetos. Si en cada clasificacin tenemos cuatro sujetos,


como tenemos seis clasificaciones, aqu tendramos N = 4 x 6 = 24 sujetos

ayb

son el nmero de niveles (o subdivisiones) de los factores A y B. En este caso a


= 3 y b = 2. Si tuviramos N = 24, los grados de libertad seran 24 - (2x3) = 18.
En las tablas buscaremos 18 grados de libertad (si no figuran en las tablas estos
grados de libertad, buscamos el nmero inmediatamente inferior que
encontremos). En realidad, y como en otros casos semejantes, los grados de
libertad son (n-1) o N - k (k nmero de grupos; ab es el nmero de grupos).

Vamos a verlo con un ejemplo.


En el ejemplo que nos ha servido para explicar este modelo de anlisis de varianza
(tabla 3) hemos visto que la F correspondiente a los mtodos (factor A) es estadsticamente
significativa. Tenemos tres medias de A y entre estas tres medias habr diferencias
estadsticamente significativas. Vamos a comparar la media de A1 (= 6) con la media de A3 (=
4).
q=

64
M A1 - MA2
=
= 4.83
CM dentro
3.42
20
n

3.42 son los cuadrados medios dentro (tabla 5) y 20 es el nmero de sujetos utilizados
para calcular estas medias.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

21

En las tablas buscaremos el valor que corresponde a k = 3 (porque tenemos tres medias
de A) y grados de libertad = 48 [N-ab = 60- (3x4)]. En los tablas no aparecen los 48 grados de
libertad; nos quedamos con el nmero inmediatamente inferior, 40.
Para k = 3 y 40 grados de libertad vemos estos valores de q: 3.44 (.05) y 4.37 (.01); en
nuestro caso con q = 4.83 tenemos que p <.01, por lo que podemos afirmar la diferencia entre
estas medias con mucha seguridad; el que la diferencia sea grande es una cuestin distinta
(ms adelante tratamos del tamao del efecto). Si comparamos A1 con A2 o A2 con A3
tendremos que q = 2.42 y p > .05.
Una observacin sobre procedimientos alternativos.

En textos y manuales de estadstica aparecen a veces frmulas aparentemente distintas


pero que son equivalentes y nos pueden confundir.
Por ejemplo, para este mismo contraste de medias podemos encontrar esta frmula
(Toothaker, 1993):
M1 - M2
t' =
[7]
CM dentro
x2
n

Aqu se calcula un valor de t'; la diferencia con la frmula de q [6] es ese "x 2" que
aparece en el denominador de [7].
En este caso tendramos que calcular los valores crticos de t', como en ocasiones
semejantes, y que son:
q
Valores crticos de t' =
[8]
2
El valor de q es el que venga en las tablas (para = .05 y gl = N - ab, como antes).
6- 4
= 3.42
Aplicando los datos anteriores tenemos que t' =
3.42
x2
20
Ahora tenemos que hallar los valores crticos de t: para p = .05, t=

3.44
= 2.43
2

para p = .01, t =

4.37
= 3.09
2

Con t= 3.42, nuestra conclusin es la misma (p<.01). Posiblemente es ms cmodo


calcular directamente el valor de q y consultar las tablas.
Tambin podemos calcular directamente el valor de la diferencia necesaria (diferencia
crtica) para rechazar la Hiptesis Nula; la que Tukey denomina diferencia honestamente
significativa. Para esto, en la frmula de q, nos basta despejar la diferencia del numerador y
sustituir q por el valor que venga en las tablas:
Diferencia crtica = q

CM dentro
n

[9]

En este caso, para localizar el valor de q en las tablas, tanto el valor de k (nmero de
grupos o de medias) como el de los grados de libertad son los indicados anteriormente.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

22

3.2.2. Contraste entre las medias dentro del mismo nivel de un factor (cuando la
interaccin es significativa)

Lo expuesto hasta ahora es el procedimiento para verificar si hay diferencias


significativas entre las medias de los distintos niveles (medias de columnas entre s y medias
de filas entre s). Pero tambin nos pueden interesar otras comparaciones.
El comparar entre s las distintas medias que encontramos en los diversos niveles de
cualquier factor nos interesa cuando la interaccin es significativa: un mtodo puede ser
superior a otro, pero solamente con una determinada duracin, o un medicamento puede ser
superior a otro, pero solamente en una determinada dosis o una determinada etapa de la
enfermedad, etc.
Vamos a suponer que A1, A2 y A3 son tres grupos de alumnos divididos segn la edad
(tres edades o cursos distintos) y B1 y B2 son dos actividades didcticas (tabla 9, idntica a la
tabla 8):

Factor B
mtodo 1 (B1)
(mtodos)
mtodo 2 (B2)
medias de los cursos (A)

1 (A1)
A1B1
A1B2

A1

Factor A (cursos)
2 (A2)
3 (A3)
A2B1
A3B1
A2B2
A3B2

A2
Tabla 9

medias de los mtodos (B)

mtodo 1 ( B1 )
mtodo 2 ( B2 )

A3

Supongamos que llegamos a esta conclusin: la razn F correspondiente al factor B


(mtodo o actividad) es significativa. Esto puede querer decir que un mtodo, por ejemplo B2,
es mejor que el otro, B1. Si la interaccin no es significativa, la interpretacin es que B2 es
mejor independientemente del curso (edad) de los alumnos.
Suponemos ahora que adems del factor mtodos (B) tambin la interaccin es
significativa: en este caso el concluir simplemente que B2 es mejor que B1 no es decir mucho:
es mejor pero segn con qu alumnos. En este caso nos interesar contrastar las tres medias de
B2 entre s para ver en qu grupo o grupos es mejor el mtodo B2 pues B2 est implicado en
los tres niveles de A: A1, A2 y A3.
Qu comparaciones interesa hacer cuando la interaccin es significativa.

Como primer paso podemos inspeccionar la representacin grfica de los resultados


(explicada en un apartado posterior) que nos aclarar la interpretacin de manera intuitiva y
nos dir dnde pueden estar las comparaciones de inters. Cuando la interaccin es
significativa, los textos de nivel bsico o intermedio suelen limitarse a recomendar la
inspeccin estas representaciones grficas (Oshima y McCarty, 2000)11.
En el esquema que nos sirve de ejemplo (A con tres niveles y B con dos), si queremos
comparar entre s todas las posibles combinaciones AB, como tenemos 6 grupos distintos
tendremos (6x5)/2 = 15 comparaciones posibles. Con cuatro niveles en un factor y tres en el
otro tendramos 12 grupos distintos y (12x11)/2 = 66 contrastes posibles. Es claro que son
muchas comparaciones y que posiblemente muchas no tienen especial inters.

11 Oshima y McCarty (2000) reconocen la falta de consenso entre autores sobre cmo hacer estos contrastes cuando
la interaccin es significativa y exponen diversos enfoques.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

23

Por lo general no nos interesan todas las comparaciones posibles; lo que s puede tener
inters, y es lo que tratamos aqu, es comparar solamente las medias dentro de un mismo
nivel: por ejemplo las comparaciones entre las tres B2. Dicho de otra manera, las
comparaciones que interesan son entre medias que pertenecen a la misma fila o a la misma
columna (filas y columnas son aqu los distintos niveles o subclasificaciones de cada factor).
Estas medias se denominan no confundidas (unconfounded) porque las diferencias entre
ellas se deben solamente a un factor. Si por ejemplo hay diferencias entre las medias de A1B1,
A2B1, y A3B1, estas diferencias se debern solamente a diferencias en A, porque mantenemos
constante B1.
En el mtodo expuesto aqu para hacer estas comparaciones suponemos que:
a) Hay un idntico nmero de sujetos en cada posible clasificacin;
b) Slo se van a comparar entre s medias que pertenecen al mismo nivel de un factor.
El procedimiento va ser el mismo visto antes, pero van a ser distintos el valor de n que
entra en la frmula y el nmero de medias (k) para consultar las tablas (propiamente lo que
cambia es el valor de k, que, como veremos, no va ser igual al nmero de medias, aunque
nmero de medias suele ser la expresin que viene en las tablas).
Frmulas:

Como antes, podemos hallar el valor de q y consultar las tablas de q, o podemos calcular
el valor de t', y ya sabemos que los valores crticos de t' son igual a q/ 2 , donde q es el valor
que venga en las tablas segn el nmero de grupos (k) y los grados de libertad
correspondientes.
Las frmulas para comparar los subgrupos de dos en dos ya las hemos visto:
M1 -M 2
los valores crticos de q los consultamos en
[6]
q=
las tablas de la manera indicada ms adelante
CM dentro
(tabla 10)
n
t' =

M1 - M 2
CM dentro
x2
n

[7]

los valores crticos de t' son =

q
2

Una observacin importante para estas dos frmulas: n es el nmero de sujetos o de


observaciones que sumamos para calcular cada media. Si en cada subclasificacin hay cuatro
sujetos, entonces n = 4. El principio es el mismo visto antes para contrastar las medias de los
niveles entre s (all n era igual al nmero de sujetos que entran en la media de cada nivel).
Para consultar las tablas de q, el nmero de medias, como hemos indicado, no es
exactamente el nmero de medias; el valor de k va a estar en funcin del tamao de la tabla.
En la prctica basta consultar la tabla 10 que hemos confeccionado para estos casos12.

12 La justificacin de esta tabla la incluimos en el anexo V, que nos puede servir para ampliar la tabla si es necesario.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

24

Tamao de la tabla
Valor de k para
de dos factores
consultar las tablas de q
2 x 2 ............................... 3
2 x 3 ............................... 5
2 x 4 ............................... 6
2 x 5 ............................... 8
3 x 3 ............................... 7
3 x 4 ............................... 8
3 x 5 ............................... 10
4 x 4 ............................... 10
4 x 5 ............................... 12
5 x 5 ............................... 15
Tabla 10
3.3. El tamao del efecto en los diseos factoriales

Adems de verificar entre qu medias tenemos una diferencia estadsticamente


significativa, podemos calcular el tamao del efecto para apreciar mejor la magnitud de la
diferencia, como hacemos en otros planteamientos. Cuando solamente tenemos dos niveles en
un factor y ste es significativo, ya sabemos que entre los dos niveles existe una diferencia
estadsticamente significativa, y sin hacer ningn contraste adicional podemos pasar
directamente al tamao del efecto.
Nos vamos a fijar en el tamao del efecto cuando comparamos dos niveles del mismo
factor; nos referimos fundamentalmente al factor que consideramos principal o de mayor
inters13. La cuestin es qu desviacin tpica podemos poner en el denominador.
Podemos distinguir dos situaciones.
3.3.1. Cuando el factor secundario es una variable manipulada

Cuando el factor secundario o no principal es una variable manipulada, introducida,


etc. por el investigador (como pueden ser modalidades, duraciones, circunstancias, etc.).
En estos casos podemos utilizar en el denominador del tamao del efecto la raz
cuadrada de los cuadrados medios dentro de los grupos de la tabla de resultados (tabla 5).
Esa desviacin tpica (recordemos que los cuadrados medios son varianzas y su raz cuadrada
una desviacin tpica) no contiene la variabilidad producida por ese factor secundario cuya
influencia en la variable dependiente mantenemos as constante. Este factor, en s mismo, no
suele tener un inters terico especial.
3.3.2. Cuando el factor secundario es una caracterstica natural de la poblacin

Otras veces el factor secundario o no principal es una caracterstica natural de la


poblacin a la cual queremos generalizar los resultados; quizs el caso ms frecuente sea el
gnero (o grupo tnico, o tipo de muestra, como clase social, etc.).
En estos casos la desviacin tpica del denominador del tamao del efecto s debe
incluir la variabilidad que se da naturalmente en ese factor. No debemos utilizar los
cuadrados medios dentro de los grupos de la tabla de resultados (tabla 5) porque sa es la

13 Un tratamiento ms amplio del tamao del efecto en el contexto del anlisis de varianza puede verse en Cortina y
Nouri (2000).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

25

varianza residual, la que queda una vez eliminado el influjo de los dos factores y de su
interaccin y nosotros queremos incluir el influjo del factor secundario.
Siempre que no queramos prescindir de la variabilidad producida por el factor
secundario debemos utilizar la raz cuadrada de los cuadrados medios dentro de los grupos
pero la que hubiremos obtenido haciendo un anlisis de varianza unifactorial solamente con
el factor principal. Esta desviacin tpica ser mayor que en el caso anterior y el tamao del
efecto no quedar sobrestimado (en cualquier caso este procedimiento es ms conservador y
en caso de duda puede ser preferible).
Para obtener estos cuadrados medios dentro de los grupos (luego utilizaremos la raz
cuadrada) tenemos dos caminos.
1 Hacer un anlisis de varianza unifactorial con slo el factor principal.
Como solamente nos interesan los cuadrados medios dentro, realmente no necesitamos
hacer el anlisis de varianza completo, podemos calcularlos directamente. Con muestras de
idntico tamao la frmula es sta:
n 2
Cuadrados Medios dentro =
Nk

n es el nmero de sujetos en cada nivel del factor


es la desviacin tpica de cada nivel del factor
k es el nmero de grupos (de niveles)

Lo vamos a ver utilizando los datos de la tabla 3; nos interesa calcular el tamao del
efecto al comparar las medias de los tres mtodos. Los datos los tenemos en la tabla 11.
n
Media

A1
A2
20
20
6
5
2.3237
2.236
Tabla 11

A3
20
4
2.5099

Si comparamos estos datos con los de la tabla 3, lo nico que hemos tenido que hacer es
calcular las desviaciones tpicas de los tres niveles de A (de las columnas), y adems caer en
la cuenta de que n = 20 (nmero de sujetos en cada mtodo).
Aplicamos la frmula de los cuadrados medios dentro:
CM dentro =

20(2.3237 2 + 2.236 2 + 5.099 2 )


= 5.859, y =
60 3

5.859 = 2.42

sta es la desviacin tpica que utilizaremos en el denominador del tamao del efecto;
entre A1 y A3 tendremos d = (6-4)/2.42 = .826 (diferencia que podemos considerar grande).
2 Clculo a partir de la tabla de resultados del anlisis de varianza
Los cuadrados medios dentro de un anlisis unifactorial hecho con los niveles del factor
principal (que es lo que nos interesa) podemos rescatarlos de la tabla de resultados del diseo
factorial que ya tenemos (tabla 5). Nos basta calcular los cuadrados medios sumando todas las
sumas de cuadrados y todos los grados de libertad excepto los correspondientes al factor
principal (A); la frmula es por lo tanto:

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

26

CM dentro =

SC B + SC AxB + SC dentro 150 + 20 + 164


=
= 5.859
gl B + gl AxB + gl dentro
3 + 6 + 48

Llegamos al mismo resultado con los dos procedimientos; ste segundo puede resultar
ms cmodo, pero es til verificar que los dos son equivalentes.
4. La representacin grfica de los resultados como ayuda a la interpretacin en los
diseos factoriales

En un diseo factorial con dos factores principales tenemos tres posibles fuentes de
variacin sistemtica: los dos factores principales, A y B, y su interaccin.
Adems de interpretar directamente los valores de F, un sencillo grfico nos puede
ayudar en la interpretacin de lo que est sucediendo y a comunicarlo con ms claridad.
Vamos verlo con unos ejemplos hipotticos. Suponemos que los dos factores principales
son:
A1

A2

Factor A: mtodo: trabajo en grupo con dos niveles o variantes:


A1 con trabajo individual antes de la discusin en grupo B1
A2 sin tarea individual antes de la tarea grupal

A1B1

A2B1

Factor B: tiempo, duracin: B1 media hora


B2 una hora

A1B2

A2B2

B2

La variable dependiente (la que hemos medido despus de las actividades) puede ser
satisfaccin por la tarea (o nivel de participacin o de aprendizaje, etc.).
En los grficos puestos a continuacin el eje de las abcisas (X) corresponde a uno de los
dos factores principales; en este caso situamos en este eje los dos niveles del factor B
(suficientemente distanciados para que el grfico quede ms claro).
El eje vertical de las ordenadas (Y) corresponde a la variable dependiente (la que
hemos medido). En este eje podemos situar algunos valores representativos (en este ejemplo
ficticio ponemos de 1 a 8).
En este espacio situamos los valores del otro factor principal, el factor A en este caso:
situamos las medias de A1 y A2 correspondientes a B1 y B2 y unimos con una recta las medias
de cada nivel (una recta representa a A1 y la otra a A2).
Por razones de claridad slo ponemos dos niveles en cada factor; naturalmente podran
ser ms. Si hubiera tres valores de A (tres niveles), tendramos tres rectas. Si tuviramos
adems tres niveles de B las rectas correspondientes a los niveles de A seran probablemente
quebradas. En cualquier caso estos grficos aaden claridad informativa y ayudan a la
interpretacin, sobre todo cuando la interaccin es significativa.
En cada extremo de las lneas que representan los dos niveles de A podramos poner sus
medias exactas, pero suele ser suficiente situar los valores en el eje vertical. Tambin se
puede prescindir de los nmeros, que se supone que adems figuran en otro lugar.
En estos ejemplos vemos:

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

27

8
7
6
5
4
3
2
1

A1 con tarea individual

A2 sin tarea individual

B2

B1
media hora

una hora

Figura 1
Figura 1. Claramente el mtodo A1 es superior al mtodo A2, cualquiera que sea la
duracin (factor B). Cuando las lneas son paralelas (o casi paralelas) es claro que la
interaccin no es significativa. Va a ser significativa la razn F correspondiente al factor A
(A1 es claramente mayor que A2). En cambio la razn F correspondiente al factor B no es
estadsticamente significativo; B1 y B2 no difieren entre s; sus medias van a ser muy
parecidas.
8
7
6
5
4
3
2
1

A1 con tarea individual

A2 sin tarea individual

B1

B2

media hora

una hora

Figura 2
Figura 2. En este caso tendramos que apenas hay diferencia entre los mtodos (factor
A), pero s las hay en el factor B, duracin de la actividad. B2 es superior a B1
independientemente de la actividad: una hora produce mejores resultados que media hora.

8
7
6
5
4
3
2
1

A1 con tarea individual

A2 sin tarea individual

B2

B1
media hora

una hora

Figura 3
Figura 3. Los dos mtodos son parecidos en B1, pero con una mayor duracin (B2) uno
de los mtodos, A1, es claramente superior. Aqu la interaccin es significativa: hay una
Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

28

combinacin AxB (A1B2) claramente superior a las otras (A1 > A2 en B2). Cuando las lneas
no son, ms o menos, paralelas, la interaccin est presente (poco o mucho).

8
7
6
5
4
3
2
1

A1 con tarea individual

A2 sin tarea individual

B1

B2

media hora

una hora

Figura 4
Figura 4. Las rectas no solamente no son paralelas, sino que se cruzan: un mtodo es
mejor con una duracin (A1 en B2) y el otro con la otra duracin (A2 en B1). La interaccin va
ser significativa e importante; la eficacia de los niveles un factor (A, los dos mtodos) est en
funcin de los niveles del otro (B). En un ejemplo como el sugerido por esta figura, la
interaccin sera la nica fuente de varianza importante.

En general cuando la interaccin es significativa tienen menor inters (o muy poco


inters) los factores tomados aisladamente aunque sus valores de F sean significativos. La
eficacia de un nivel de un factor (el que un mtodo sea mejor que otro en este caso) est
mediatizada por su relacin con el otro factor. Cuando demostramos que la interaccin es
significativa (y adems grande) es aqu donde tenemos que centrar la interpretacin. Por
ejemplo en la situacin hipottica de la figura 3. Vamos a suponer que la razn F
correspondiente a los mtodos (A) es significativa y concluimos que A1 es mejor que A2
esa conclusin no tiene mayor inters y adems puede inducir a error si no tenemos en cuenta
y dejamos claro en la interpretacin que A1 es preferible a A2 solamente en la condicin B2
Como ya hemos advertido antes, aunque todo esto podemos interpretarlo a partir de los
nmeros (valores de F, de 2, inspeccin de las medias, etc.), estos grficos contribuyen a una
mejor comprensin y comunicacin de los resultados obtenidos.
5. Anlisis de varianza para diseos factoriales en EXCEL y SPSS
EXCEL. Este modelo de anlisis de varianza lo tenemos en Herramientas - Anlisis de
datos Anlisis de Varianza de dos factores con varias muestras por grupo.

Los datos se disponen en EXCEL como en una tabla nxn convencional, poniendo
tambin los nombres o rtulos de filas y columnas. Se seala la tabla completa, incluidos los
rtulos de filas y columnas.
En el cuadro de dilogo en nmero de filas por muestra se pone el nmero de sujetos en
cada subgrupo o clasificacin. El resultado son los datos descriptivos de las muestras y la
tabla de resultados convencional, sin contrastes posteriores ni otros clculos complementarios.
SPSS. Este modelo de anlisis de varianza lo tenemos en Analizar, Modelo lineal
general, Univariante. Hay que indicar al programa qu variable va actuar como dependiente y
en factores fijos se integran las dos variables independientes que queremos estudiar.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

29

Este anlisis de varianza es complejo y conviene consultar manuales especficos (puede


verse Pardo Merino y Ruz Daz, 2005). No presenta la tabla de resultados convencional por
lo que, si interesa presentar esta tabla, se puede hacer fcilmente con EXCEL. El SPSS
calcula los contrastes posteriores y los coeficientes eta cuadrado de cada efecto.
6. Referencias bibliogrficas

CORTINA, JOSE M. and NOURI, HOSSSEIN (2000). Effect Size for ANOVA Designs.
Quantitative Applications in the Social Sciences. Thousand Oaks: Sage.
ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona:
Ceac.
GLASS, GENE V. y STANLEY, JULIAN C., (1974). Mtodos Estadsticos Aplicados a las
Ciencias Sociales. Madrid, Prentice-Hall Internacional.
GUILFORD, J. P. y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,
Mxico: McGraw-Hill. [En Ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
JACCARD, JAMES (1998). Interaction Effecs in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical
Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole.
OSHIMA, T. C. and MCCARTY, FRANCES (2000). How Should We Teach Follow-Up Tests
After Significant Interaction in Factorial Analysis of Variance? Paper presented at
American Educational Research Association, New Orleans, April 2000
http://www2.gsu.edu/~epstco/aeraMain.pdf (consultado 22, Nov., 2009).
TEJEDOR, FRANCISCO JAVIER, (1984). Anlisis de varianza aplicada a la investigacin en
pedagoga y psicologa. Madrid: Anaya
PARDO MERINO, A. y RUZ DAZ, M.A. (2005). Anlisis de datos con SPSS 13 Base. Madrid:
McGraw Hill
TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper
Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
Anexo. Anlisis de Varianza (diseos factoriales) en Internet

Adems de programas de ordenador como el SPSS y hojas de clculo como EXCEL


disponemos de programas en Internet.
LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar
College, Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html
En el menu de la izquierda en ANOVA: Two-Way Analysis of Variance for
Independent Samples.
Se trata del anlisis de varianza con dos criterios de clasificacin cada uno dividido
entre dos y cuatro niveles. Se pueden introducir los datos o se pueden copiar de una tabla.
Tambin calcula el test de Tukey para los contrastes posteriores.
En la misma direccin tambin estn programadas algunas variantes de este anlisis
factorial, como 2x2x2 ANOVA for Independent Samples (tres criterios de clasificacin con
dos niveles cada uno) y otros.

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

30

VADUM RANKIN Statistical Applets 2X2 Analysis of Variance for the statistical tests
for a 2x2 factorial design. http://www.assumption.edu/users/avadum/applets/applets.html ;
basta introducir la media, desviacin tpica (de la poblacin, dividiendo por n-1) y nmero de
sujetos de los cuatro grupos.
Estas direcciones se pueden encontrar en JOHN C. PEZZULLO'S HOME PAGE,
http://statpages.org/JCPhome.html (en Interactive Statistics Pages).

Anlisis de varianza con dos criterios de clasificacin (diseos factoriales)

Anlisis de varianza
para verificar tendencias
Pedro Morales Vallejo
Universidad Pontificia Comillas, Madrid
Facultad de Ciencias Humanas y Sociales
(ltima revisin 28 de febrero de 2009)

ndice
1. Introduccin...............................................................................................................

2. Verificacin de tendencias en muestras independientes ...........................................

2.1. Anlisis de varianza..........................................................................................

2.2. Clculo de coeficientes de correlacin .............................................................

2.3. Cuando los grupos son de distinto tamao .......................................................

2.4. Contrastes posteriores entre medias .................................................................

3. Verificacin de tendencias en muestras relacionadas ...............................................

3.1. Anlisis de varianza..........................................................................................

3.2. Contraste de medias.......................................................................................... 11


3.3. Magnitud del cambio (tamao del efecto) ..................................................... 12
3.4. Anlisis correlacionales: relacin entre cambio individual y otras variables .. 13
4. Referencias bibliogrficas ......................................................................................... 13
Anexo. Tabla de los pesos () aplicables para verificar tendencias.............................. 14

Anlisis de varianza para verificar tendencias

1. Introduccin
El anlisis de varianza para muestras independientes o para muestras relacionadas nos
dice si entre las medias de varias muestras hay diferencias significativas, pero no nos dice si
en las medias se observa una tendencia a crecer o decrecer. Es ms, al comparar varios
grupos podemos encontrarnos con una razn F no significativa que nos dice que no hay
diferencias (todas las medias proceden de la misma poblacin) cuando por simple observacin
de los datos vemos que hay una clara tendencia en las medias, que van siendo
progresivamente mayores o menores. Lo mismo puede suceder con las medias de un mismo
grupo obtenidas en ocasiones sucesivas: entre las medias puede no haber diferencias
significativas, pero s puede haber una tendencia clara y superior a lo aleatorio a aumentar o
disminuir.
Siempre que podamos ordenar los grupos con algn criterio (edad, curso, ocasiones
sucesivas, etc.) podemos comprobar si se da una tendencia lineal (linear trend) a aumentar o
disminuir; tambin podemos comprobar otras tendencias, pero ahora nos fijamos en las
tendencias lineales. Las categoras de clasificacin son por lo tanto cuantitativas, de manera
que sea posible establecer un orden numrico.
El anlisis de varianza convencional responde a una hiptesis muy genrica (si los
grupos pertenecen o no a la misma poblacin), pero podemos hacer adems preguntas ms
especficas como si se observa o no una tendencia a aumentar o disminuir superior a lo
meramente aleatorio. A esta pregunta podemos responder tambin mediante el anlisis de
varianza apropiado1.
2. Verificacin de tendencias en muestras independientes
2.1. Anlisis de varianza
Vamos a verlo con un ejemplo2. Tenemos cinco grupos ordenados de menos a ms con
un criterio claro, como puede ser la edad. En este ejemplo (datos ficticios, tabla 1) tenemos un
total de 20 sujetos (N = 20) con 4 sujetos en cada grupo (k o nmero de grupos = 5).
Tanto en este caso como con muestras relacionadas, la solucin tiene dos pasos:
1 Se resuelve el anlisis de varianza convencional (en este caso se trata de muestras
independientes),
2 Con los datos obtenidos se pasa a un segundo anlisis de varianza especfico para
verificar tendencias (entre los grupos puede no haber diferencias significativas, pero la
tendencia a aumentar o disminuir s puede ser significativa).

1 En el anexo VII mencionamos dos mtodos no paramtricos para verificar tendencias en muestras independientes
(Jonckheere) y relacionadas (Page). Existe al menos otro mtodo no paramtrico para verificar tendencias cuando n = 1
(prueba de Mann) que puede ser de especial inters para analizar terapias individuales (por ejemplo en psicologa clnica y
educacin especial).
2 El procedimiento que vamos a exponer puede verse tambin explicado y con ejemplos resueltos en bastantes textos
no elementales (como Guilford y Fruchter, 1973; Rosenthal, 1987; Kirk, 1995). A veces se advierten aparentes discrepancias
metodolgicas en los distintos autores, simplemente porque unos prefieren utilizar como dato la media de cada grupo y otros
el total de las puntuaciones de cada grupo.

Anlisis de varianza para verificar tendencias

N = 20
n=4
k=5
Media =
Desviacin (n)=
Total =

1
14
14
11
10
12.25
1.785
49

2
15
15
12
11
13.25
1.785
53

3
16
16
13
12
14.25
1.785
57
Tabla 1

4
17
17
14
13
15.25
1.785
61

5
18
18
15
14
16.25
1.785
65

Si hacemos un anlisis de varianza convencional nos encontramos con estos resultados


(tabla 2):
origen
entre los grupos
dentro de los
grupos

Suma de
Cuadrados
40
63.75

Grados de
Cuadrados
Libertad
Medios
k-1=5-1=4
40/4 = 10
N-k=
63.75/15 = 4.25
20 - 5 = 15
Tabla 2

F
2.35, p > .05

De esta tabla solamente vamos a utilizar los Cuadrados Medios dentro de los grupos
(que es el trmino del error) por lo que podemos calcularlos directamente si nicamente nos
interesa la tendencia y no nos interesa comprobar si las medias difieren significativamente
entre s:
n n2
CMdentro =
Nk

[1]

En cada grupo multiplicamos el nmero de sujetos (de cada grupo, k = 4 en este


ejemplo) por su varianza (calculada dividiendo por N, no por N-1), sumamos estos productos
y los dividimos por los grados de libertad dentro de los grupos (nmero total de sujetos menos
nmero de grupos). Si hemos calculado las desviaciones dividiendo por N-1 (n-1) el
denominador de [1] ser N.
En nuestro ejemplo, como los grupos son del mismo tamao, podemos simplificar el
numerador (n2 en vez de n2):
Cuadrados Medios dentro =

4(1.7852 + 1.7852 + 1.7852 + 1.7852 + 1.7852 )


20- 4

= 4.25

Como en casos semejantes (muestras independientes), si calculamos las varianzas de los


grupos dividiendo por N-1, los Cuadrados Medios dentro sern n 2n-1 /, y si los grupos son
de idntico tamao n 2n-1 /N.
Vemos en la tabla 2 que la razn F no es estadsticamente significativa; para 4 y 15
grados de libertad nos hara falta un valor de F = 3.06 para rechazar (no aceptar) la Hiptesis

Anlisis de varianza para verificar tendencias

Nula de no diferencia y el que hemos encontrado es F = 2.35; nuestra primera conclusin es


que las diferencias entre los grupos estn dentro de lo normal.
Este resultado contradice aparentemente lo que vemos en los datos (ejemplo ficticio).
Observamos que las medias van aumentando progresivamente, cada grupo tiene una media
mayor que el anterior. Es ms, si calculamos la correlacin entre el total (o la media) de cada
grupo y el nmero de orden del grupo (que podramos substituir por la edad media del grupo,
por ejemplo) nos encontramos con una relacin perfecta de r = 1 (en este caso N = 5 y grados
de libertad igual a N - 2 = 3).
Lo que sucede es que en el anlisis de varianza que hemos hecho se prescinde del orden
y la respuesta que obtenemos es muy genrica (hay diferencias entre los grupos?) y
realmente no corresponde a nuestra pregunta de inters: si se da o no se da una tendencia, en
este caso a aumentar progresivamente. Si ordenamos los grupos de manera diferente, el valor
de F ser el mismo, pues es independiente del orden.
La respuesta a nuestra pregunta (hay o no hay una determinada tendencia) es hacer un
anlisis de varianza que tiene en cuenta la varianza debida a la hipottica tendencia a
aumentar.
El procedimiento lo explicamos a partir de los datos de la tabla 3.

Totales T =
pesos =
T =

Grupo 1
49
-2
-98

Grupo 2
53
-1
-53

Grupo 3
57
0
0
Tabla 3

Grupo 4
61
+1
+ 61

Grupo 5
65
+2
+ 130

2 = 10
T = L = 40

Qu hemos hecho:
1 Tomamos como dato inicial los totales de cada grupo (tomados de la tabla 1). Si los
grupos son de distinto tamao, el total de cada grupo ser igual a la media del grupo
multiplicada por la media armnica del nmero de sujetos (lo aclaramos ms en el apartado
2.3).
2 Asignamos a cada grupo un peso (simbolizado por la letra griega lambda, ) que
expresa nuestra prediccin. Nuestra prediccin es que las medias van de menos a ms, por eso
los pesos asignados se corresponden con la tendencia que queremos contrastar. La condicin
para asignar estos pesos es que su suma sea igual a 0.
Si nuestra prediccin no hubiera sido una tendencia lineal (crecimiento o decrecimiento
progresivo) sino una tendencia cuadrtica (tendencia primero a aumentar y luego a disminuir,
o al revs) nuestros pesos hubieran sido +2, -1, -2, -1, +2. Estas tendencias cuadrticas tienen
la forma de o .
Los pesos () para estos contrastes segn las predicciones (lineales, cuadrticas,
cbicas) y segn el nmero de grupos (o nmero de ocasiones si se trata del mismo grupo) se
pueden encontrar en muchos textos (en el anexo ponemos los pesos para los casos ms
frecuentes (tendencias lineales y cuadrticas, entre tres y seis grupos u ocasiones).

Anlisis de varianza para verificar tendencias

3 Sumamos los pesos elevados previamente al cuadrado:

2 = (-2)2 + (-1)2 + (+1)2+ (+2)2 = 10


4 Multiplicamos cada Total por su peso (T)
5 Sumamos estos valores de T; designamos esta suma (T) con el smbolo L:
L = -98 - 53 + 61 + 130 = 40
6 Calculamos la Suma de Cuadrados correspondiente a la tendencia lineal mediante
esta frmula:
SCtendencia =

L2
(n)( 2 )

[2]

40 2
1600
= 40
=
(4)(10)
40

Cuadrados Medios (o varianza correspondiente a la tendencia):

CMtendencia =

SC tendencia
grados de lib.[= 1]

[3]

= 40

En estos contrastes los grados de libertad de la tendencia son siempre igual a 1, por lo
que la Suma de Cuadrados es igual a los Cuadrados Medios.

7 Calculamos la razn F dividiendo los Cuadrados Medios de la tendencia lineal por el


trmino del error (Cuadrados Medios dentro de los grupos) calculado antes (tabla 2):
F=

40
= 9.41
4.25

En las tablas de la razn F encontramos que para un grado de libertad en el numerador y


15 en el denominador (N-k = 20 - 5), este valor corresponde a p <.01 ( p <.001 si
consultamos tablas ms completas). Podemos afirmar con mucha seguridad que la tendencia a
aumentar que observamos dista de ser casual.
2.2. Clculo de coeficientes de correlacin
A partir de los datos ya calculados podemos calcular dos coeficientes de correlacin (r
de Pearson) entre la variable independiente (como puede ser la edad, o el nmero asignado a
cada grupo) y la variable dependiente (la que hemos medido); estos coeficientes son una
estimacin del tamao del efecto que nos permite apreciar y valorar la magnitud de la
tendencia (el coeficiente de correlacin tiene pleno sentido tratndose precisamente de una
tendencia linear).
1 Tomando el grupo como unidad (Rosenthal, 1987:141):
r=

SC tendencia
SC entre

[4]

40
=1
40

Anlisis de varianza para verificar tendencias

Llegaremos al mismo resultado si calculamos el coeficiente de correlacin entre la


media (o el total) de cada grupo y la numeracin (nmero de orden) que corresponde a cada
grupo (el sujeto o unidad es aqu el grupo, tenemos tantos sujetos como grupos). Es como si
calculramos la correlacin con todos los sujetos, pero asignando a cada sujeto, como
puntuacin individual, la media (o total) de su grupo.
2 Tomando el sujeto como unidad:
r=

o tambin r =

F
F + grados de libertad dentro

[5]

9.41
= .62
9.41 + 15

SC tendencia
SCtendencia + SC dentro

[6]

40
= .62
40 + 63.75

En los denominadores tenemos en [5] los grados de libertad dentro de los grupos o en
[6] la suma de cuadrados dentro de los grupos; quizs con ms propiedad habra que decir
grados de libertad o suma de cuadrados del trmino del error (tratndose de varias muestras
independientes el trmino del error es la varianza dentro de los grupos).
Cuando tomamos el sujeto individual como unidad los coeficientes de correlacin son
menores que cuando utilizamos los totales o medias de cada grupo (en ste y en cualquier otro
caso), sencillamente porque no prescindimos de las diferencias individuales dentro de cada
grupo.
Los dos coeficientes dan informacin distinta. Cuando nos referimos, por ejemplo, a la
correlacin entre edad y cualquier otra variable, nos referimos habitualmente a la correlacin
utilizando a cada sujeto como unidad; el utilizar la media o el total del grupo (como en [4])
tambin es til porque nos avisa sobre la tendencia de una manera muy clara. Sin embargo
estas correlaciones tomando el grupo como unidad son una estimacin pobre de la correlacin
entre el dato individual y el grupo de pertenencia (edad en este caso): aqu hemos bajado de
una perfecta relacin (r = 1) a una relacin moderada de r = .62 Como criterio general,
tomaremos al sujeto como unidad utilizando las frmulas [5] [6].

2.3. Cuando los grupos son de distinto tamao


Cuando los grupos son de distinto tamao el procedimiento es el mismo con dos
modificaciones:
1 el valor de n (nmero de sujetos en cada grupo), pasa a ser la media armnica de n:
n armnica . =

k
(1 k)

[7]

Vamos a suponer que en el ejemplo anterior los valores de n para los cinco grupos son
4, 5, 4, 6, y 5; la media armnica de n sera en este caso:

Anlisis de varianza para verificar tendencias

n armnica =

5
5
= 4.69
=
1 1 1 1 1
1.0667
+ + + +
4 5 4 6 5

2 El valor de T pasa a ser la media de cada grupo (M) multiplicada por la media
armnica del nmero de sujetos:
T = (M) (n armnica )

[8]

2.4. Contrastes posteriores entre medias


Si nos interesa podemos comparar las medias de los grupos de dos en dos, o tambin
podemos comparar una media con la media combinada de otros grupos; podemos comparar
tanto medias como medias de medias si queremos unir dos grupos o ms, teniendo en cuenta,
al aplicar la frmula, que si unimos dos grupos o ms cambiar el nmero de sujetos.
El contraste de medias lo hacemos mediante la t de Student con esta frmula3:
t=

M1 - M 2
1
1
+ CM dentro
n1 n 2

[9]

Los grados de libertad para consultar las tablas son los de los Cuadrados Medios dentro
de los grupos (trmino del error), 15 en este ejemplo.
Lo vemos con dos ejemplos:
a) Comparamos las medias de dos grupos, el 5 y el 3:
t=

16.25 14.25
1 1
+ 4.25
4 4

= 1.372 (p > .05)

b) Comparamos la media de un grupo, el 5, con la media combinada de los grupos 1,


2 y 3.
La media de los tres primeros grupos, como tienen el mismo nmero de sujetos, es igual
a la media de las medias = 13.25; el nmero de sujetos de este nuevo grupo es n = 4+4+4 =
12:
t=

16.25 13.25
1 1
+ 4.25
12 4

= 2.52 (con 15 de libertad: p < .05)

3 Es la misma frmula de los contrastes posteriores de Fisher (LSD, Least Statistical Difference).

Anlisis de varianza para verificar tendencias

De manera semejante podemos hacer otros contrastes de inters, aunque en este


planteamiento lo que suele interesar fundamentalmente es verificar si se da o no se da una
determinada tendencia: comprobar si la varianza debida a la tendencia a aumentar es superior
a la varianza del trmino del error (la varianza dentro de los grupos, que expresa la
variabilidad normal).

3. Verificacin de tendencias en muestras relacionadas


Cuando se trata de los mismos sujetos medidos en la misma variable en ocasiones
sucesivas tenemos un planteamiento semejante: podemos comprobar si una determinada
tendencia es estadsticamente significativa (superior a lo que podramos encontrar por azar).
Tenemos dos procedimientos para llegar a una respuesta:
1 Un anlisis de varianza semejante al anterior;
2 Un contraste de medias utilizando unas puntuaciones individuales de tendencia al
cambio que podemos calcular para cada sujeto.
Este segundo procedimiento es independiente del anlisis de varianza propiamente
dicho pero completa la informacin; responde a estas preguntas El cambio o evolucin
observado en nuestra muestra, se aparta significativamente de una media de cambio = 0?
Cul es la magnitud del cambio?

3.1. Anlisis de varianza


Vamos a suponer que los mismos cuatro sujetos han sido medidos en tres ocasiones
sucesivas (tabla 4).
1 ocasin 2 ocasin 3 ocasin
10
12
14
9
11
13
5
3
7
4
2
6
Total =
28
28
40
Media =
7
7
10
Desviacin =
2.55
4.527
3.535
Tabla 4
N = 12
n=4
k=3

Total
36
33
15
12

Media
12
11
5
4

Los nicos datos que necesitamos de la tabla 4 son los totales de las filas y de las
columnas, aunque tambin hemos puesto en la tabla las medias (si slo tenemos las medias,
los totales son igual a la media por nmero de sujetos).
Lo primero que vamos a hacer es un anlisis de varianza convencional para muestras
relacionadas (porque tenemos al mismo sujeto en cada fila); para calcular las sumas de
cuadrados de filas y columnas son suficientes o los totales o las medias.
Por lo que respecta a las filas (los sujetos) lo ms cmodo suele ser utilizar los totales.
En el caso de las columnas (las ocasiones en que han sido medidos los sujetos) las medias y
desviaciones son en s mismas informativas, aunque tambin podemos hacer el anlisis de
varianza a partir de los totales.

Anlisis de varianza para verificar tendencias

10

Los resultados del anlisis de varianza para muestras relacionadas estn en la tabla 5.
origen
sujetos (filas)
ocasiones (columnas)
error (fil. x col)
total

Sumas de
Cuadrados
150
24
8
182

Grados de
libertad
4 -1 = 3
3 -1 = 2
(f-1)(c-1) = 6
N -1 = 11
Tabla 5

Cuadrados
Medios
150/3 = 50
24/2 = 12
8/6 = 1.33

F
37.59, p < .01
9.02, p<.01

La varianza debida a que los sujetos (filas) son distintos es estadsticamente


significativa, pero este resultado no nos interesa especialmente. La varianza debida a las
ocasiones tambin es estadsticamente significativa; es decir, hay diferencias significativas
entre las ocasiones, pero lo que no nos dice este resultado es si la tendencia a aumentar
progresivamente es estadsticamente significativa, que es precisamente lo que queremos
verificar. Es verdad que al observar las medias podemos ver que la media que corresponde a
la tercera ocasin es la media mayor, pero con los mismos datos, si cambiamos de orden las
columnas, tendramos el mismo resultado (F estadsticamente significativa). Si nos limitamos
a este anlisis de varianza no verificamos si esta tendencia a aumentar de ocasin a ocasin
es superior a lo que podemos esperar por azar.
Para comprobar si la tendencia lineal es estadsticamente significativa hacemos un
anlisis de varianza semejante al que hemos visto con muestras independientes. Necesitamos
calcular los Cuadrados Medios (varianza) de esta tendencia para dividirlo por la varianza del
trmino del error que ya hemos calculado en el anlisis de varianza precedente (tabla 5). Los
datos los disponemos tal como figuran en la tabla 6.
ocasiones
Totales

1
28
-1
-28

2
28
0
0
Tabla 6

3
40
+1
+ 40

2 = 2
L = T = 12

Los coeficientes corresponden a una tendencia lineal (crecimiento o decrecimiento


progresivo).
La Suma de Cuadrados de esta tendencia la calculamos como antes [2]:
CMtendencia =

L2
12 2
=
= 18
(n)( 2 ) (4)( 2)

Como los grados de libertad son siempre = 1, los Cuadros Medios coinciden con la
Suma de Cuadrados. Ahora calculamos la razn F utilizando el trmino del error calculado en
el anlisis de varianza precedente (tabla 5):
F=

18
= 13.53
1.33

Para grados de libertad = 1 (numerador) y 6 (denominador) tenemos que p < .05

Anlisis de varianza para verificar tendencias

11

No solamente hemos probado que hay diferencias entre las ocasiones (primer anlisis de
varianza) sino que adems se da una tendencia lineal a aumentar progresivamente de ocasin
a ocasin.
En este ejemplo el resultado era de esperar, pues vemos que la media en la tercera
ocasin es superior a las medias de las ocasiones anteriores, pero no siempre los datos son tan
claros. Y tambin puede suceder que en el primer anlisis de varianza no tengamos resultados
significativos y s lo tengamos al verificar de manera especfica la tendencia.
Si nuestra hiptesis o prediccin fuera que la tendencia es cuadrtica (ir primero de
menos a ms y despus de ms a menos o viceversa) el procedimiento es el mismo; lo que
cambian son los pesos por los que multiplicamos los totales, que son los que expresan una
tendencia cuadrtica . En este caso los clculos seran los que figuran en la tabla 7.
ocasiones
Totales

1
28
-1
-28

2
28
+2
+ 56
Tabla 7

3
40
-1
- 40

2 = 6
L = T = -12

-12 2
= .50
Los Cuadrados Medios de la tendencia cuadrtica son =
(4)(6)

Y la razn F es igual a F =

.50
= .37
1.33

En este caso, puesto solamente como ejemplo, el resultado es obviamente no


significativo (el denominador es superior al numerador): hay diferencias entre las columnas
(ocasiones) tal como vimos en el primer anlisis de varianza para muestras relacionadas, pero
lo que no hay es una tendencia cuadrtica, sino lineal en este caso. Con los mismos datos
podemos verificar las dos tendencias.

3.2. Contraste de medias


Como anlisis complementario podemos verificar la magnitud del cambio. El proceso
que vamos a seguir es el siguiente:
1 A cada sujeto le calculamos una puntuacin individual de tendencia (de cambio
individual).
2 Calculamos la media y desviacin tpica de estas puntuaciones de tendencia;
3 Hacemos un contraste de medias comparando la media de la muestra con la media de
una hipottica poblacin cuya media fuera 0; se trata del contraste de la media de una
muestra con la media de una poblacin de cambio cero.
Ya hemos advertido antes que este procedimiento tiene una ventaja adicional: al
disponer de una puntuacin individual de tendencia a progresar (si la hiptesis es de
tendencia lineal), podemos adems comprobar relaciones posibles entre esta tendencia y
otras variables que conozcamos de los sujetos (edad, sexo o cualquier otra).

Anlisis de varianza para verificar tendencias

12

Vamos a ver el procedimiento con los datos de la tabla 4.


1 Para calcular la puntuacin en tendencia de cada sujeto, multiplicamos sus
puntuaciones por los coeficientes oportunos; en este caso -1, 0 y +1 y sumamos a cada
sujeto su nuevo total, que lo es de su tendencia al cambio progresivo. El nuevo cuadro de
datos est en la tabla 8. En este caso se trata simplemente de restar la primera puntuacin de la
tercera (pero no sera lo mismo si tuviramos ms de tres ocasiones porque los valores de
seran distintos).
2 De estas puntuaciones de tendencia calculamos la media y la desviacin tpica
(tambin calculadas en la tabla 8).
1 ocasin(-1) 2 ocasin (0)
(10)(-1) = -10
(12)(0) = 0
(9)(-1) = -9
(11)(0)= 0
(5)(-1) = - 5
(3)(0) = 0
(4)(-1) = -4
(2)(0) = 0

3 ocasin (+1)
(14)(+1) = 14
(13)(+1) = 13
(7)(+1) = +7
(6)(+1) = +6
Media =
Desviacin =
Tabla 8

nuevo total
4
4
2
2
3
1

3 Ahora calculamos la t de Student con la frmula habitual para comparar la media de


una muestra con la de una poblacin hipottica de media = 0:
t=

M-0
2
N -1

[10]

3- 0
12
4- 1

= 5.19, con grados de libertad = 3, p < .05

Nuestra muestra (con una media en cambio = 3) no pertenece a una poblacin con una
media de cero en cambio. Los resultados de ambos mtodos, anlisis de varianza y t de
Student, no dan idnticos resultados aunque suelen ser similares y suelen llevar a las mismas
conclusiones4.

3.3. Magnitud del cambio (tamao del efecto)


En este caso (con tres ocasiones el cambio equivale a la diferencia entre la 3 ocasin y
la 1) podramos adems calcular el tamao del efecto habitual: diferencia entre las dos
medias (ocasiones 1 y 3) dividida por la desviacin tpica combinada de las dos, o la de la 3
ocasin (siguiendo a Glass, como si se tratara de un post-test).
En este ejemplo la media en cambio es 3 y la desviacin del post-test es 3.535, por lo
que el tamao del efecto es 3/3.535 = .848; podemos valorar este cambio como grande.

4 Las diferencias pueden verse en Rosenthal (1987:166).

Anlisis de varianza para verificar tendencias

13

3.4. Anlisis correlacionales: relacin entre cambio individual y otras variables


La ventaja de disponer de una puntuacin individual de tendencia (lineal, que es quizs
lo ms comn, o cuadrtica) es que nos permite comprobar relaciones entre la tendencia (o
cambio) individual y otras caractersticas de los sujetos. Tambin podemos hacer lo mismo
cuando las ocasiones son dos (contraste de medias entre antes y despus).
El hecho de que la diferencia entre la media de la primera ocasin y la media de la
ltima ocasin sea estadsticamente significativa quiere decir que el cambio en el grupo es
superior a lo que podemos esperar por azar; al grupo se ha movido, ha evolucionado, pero no
nos dice nada sobre cada sujeto en particular. Unos sujetos han podido cambiar ms, otros
menos, otros nada e incluso alguno ha podido cambiar en direccin opuesta a la de la
mayora. Si disponemos de otros datos de los sujetos podemos verificar la relacin entre otras
variables y el cambio. Este tipo de anlisis puede aportar gran riqueza informativa a cualquier
investigacin.
Por ejemplo, en un estudio sobre la eficacia de un tratamiento de la dislexia (Benito,
1999) los sujetos fueron medidos en tres ocasiones distintas en diversas variables que sirven
de diagnstico de la dislexia. Los resultados muestran una tendencia estadsticamente
significativa (anlisis de varianza, los sujetos van mejorando de una vez a otra), y el cambio
final (tamao del efecto) es grande. Pero adems se dispona de otros datos de los sujetos;
calculando las correlaciones entre estos datos y el cambio (mejora) en dislexia, se observa que
esta mejora en dislexia es independiente del nivel socio-econmico de la familia o nmero de
hermanos y en cambio est relacionada con variables tales (entre otras) como grado de
asistencia de los padres a las sesiones de evaluacin y asistencia regular de los nios a clase.
Naturalmente para poder hacer estos anlisis hay que haber previsto qu informacin
adicional se necesita o puede ser conveniente.

4. Referencias bibliogrficas
BENITO PEREGRINA, MANUELA de (1999). Aproximacin al concepto de dislexia: un estudio
sobre las caractersticas de los alumnos dislxicos en un entorno bilinge. Tesis doctoral.
Madrid: Universidad Pontificia Comillas.
ESCOTET, MIGUEL A., (1980). Diseo multivariado en psicologa y educacin. Barcelona:
Ceac.
GUILFORD, J. P. Y FRUCHTER, B., (1984). Estadstica aplicada a la psicologa y la educacin,
Mxico: McGraw-Hill. [En ingls: Fundamental Statistics in Psychology and Education,
1973. New York: McGraw-Hill].
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
ROSENTHAL, ROBERT, (1987). Judgment Studies, Design, analysis and meta-analysis.
Cambridge: Cambridge University Press.
TEJEDOR, FRANCISCO JAVIER, (1984). Anlisis de varianza aplicada a la investigacin en
pedagoga y psicologa. Madrid: Anaya

Anlisis de varianza para verificar tendencias

14

Anexo. Tabla de los pesos () aplicables para verificar tendencias


En la tabla 9 estn los pesos () aplicables para verificar tendencias (lineares o
cuadrticas)5 cuando las muestras (columnas, muestras independientes o muestras
relacionadas) estn ordenadas (tablas ms completas pueden verse en los autores citados).

tendencia
3 Linear
Cuadrtica
4 Linear
Cuadrtica
5 Linear
Cuadrtica
6 Linear
Cuadrtica

1
-1
+1
-3
+1
-2
+2
-5
+5

2
0
-2
-1
-1
-1
-1
-3
-1

nmero de columnas
3
4
+1
+1
+1
+3
-1
+1
0
+1
-2
-1
-1
+1
-4
-4
Tabla 9

+2
+2
+3
-1

+5
+5

5 Estas tablas se encuentran en numerosos textos (por ejemplo Guilford y Fruchter; 1973; Escotet, 1980; Tejedor, 1984;
Rosenthal, 1987; Kirk, 1995), y en Internet, por ejemplo (hasta 10 medidas o columnas) en LANE, DAVID M. HyperStat
Online Statistics Textbook, http://davidmlane.com/hyperstat/index.html, n 12. Las tendencias cbicas (dos cambios de
direccin) pueden comprobarse a partir de cuatro ocasiones, suelen ser de inters con menor frecuencia que las otras dos.

Anlisis de varianza para verificar tendencias

Anlisis de varianza
Anexos
Pedro Morales Vallejo
Universidad Pontificia Comillas,
Facultad de Ciencias Humanas y Sociales
(ltima revisin: 14 de Noviembre de 2009)

ndice
Anexo I: Por qu no podemos utilizar la t de Student para hacer todas las comparaciones
posibles cuando tenemos ms de dos grupos ......................................................

Anexo II: El test de Bonferroni: procedimiento para hacer todas las comparaciones
posibles entre pares de grupos sin llevar a cabo un anlisis de varianza............

Anexo III: Clculo de la media y de la desviacin tpica del total a partir de las medias
y desviaciones tpicas de las muestras............................................................

1. Media de los totales....................................................................................


1.1. Con muestras de tamao distinto .......................................................
1.2. Con muestras de idntico tamao ......................................................
2. Desviacin tpica de los totales..................................................................
2.1. Con muestras de distinto tamao .......................................................
2.2. Con muestras de idntico tamao ......................................................
2.3. Deduccin de la frmula ....................................................................

7
7
7
7
7
8
8

Anexo IV: Contrastes posteriores: la distribucin q del rango estudentizado ..................

10

Anexo V: Contrastes posteriores en diseos factoriales cuando la interaccin


es significativa ..................................................................................................

12

1. Valores de k para consultar las tablas .........................................................


2. Justificacin de los nuevos valores de k.......................................................

12
13

Anexo VI: El nmero de sujetos en el anlisis de varianza ..............................................

17

1. Variables que intervienen en la determinacin del tamao de la muestra....


2. Tamao de cada muestra cuando comparamos dos grupos (t de Student) ...
3. Tamao de la muestra cuando tenemos ms de dos muestras
(anlisis de varianza unifactorial)...............................................................
4. Tamao de la muestra en los diseos factoriales..........................................

17
19

Anexo VII: Mtodos no paramtricos de anlisis de varianza .........................................

23

19
21

1. Observaciones sobre los mtodos no paramtricos ..................................... 23


2. Mtodos no paramtricos ms importantes anlogos al anlisis de varianza 23
Anexo VIII: Anlisis de Varianza en Internet...................................................................

25

Referencias bibliogrficas .................................................................................................

25

Anlisis de varianza: anexos

3
ANEXO I: Por qu no podemos utilizar la t de Student para hacer todas las
comparaciones posibles cuando tenemos ms de dos grupos
Quizs la manera ms fcil de captarlo es mediante una analoga de fcil comprensin y
que tiene que ver con la distribucin binomial.
Imaginemos que tiramos una moneda al aire Que probabilidades tenemos de que nos
salga una cara? Si solamente tenemos una moneda tenemos dos resultados posibles, o nos
sale cara o nos sale cruz:
probabilidades:
Una posibilidad:

cara una vez : p = .50 (50%)

Otra posibilidad: cruz una vez: p = .50 (50%)

Con slo dos resultados posibles (el


100%) tenemos un 50 % de
probabilidades de que nos salga cara
y otro 50 % de probabilidades de que
nos salga cruz.

Ahora vamos a tirar al aire dos monedas a la vez Qu probabilidades tenemos de que
nos salga una cara? Tenemos estos y solos posibles resultados:
moneda primera
una posibilidad:
cara
otra posibilidad:
cruz
otra posibilidad:
cara
otra posibilidad:
cruz

moneda segunda
cara
cruz
cruz
cara

Con dos monedas tenemos cuatro


posibles resultados (cara-cara,
cruz-cruz y dos veces cara-cruz).
Qu probabilidades tenemos de
obtener al menos una cara? tres de
cuatro o p = 3/4 =.75 (un 75% de
probabilidades de que nos salga al
menos una cara).

Incidentalmente podemos observar que, simbolizando C como cara y X como cruz estos
son los resultados posibles: una vez dos C, una vez dos X y dos veces XC (da lo mismo caracruz que cruz-cara) es decir, todas las posibilidades son:
XX + CC + 2CX
Dividiendo cada posible resultado por el nmero total de resultados distintos (4 en este
caso) tenemos la probabilidad de que nos salga una determinada combinacin cara-cruz. Si
utilizamos los smbolos a y b posiblemente caeremos en la cuenta del parecido de la expresin
anterior con el cuadrado de un binomio:
(a + b)2 = a2 + 2ab + b2
El exponente del binomio sera en este caso el nmero de monedas. Si en vez de dos
monedas, utilizamos tres, la resolucin de (a + b)3 nos dar cules pueden ser los resultados
distintos y cuntas veces obtendramos cada uno.
Al menos hemos visto que si estamos interesados en que nos salga por lo menos una
cara, no es lo mismo arrojar al aire una moneda que dos o tres A mayor nmero de
monedas, mayor probabilidad de que al menos una nos salga cara. De manera anloga si
comparamos tres grupos tenemos tres comparaciones posibles: el 1 con el 2, el 1 con el 3 y
el 2 con el 3: en este caso las probabilidades de obtener por azar al menos una t
estadsticamente significativa suben con respecto a comparar solamente dos grupos.
Si vamos a hacer tres comparaciones y establecemos un nivel de confianza de =.05
Qu probabilidad tenemos de obtener al menos una t significativa? Esta pregunta tiene que
ver con las probabilidades conjuntas, tema en el que no entramos pero que puede quedar
Anlisis de varianza: anexos

4
sugerido o ilustrado viendo todas las posibles diferencias estadsticamente significativas
cuando tenemos tres grupos.
Podemos encontrar slo entre
una diferencia
slo entre
significativa:
slo entre
entre
entre
entre
entre

el 1 y el 2
el 1 y el 3
el 2 y el 3
el 1 y el 2
el 1 y el 2
el 1 y el 3
el 1 y el 2

y
y
y
y

entre el 1 y el 3
entre el 2 y el 3
entre el 2 y el 3
entre el 1 y el 3 y entre el 2 y 3

La probabilidad de encontrar una t significativa no es ciertamente del 5%, son muchas


ms; de hecho, con tres grupos y operando con un nivel de confianza de .05, ya la
probabilidad real de obtener al menos una diferencia significativa no es del 5% sino del
9.75%1.
Algn autor lo explica de manera ms sencilla (Kirk (1995): si tiramos al aire dos dados
no es tan fcil que nos salgan la primera vez dos seises; pero si tiramos al aire 10 dados a la
vez tenemos muchas ms probabilidades de que nos salgan los dos seises
De todas maneas recordamos que podemos comparar los grupos de dos en dos si se dan
estas condiciones: 1 tenemos hiptesis previas y justificadas antes de recoger lo datos y 2 el
nmero mximo de comparaciones legtimas no puede ser superior a los grados de libertad (=
k-1; con tres grupos podaramos hacer dos comparaciones y no las tres posibles).

Una explicacin ms detallada sobre cmo obtener las probabilidades reales puede verse en McGuigan (6th Edition,
1994:140ss).
Anlisis de varianza: anexos

5
ANEXO II: El test de Bonferroni: procedimiento para hacer todas las comparaciones
posibles entre pares de grupos sin llevar a cabo un anlisis de varianza
Ya hemos indicado que cuando en el mismo planteamiento tenemos ms de dos grupos,
no podemos contrastar todos los posibles pares de medias entre s porque aumenta la
probabilidad de error. Hemos visto que con tres grupos un nivel de confianza de = .05
equivale de hecho a un nivel de .0975.
Si deseamos hacer todos los contrastes posibles de medias podramos hacerlos siendo
ms estrictos en el nivel de confianza sin necesidad de acudir al anlisis previo de varianza.
El procedimiento ms sencillo para ajustar el nuevo nivel de confianza es el denominado
test de Bonferroni.2 Este procedimiento consiste en dividir el nivel de confianza escogido ( =
.05, por ejemplo, o = .01) por el nmero de posibles comparaciones: la probabilidad
resultante es la que debemos utilizar. Ya sabemos que el nmero de posibles comparaciones
de k grupos tomados de dos en dos es igual a k(k-1)/2.
La frmula general del nuevo nivel de confianza es:
nuevo valor de =

k(k -1)
2

= probabilidad escogida ( = .05, .01, etc.)


k = nmero de grupos

Esta probabilidad es para pruebas de una cola o unilaterales (nos fijamos solamente en
un extremo de la distribucin); este valor de habr que dividirlo por 2 si utilizamos
contrastes bilaterales como es usual.
Por ejemplo, si tenemos tres grupos (k = 3), nuestro nivel de confianza es = .05, y
queremos hacer todas las comparaciones posibles entre grupos (sin combinar las medias de
varios grupos en una sola) el nuevo valor de ser:
.05
= 3(3 1) = .0167
2
En las tablas de la distribucin normal (muestras grandes) vemos que a una
probabilidad de .0167 (rea menor) le corresponde z = 2.39; bastante mayor que el 1.96 al
que estamos acostumbrados (y que en pruebas de una cola es 1.64).
De manera ms sencilla si disponemos de la probabilidad exacta de un contraste
(fcilmente disponible en Internet) y la multiplicamos por el nmero de comparaciones,
podemos ver si llega a .05 (suponiendo que ste es nuestro nivel de confianza) (Bland y
Alman, 1995). Por ejemplo si obtenemos p = .0167 y tenemos tres comparaciones, nuestra
probabilidad ser (con un nivel de confianza de .05) p = (.0167)(3) = .05.
En opinin de varios autores este contraste no parece aconsejable porque es considerado
demasiado conservador; es decir, tiene poca potencia para rechazar la Hiptesis Nula cuando
realmente es falsa (Hancock y Klockars, 1996; Jaccard, 1998). Por otra parte estos contrastes
no estn pensados como contrastes posteriores al anlisis de varianza sino para siempre que

2 Carlo Emilio Bonferroni elabor su teora sobre la probabilidad (publicada en Florencia en 1936) al margen del
anlisis de varianza, pero en los aos 60 se aplic a los contrastes posteriores; es el contraste tambin conocido como de
Dunn-Bonferroni. A veces se menciona a Bonferroni como desconocido (McGuigan, 1994); pero puede encontrarse citado en
Hancock y Klockars (1996) y una breve resea biogrfica en http://www-history.mcs.standrews.ac.uk/Biographies/Bonferroni.html (en The MacTutor History of Mathematics archive http://www-history.mcs.standrews.ac.uk/index.html)
Anlisis de varianza: anexos

6
en el mismo planteamiento haya ms de dos contrastes de medias (por ejemplo si comparamos
dos grupos en una serie de variables) y tambin seran aplicables si tenemos un conjunto de
coeficientes de correlacin.
Una crtica bien razonada a los ajustes de Bonferroni puede verse en Perneger (1998)
que merece la pena citarle literalmente:
this paper advances the view, widely held by epidemiologists, that Bonferroni
adjustments are, at best, unnecessary and, at worst, deleterious to sound statistical
inference... The main weakness is that the interpretation of a finding depends on the
number of other tests performed The likelihood of type II errors is also increased, so
that truly important differences are deemed non-significant... Bonferroni adjustments
imply that a given comparison will be interpreted differently according to how many
other tests were performed.

Nuestra valoracin personal es que se puede prescindir de los contrastes de Bonferroni


con la conciencia tranquila porque son excesivamente conservadores y adems esta opinin
est avalada por autores relevantes.
Los contrastes de Bonferroni estn programados en GraphPad (ver referencias
bibliogrficas) y tambin en el SPSS (en anlisis de vaianza).
Ms que contrastes, como si se tratara de alternativas a la t de Student, se trata de
nuevos valores de p equivalentes a = .05 cuando hacemos ms de un contraste entre dos
medias. Estos valores pueden verse en Internet, en BISSONNETTE, VICTOR L., Berry College
http://fsweb.berry.edu/academic/education/vbissonnette/ Some Useful Statistical Tables,
Critical Values of Dunns (Bonferroni) test (experimentwise = .05)
http://fsweb.berry.edu/academic/education/vbissonnette/tables/dunns.pdf

Anlisis de varianza: anexos

7
ANEXO III: Clculo de la media y de la desviacin tpica del total a partir de las medias
y desviaciones tpicas de las muestras

Frecuentemente lo que tenemos de las diversas muestras son los datos descriptivos
bsicos: el nmero de sujetos (N), la media (M) y la desviacin tpica (). Son datos que
podemos ver en una publicacin o que nosotros mismos guardamos3. Si a partir de estos datos
queremos hacer un anlisis de varianza con una simple calculadora, necesitamos adems
tener:
a) La media del total de todos los sujetos (al menos para calcular la suma de cuadrados
entre grupos cuando los grupos son de tamao desigual).
b) La desviacin tpica del total de las puntuaciones; en realidad necesitamos la
varianza, que multiplicada por N (nmero total de datos, si se trata de muestras relacionadas
N = n x k) nos dar la suma de cuadrados del total.
Tanto la media total como la desviacin tpica o varianza de los totales podemos
calcularlos a partir de los datos descriptivos de las muestras, sin necesidad de disponer de
todas las puntuaciones individuales que normalmente s necesitaremos si vamos a utilizar un
programa de ordenador (como el SPSS). Las frmulas apropiadas ya las hemos ido viendo en
varias ocasiones; ahora las repetimos de manera ms ordenada y con una demostracin.
1. Media de los totales
1.1. Con muestras de tamao distinto
nM
Se multiplica cada media por su nmero de sujetos,
[1]
Mt =
se suman estos productos y se divide por el nmero
n(o N total)
total de sujetos. Se trata de una media ponderada que
no necesita una especial demostracin.
1.2. Con muestras de idntico tamao
Cuando los grupos son de idntico tamao, la media total es
simplemente la media de las medias (suma de las medias
dividida por el nmero de medias):

Mt =

[2]

2. Desviacin tpica de los totales


2.1. Con muestras de distinto tamao

t =

n(M2 + 2 )
- M2t
N

[3]

t es la desviacin tpica de los totales; como


realmente nos interesa la varianza, podemos
prescindir de la raz cuadrada. n es el tamao
de cada grupo, que se multiplica por la suma
de su media y desviacin elevadas al
cuadrado. La desviacin tpica la suponemos
calculada dividiendo por N.

La frmula [3] est tomada de McNemar (1962), pero es fcilmente demostrable como
vamos a ver ms adelante.

3 A partir de estos datos (N, Media y desviacin tpica de cada muestra) tambin tenemos programado en Internet el
anlisis de varianza para varias muestras independientes (por ejemplo, los programas de Internet de Pezzulo y en Department
of Obstretrics And Gynaecology, The Chinese University of Hong Kong; ver referencias bibliogrficas).
Anlisis de varianza: anexos

8
2.2. Con muestras de idntico tamao
Cuando los grupos son de idntico tamao (como sucede siempre que tenemos muestras
relacionadas y en muchos otros casos) la frmula de la desviacin tpica de los totales queda
simplificada; k es el nmero de grupos4.
t =

M2 + 2
- M 2t
k

[4]

En este caso, muestras de idntico tamao, la media de los totales ya sabemos que es la
media de las medias.
Como se trata de calcular la varianza (y no la desviacin tpica), podemos prescindir de
la raz cuadrada. Estos valores pueden variar segn se calculen por un mtodo o por otro,
debido al distinto nmero de decimales que se utilicen en cada caso, pero las diferencias no
afectan apreciablemente a los clculos posteriores. Aun as es preferible utilizar tres o cuatro
decimales.
2.3. Deduccin de la frmula
De dnde viene esta frmula [3] para combinar desviaciones tpicas a partir de los
valores de las desviaciones, medias y nmero de sujetos de los diversos grupos?

La frmula ms directa de la desviacin tpica es =

(X - M)2
[5]
N

Hay otras frmulas, que se derivan de [5], para calcular la desviacin tpica sin
necesidad de calcular las puntuaciones diferenciales (X-M). Lo que sucede es que estas
frmulas que simplifican operaciones son menos tiles, ya que disponemos de calculadoras
con programacin estadstica.
Una de estas frmulas para calcular la desviacin tpica a partir de las puntuaciones
directas y de la media, es la que nos interesa para poder demostrar la frmula que nos permite
combinar desviaciones tpicas de varios grupos; es la frmula [6] que podemos encontrar en
muchos textos.
A partir de esta frmula [6] llegamos con facilidad a la frmula [3] para combinar
desviaciones tpicas o varianzas:
=

X2
- M2
N

[6]

la varianza ser =

X2
N

-M

y X = N( + M ) [7]

En [7] podemos ver ya el parecido con la frmula [3]. Si de dos muestras conocemos los
valores de N, M y , podemos utilizar la frmula [6] para calcular la desviacin tpica de las
dos muestras combinadas en una nica muestra.
En esta frmula [6] tenemos ahora que N = N1 + N2; la media ser la media total de las
dos (o ms) muestras y X2 ser la expresin [7] calculada en las dos (o ms) muestras y
sumadas. Es decir, substituyendo [7] en [6] llegamos a la frmula [3].
Podemos preguntarnos ahora de dnde sale la frmula [6], que es la que hemos utilizado
para demostrar la frmula [3] que nos permite calcular la desviacin tpica de dos (o ms)
muestras combinadas en una sola.

M2+ 2 se calcula con mucha facilidad con una calculadora con programacin estadstica: basta introducir todas
las medias y todas las desviaciones y obtener el resultado en la funcin x2
Anlisis de varianza: anexos

9
En la frmula de la desviacin tpica, la habitual, tenemos en el numerador un binomio
elevado al cuadrado [(X-M)2]. No hay ms que aplicar el procedimiento usual: (a - b)2 = a2 2ab + b2, y as llegamos a [6]:
Utilizando la varianza para simplificar, tenemos que:
2 =

(X - M)2
N

(X2 - 2MX + M2 )
N

Como en [8] tenemos que

tendremos que 2 =

X2
N

X
=M
N

- 2M2 + M2

X2

2 =

- 2M

M2

X2
N

Anlisis de varianza: anexos

- M2

2
X M
+
N
N

NM 2
N

[8]

= M2

y as llegamos a [6].

10
ANEXO IV: Contrastes posteriores: la distribucin q del rango estudentizado

En los contrastes posteriores de Tukey utilizamos la distribucin de q o rango


estudentizado (a veces se utiliza el smbolo qk; k suele simbolizar el nmero de medias o de
muestras). Las tablas de q tambin se utilizan en otros contrastes posteriores (como en los de
Duncan y Newman-Keuls)5.
Es fcil entender la frmula y distribucin de q porque se trata de algo anlogo a la
frmula y distribucin de t o z cuando contrastamos dos medias.
Comparemos en primer lugar las frmulas de t (para dos muestras de idntico nmero
de sujetos = n) y de q para varias muestras tambin de idntico tamao (n):
Mi Mk
M1 M 2
t=
q=
2
2
CMdentro
1 + 2
n
n-1
Los numeradores son idnticos; se trata de la diferencia entre dos medias.
Los denominadores no son idnticos, pero casi. El que en la t de Student tengamos n-1
en el denominador del denominador quiere decir que las dos varianzas se han calculado
dividiendo por n y no por n-1; si las hubiramos calculado dividiendo por n-1 tendramos n en
el denominador; ah no hay diferencia.
Los cuadrados medios dentro de los grupos que vemos en la frmula de q no son otra
cosa que la combinacin de las varianzas de todos los grupos, mientras que en la t de Student
slo tenemos dos varianzas porque solamente se trata de dos grupos.
Por lo tanto el estadstico q es anlogo a la t de Student o a una puntuacin tpica z: es
en este caso un valor asociado a la probabilidad de que se d una diferencia entre dos medias
en el caso de que ambas procedan de la misma poblacin. De la misma manera que tenemos
una distribucin de t, tenemos una distribucin de q. Tanto t como q expresan una diferencia
entre dos medias en desviaciones tpicas o (con ms propiedad errores tpicos, pues es eso lo
que tenemos en los denominadores). En ambos casos esta reduccin de una diferencia a una
puntuacin tpica (eso viene a ser lo que realmente hacemos) nos permite conocer las
probabilidades de que esa diferencia sea casual o, lo que es lo mismo, debida a fluctuaciones
normales.
En la distribucin de q se tiene en cuenta el que en la medida en que aumenta el nmero
de medias (no se trata solamente de dos medias), aumenta tambin la probabilidad de error al
rechazar la Hiptesis Nula de no diferencia. La diferencia entre las frmulas de t y q est en
que en el denominador de t tenemos el error tpico de la diferencia entre dos medias y en el
caso de q lo que tenemos en el denominador es el error tpico del conjunto de medias que
tenemos en nuestro planteamiento; se basa en la variabilidad o diferencias normales y
esperadas en un conjunto de medias.
El trmino rango estudentizado que suele aplicarse a q puede resultar poco claro. Rango
viene a ser aqu un trmino anlogo de diferencia (entre dos medias) y estudentizado (por
analoga con la t de Student, quizs ms claro sera decir tipificado) quiere decir que
dividimos la diferencia entre dos medias por una desviacin tpica (o error tpico que es como
denominamos a las desviaciones tpicas de las distribuciones muestrales). El trmino rango
tiene su sentido porque expresa orden: ordenamos las medias de mayor a menor y lo que

La distribucin de q se la debemos a William Sealey Gossett (Kirk, 1995), lo mismo que la de la t de Student.
Anlisis de varianza: anexos

11
verificamos es la probabilidad de que la media ms alta y la ms baja difieran
significativamente (procedan de la misma poblacin). Si las medias extremas proceden de la
misma poblacin, tambin consideramos que las medias intermedias no difieren
significativamente entre s. Si las medias mayor y menor difieren significativamente, podemos
seguir comparando entre s el resto de las medias.
Es til caer en la cuenta de esta relacin entre t y q para captar que lo que hacemos es
semejante a lo que hacemos cuando comparamos dos medias mediante la t de Student. Si
observamos las tablas de q y nos fijamos en los valores correspondientes a dos medias nada
ms (en cuyo caso podramos utilizar la t de Student) y para muestras grandes (los grados de
libertad mximos que vienen en las tablas) tenemos que:
niveles de
confianza

valor de q
para k =2 y gl =

= .05

2.77

= .01

3.64

valor de t =

q
2

2.77
= 1.96
2
3.64
= 2.57
2

Anlisis de varianza: anexos

Estos son los valores de t que


encontramos en las tablas de
la distribucin normal para
muestras grandes.

12
ANEXO V: Contrastes posteriores en diseos factoriales cuando la interaccin es
significativa

Tratando del anlisis de varianza con dos criterios de clasificacin (diseos factoriales)
vimos cmo hacer los contrastes posteriores; se trata de una aplicacin del contraste de
Tukey. Cuando comparamos medias del mismo factor (medias de filas entre s o de columnas
entre s), el valor de k para consultar las tablas de q es el nmero de medias (o niveles) que
hay en el factor.
Cuando la interaccin es significativa nos puede interesar contrastar las medias de los
distintos niveles de un mismo factor en un nivel del otro. En la tabla 1 si la interaccin es
significativa nos puede interesar comparar, por ejemplo las medias de A1B1 y A3B1 (dos
medias de A en uno de los niveles de B).

Factor B

Factor A
A2
A2B1

A3
A3B1

medias de B

B2

B1

A1
A1B1

B2

A1B2

A2B2

A3B2

A1

A2
Tabla 1

A3

medias de A

B1

1. Valores de k para consultar las tablas


En estos casos los valores de k para consultar las tablas no son el nmero de medias,
sino que dependen del nmero de comparaciones de inters, que a su vez dependen del
nmero de niveles que hay en los factores6 (tabla 2).
Valor de k' para
consultar las tablas de q
2x2.........................
3
2x3.........................
5
2x4.........................
6
2x5.........................
8
3x3.........................
7
3x4.........................
8
3x5......................... 10
4x4......................... 10
4x5......................... 12
5x5......................... 15

tamao de la tabla

Tabla 2
Los valores de k que tenemos que consultar son los puestos en la tabla 2 que hemos
preparado segn la justificacin puesta ms adelante (y que es la misma tabla puesta al tratar
de los contrastes posteriores en los diseos factoriales). En esta tabla 2 tenemos el valor de k

Por esta razn en la tabla 1 utilizamos el smbolo k en vez de k. Aunque como indica Toothaker (1993), en vez de
tener en cuenta el nmero de comparaciones posibles, podemos contabilizar solamente (para buscar k en las tablas de q) el
nmero de comparaciones que nos interesan o que tienen sentido en nuestro planteamiento. Como criterio conservador
podemos tener en cuenta todas las comparaciones posibles.
Anlisis de varianza: anexos

13
en las tablas de Tukey segn el tamao de nuestra tabla nxn, desde tablas 2x2 hasta tablas
5x5.
2. Justificacin de los nuevos valores de k
Lo que pretendemos ahora es justificar esta tabla y explicar cmo est hecha, de manera
que podamos ampliarla apara planteamientos con ms 5 niveles en uno o en los dos factores.
Para explicar de dnde viene la tabla 2, seguimos dos pasos metodolgicos:7
1 Calculamos el nmero de comparaciones posibles de inters (valor de C, frmula [2],
puesta ms adelante)
2 A partir de este nmero podemos calcular los valores de k (anlogo al nmero de
medias en los diseos unifactoriales) para consultar las tablas de q con grados de
libertad = N - ab (nmero total de sujetos menos nmero de subgrupos).
1 Calculamos el nmero de comparaciones posibles entre medias del mismo nivel y
factor
Una cosa es todas las comparaciones posibles, y otra todas las comparaciones posibles
de inters. En general el nmero total de comparaciones posibles tomando las medias de dos
en dos ya sabemos que es:
nmero de comparaciones posibles =

k(k 1)
2

[1] donde k es el nmero de grupos.

Aqu no nos interesan todas las comparaciones posibles sino solamente todas las
posibles entre los niveles de cada factor. Antes de presentar la frmula correspondiente [2]
vamos a ver, paso a paso, cuntas comparaciones podemos hacer en el planteamiento inicial,
donde tenemos dos factores, A dividido en tres niveles, y B dividido en dos niveles (tabla 2 x
3). De esta manera entendemos mejor la frmula.
Comparaciones en los tres niveles del factor A
Nmero de comparaciones en A1 (dos subgrupos) =

2(2 1)
=1
2

En cada columna cabe una comparacin (slo hay dos medias) y como tenemos tres
columnas (los tres niveles de A) el nmero de comparaciones posibles en el factor A es 1 x 3
=3
Comparaciones en los dos niveles del factor B
Nmero de comparaciones en B1 (tres subgrupos) =

3(3 1)
=3
2

En cada fila caben 3 comparaciones, y como tenemos dos filas (B1 y B2), el nmero de
comparaciones posibles en el factor B son 3 x 2 = 6
El nmero total de comparaciones posibles es igual a 3 + 6 = 9 (siempre dentro de la
misma fila o columna).
Por lo tanto la frmula general para calcular el nmero de comparaciones posibles entre
medias pertenecientes al mismo nivel de un mismo factor cuando tenemos dos factores es:
7 El procedimiento es de Cicchetti (1972) aunque la tabla III (reproducida parcialmente) est tomada de Linton,
Gallo y Logan (1975, que a su vez la adaptan de Cicchetti). La justificacin del procedimiento puede verse tambin en
Cicchetti (1972) y en Toothaker (1991, 1993).

Anlisis de varianza: anexos

14

b(b - 1) a(a - 1)
x a +
x b
C =

2
2

C = comparaciones posibles entre medias del


mismo nivel
a = nmero de niveles en el factor A
b = nmero de niveles en el factor B

[2]

Es sencillo confeccionar una tabla con el nmero de comparaciones posibles cuando


tenemos dos factores divididos en varios niveles.
En la tabla 3 figuran las comparaciones posibles (contando solamente las que se pueden
hacer dentro de cada nivel de cada factor) cuando tenemos divididos los factores entre 2 y 5
niveles:
Tablas de dos Nmero de contrastes posibles
factores
en el mismo nivel (C)
2 x 2 ........................ 4
2 x 3 ........................ 9
2 x 4 ........................ 16
2 x 5 ........................ 25
3 x 3 ........................ 18
3 x 4 ........................ 30
3 x 5 ........................ 45
4 x 4 ........................ 48
4 x 5 ........................ 70
5 x 5 ........................ 100
Tabla 3
El nmero de contrastes posibles es un paso previo para poder consultar las tablas de q.
Para consultar estas tablas necesitamos dos valores, el de k (nmero de medias o su
equivalente como en este caso) y los grados de libertad.
2 Valor de k
Sabemos ya que el nmero de comparaciones posibles (C), tomndolos de dos en dos,
de k elementos es igual a:
C=

k(k 1)
2

En nuestro caso partimos ya del valor de C, calculado previamente (tabla 2). En nuestro
ejemplo, una tabla de 2 x 3, C = 9, por lo que 9 = [k (k -1)/2]. Lo que tenemos que hacer es
despejar el valor de k:
Si 9 =

k(k 1)
2

tenemos que

k2 - k - (9 x 2) = 0.

Se trata de una ecuacin de segundo grado, cuya expresin general es:


-b b2 - 4ac
ax + bx + c = 0 y la doble solucin para x es x =
2a
2

En nuestro caso particular tenemos que siempre a = +1, b = -1 y c = - (2 x C)


(multiplicamos por dos el nmero de comparaciones posibles ya calculado y con signo
menos), por lo que nuestra solucin para x (tendremos siempre dos soluciones o valores de x
que cumplen la ecuacin) es:
Anlisis de varianza: anexos

15
x=

1 1 + (4x2C)
2

[3]

En nuestro ejemplo C = 9, por lo que las dos soluciones de x son 4.77 y -3.77;
redondeando estos nmeros y en valores absolutos tenemos 5 y 4.
Con estos valores, 5 y 4, aplicamos la frmula de C, y nos quedaremos, para utilizarlo
como k para consultar las tablas, con el valor de x que nos d un resultado ms prximo al
valor de C ya calculado (tabla 3):

C=

5(5 1)
= 10
2

C=

4(4 1)
=6
2

El valor de x (5 4) que al aplicar la frmula de C nos d un valor ms prximo a


nuestro C (= 9) es 5 (10 se aproxima a 9 ms que 6), luego escogemos 5 como valor de k para
consultar las tablas.
Con este procedimiento podemos ampliar las tablas si en algn factor tenemos ms de
seis niveles.
Supongamos que tenemos un cuadro de 6 x 6, dos factores cada uno dividido en 6
niveles. El nmero posible de comparaciones (siempre dentro de cada factor) sera igual a C =
180 (segn vimos antes en [2]), y obtendramos estos valores de x: 19.47 y 18.47 (en nmeros
absolutos) y redondeando 19 y 18, con los que tendramos estos valores de C:

C=

19(19 1)
= 171
2

C=

18(18 1)
= 153
2

El valor ms prximo a nuestro C (= 180) nos lo da x = 19, luego tenemos que k = 19 al


consultar las tablas de q.
El proceso puede parecer complicado, pero no lo es si nos fijamos en los tres sencillos
pasos de este resumen:
1 Calculamos el nmero de comparaciones posibles entre medias pertenecientes al
mismo factor; es el valor de C de la frmula [2]
2 Calculamos los dos valores de x de la ecuacin anterior; frmula [3]
3 Utilizamos los dos valores de x en la frmula general [1] y nos quedamos con el valor
de x que nos d un nmero ms prximo a C: ste va a ser el valor de k que
utilizaremos al consultar las tablas.
La tabla 4 est confeccionada siguiendo los pasos indicados.

Anlisis de varianza: anexos

16
Nmero de comparaciones
posibles no confundidas (C)

Valor de k' para


consultar las tablas de q

3 - 4.....................................
5 - 8....................................
9 - 12....................................
13 - 17....................................
18 - 24....................................
25 - 32....................................
33 - 40....................................
41 - 50....................................
51 - 60....................................
61 - 72....................................
73 - 84....................................
85 - 98....................................
99 - 112....................................

3
4
5
6
7
8
9
10
11
12
13
14
15

Tabla 4
En la prctica lo ms cmodo es disponer de una tabla que combine las tablas 3 y 4,
para poder consultar el valor de k en las tablas de q a partir del nmero de niveles que
tenemos en nuestro planteamiento; esto es lo que hemos hecho en la tabla 2 puesta al
comienzo de este anexo, y que tambin figura en el lugar correspondiente al tratar de los
diseos factoriales.

Anlisis de varianza: anexos

17
ANEXO VI: El nmero de sujetos en el anlisis de varianza

En los estudios de carcter emprico o experimental, en sentido amplio, las normas que
suelen darse para determinar el nmero apropiado de sujetos depende de la finalidad del
estudio.
a) Posiblemente lo ms frecuente es encontrar normas y frmulas para determinar el
tamao de la muestra cuando se quieren extrapolar los resultados a la poblacin, como es
normal en los estudios de carcter ms sociolgico (encuestas, sondeos pre-electorales, etc.).
b) Normas o recomendaciones distintas suelen darse con otras finalidades especficas,
como el nmero de sujetos necesario cuando se trata de construir un test o escala, o el nmero
de sujetos necesario o recomendable cuando se va a hacer un anlisis correlacional, o ms
concretamente, un anlisis factorial.
c) Aqu nos interesa cmo determinar el nmero de sujetos en los estudios
experimentales, los ms relacionados con el anlisis de varianza. Incluiremos tambin lo
relativo al tamao de las muestras cuando slo se requiere la t de Student para comparar dos
medias, por cercana con el anlisis de varianza que tambin se podra utilizar en este caso, y
completamos as las orientaciones sobre el nmero de sujetos cuando se utiliza un diseo
experimental o cuasi-experimental en un sentido ms restringido.
1. Variables que intervienen en la determinacin del tamao de la muestra

Aunque en la prctica podemos limitarnos a consultar unas tablas, es muy conveniente


conocer con qu criterios estn hechas estas tablas. Se trata de las variables de las que
depende el tamao de la muestra.
1. El nivel de confianza (que solemos expresar as: = .05, = .01). Si escogemos un
nivel de confianza de .05 (como es prctica comn) queremos decir que aceptamos un 5% de
probabilidades de error al rechazar la Hiptesis Nula (de no diferencia). Se trata de minimizar
el denominado error Tipo I (aceptamos pocas probabilidades de equivocarnos cuando
afirmamos una diferencia).
2. La potencia de la prueba. Por potencia entendemos la probabilidad de no cometer el
error denominado Tipo II: no rechazar la Hiptesis Nula cuando podramos haberla
rechazado. La probabilidad de cometer este tipo de error se simboliza como , y la potencia es
por lo tanto 1- . Podemos definir la potencia como la probabilidad de rechazar una
Hiptesis Nula que es falsa.
De la misma manera que un nivel de confianza de = .05 es habitualmente aceptado
como razonable, por lo que respecta a la potencia (1-) se estima que es razonable establecer
una potencia de .80, es decir tener un 80% de probabilidades de detectar una diferencia (o
relacin) de una determinada magnitud8. Si deseamos una potencia mayor (.90 o incluso 1) el
tamao requerido de la muestra puede ser ya excesivamente grande.
El error Tipo I (decir s cuando habra que decir que no hay diferencia, relacin, etc.) es
ms serio que el error Tipo II (decir no cuando podramos haber dicho que s), de ah la
prctica generalizada de utilizar unos niveles de confianza muy estrictos, como son .05 .01:

8 La recomendacin de una potencia de .80 la propone y justifica Cohen (1988:56; Jacob Cohen es la fuente principal
que suele seguirse en este tema). El peligro de cometer el error Tipo II queda reducido a .20 (20% de probabilidades) y est
en equilibrio con = .05: suponemos que el error Tipo I es cuatro veces ms serio que el error Tipo II (.20 es cuatro veces
.05). Esta recomendacin no es tan seguida como la de establecer un nivel de confianza de .05, porque con frecuencia no se
tiene en cuenta el error Tipo II, que por otra parte ya se controla bien cuando el nmero de sujetos es grande.

Anlisis de varianza: anexos

18
aceptamos muy pocas probabilidades de equivocarnos cuando afirmamos una diferencia. Si
establecemos un nivel de significacin muy estricto (un valor de muy bajo) es muy
improbable que cometamos el error Tipo I: si rechazamos el azar (o la variabilidad normal debida
al error muestral) como explicacin de una diferencia es muy poco probable que nos equivoquemos.

Lo que sucede es que con un valor muy bajo de podemos caer en el error Tipo II:
puede ser que la Hiptesis Nula sea falsa, pero como somos muy estrictos no llegamos a
rechazarla. Con un nivel de significacin de = .001 las probabilidades de no rechazar una
Hiptesis Nula que sea realmente falsa pueden ser muy pocas. En la prctica hay que sopesar
ambos tipos de error. El minimizar el error Tipo I no significa que no tengamos que prestar
atencin al error Tipo II. Aunque las decisiones sobre el tamao de la muestra se toman
frecuentemente en funcin de los datos disponibles, o imitando lo que han hecho otros, no es
racional, (como seala Cohen, 1988:55), el determinar el tamao de la muestra sin tener en
cuenta el error Tipo II.
3. La magnitud de la diferencia (o de la relacin, etc.) que deseamos detectar y que
solemos denominar tamao del efecto. El trmino efecto no implica causalidad, sino
simplemente el grado en que un fenmeno (diferencia, relacin, etc.) est presente.
La implicacin de la magnitud en el tamao de la muestra es obvia: cuando las
diferencias son grandes, nos bastan pocos sujetos para detectarlas, pero cuando son muy
pequeas necesitamos muchos sujetos; si solamente nos interesan diferencias grandes,
necesitaremos muchos menos sujetos. Podemos intuirlo con un ejemplo muy claro. Si estamos
interesados en comprobar si difieren en altura los escandinavos y los twa (pigmeos de
Ruanda y Burundi) no necesitaremos muchos sujetos en las muestras; nos bastarn muy pocos
sujetos de cada grupo para caer en la cuenta de que se trata de poblaciones muy distintas en
altura. En cambio si se trata de encontrar diferencias pequeas entre las medias de
poblaciones que no difieren mucho entre s, no nos bastar con comparar muestras de tamao
pequeo. Es claro por otra parte que con muestras grandes es fcil encontrar diferencias
estadsticamente significativas pero pequeas y con frecuencia irrelevantes.
Al planificar cualquier tipo de experimento o anlisis debemos tener en cuenta tambin
en qu tipo de magnitud estamos interesados, porque si solamente son de inters magnitudes
ms bien grandes podemos ahorrar costes y trabajo utilizando muestras relativamente
pequeas. Si queremos garantizar a toda costa que nos salgan unas diferencias (o relaciones)
estadsticamente significativas, aunque sean muy pequeas (y con frecuencia de inters muy
dudoso o cuestionable), necesitaremos muestras muy grandes.
4. La varianza de la poblacin: ya sabemos que si los sujetos son muy iguales dentro de
cada grupo, necesitaremos muestras menores para detectar diferencias (si todos son de
idntica altura, o todos piensan lo mismo, etc., nos bastara un solo sujeto de cada grupo para
ver si hay alguna diferencia entre los grupos).
Estas cuatro variables se combinan en las frmulas apropiadas para determinar el
tamao ptimo de las muestras. Aunque en principio son preferibles las muestras grandes, por
razones de economa (costos, trabajo) podemos calibrar el tamao de la muestra de acuerdo
con nuestras especificaciones en estas cuatro variables.
No necesitamos aplicar las frmulas para conocer el tamao de la muestra porque ya
disponemos de tablas para las situaciones ms frecuentes; las tablas que ponemos aqu estn
muy reducidas pero pueden ser suficientes como orientacin sobre el tamao de la muestra
que debemos buscar (tablas ms completas pueden encontrase en los autores que citamos y en
otros). S es de inters conocer qu variables inciden en el nmero de sujetos que necesitamos.

Anlisis de varianza: anexos

19
No sobra recordar aqu que el tamao de la muestra es importante, pero no es la nica
caracterstica de la muestra que nos interesa. En diseos experimentales en sentido propio
necesitaremos muestras aleatorias, y en cualquier caso siempre debemos preguntarnos a qu
poblacin pueden estar representando las muestras que utilizamos.
2. Tamao de cada muestra cuando comparamos dos grupos (t de Student)

En la tabla 4 tenemos el tamao de cada muestra necesario para comparar dos


muestras9. Tablas semejantes, ms o menos extensas o adaptadas, pueden encontrarse en
diversos autores; no siempre coinciden exactamente las cifras del nmero de sujetos debido al
distinto redondeo de decimales al aplicar las frmulas.
Suponemos:

varianzas iguales,
muestras de idntico tamao,
hiptesis bilaterales
potencia (1-) de .80

nivel de confianza

d =.20

d = .30

d =.50

d = .70

d =.80

d =.1.0

d = 1.20

.05
.01

392
586

174
260

63
93

32
48

25
36

16
23

12
18

Tabla 5
Estamos suponiendo muestras de idntico tamao, pero si tenemos ya una muestra con
un determinado nmero de sujetos, podemos calcular el tamao necesario en la otra muestra.
La frmula [Cohen, 1988:59] es sta: n nuevo =

(n disponible )(n tablas )


2n disponible n tablas

Vamos a suponer, por ejemplo, que tenemos ya un grupo experimental de 40 sujetos que
ha tenido una determinada experiencia y deseamos compararlo con otro (grupo de control, o
al menos como trmino de comparacin); estamos interesados en detectar al menos una
diferencia moderada (d = .50) a un nivel de confianza de = .05 Cuntos sujetos deberemos
incluir en el nuevo grupo de control? En las tablas vemos que necesitaramos 63 sujetos en
cada grupo; el tamao del nuevo grupo deber ser:
n nuevo =

(40)(63)
= 148
(2x40) 63

3. Tamao de la muestra cuando tenemos ms de dos muestras (anlisis de varianza


unifactorial)

En la tabla 6 tenemos el nmero de sujetos necesario en cada muestra cuando tenemos


ms de dos muestras (entre tres y seis muestras).
En esta tabla hemos puesto como orientacin los valores correspondientes a = .05 y 1 (potencia) de .70 y .80; suponemos tambin un nmero idntico de sujetos en cada muestra.
Podemos tomar como referencia de magnitud o el valor de 2 o el valor de f, el tamao
del efecto propuesto por Cohen (1988) cuando tenemos ms de dos grupos10:

Valores seleccionados de la tabla 2.4.1 de Cohen (1988).


Ponemos los dos valores porque podemos encontrar los dos como referencia en otras tablas.

10

Anlisis de varianza: anexos

20
a) El coeficiente 2 nos cuantifica el grado de asociacin entre la variable
independiente (el pertenecer a uno u otro grupo) y la variable dependiente.
b) El tamao del efecto f propuesto por Cohen (1988) cuando tenemos ms de dos
grupos11.
Cuando tenemos solamente dos grupos, ya sabemos que el tamao del efecto es igual a
la diferencia entre las dos medias dividida por la desviacin tpica combinada. Cuando hay
ms dos grupos el denominador es el mismo, pero lo que tenemos en el numerador es la
dispersin o desviaciones de todas las medias con respecto a la media comn (un valor
anlogo a la desviacin tpica de las medias). En la prctica el clculo ms sencillo de f es a
partir de 2 (que es habitual calcular como complemento al anlisis de varianza); ambos
valores estn relacionados de esta manera (frmula 2.27):
f=

2
1 2

Realmente si hemos calculado 2 ya no necesitamos conocer el valor de f, pues no va a


aportar una informacin que nos lleve a una interpretacin o a una valoracin distinta. Por lo
que respecta a tener una orientacin sobre el tamao de la muestra, nos basta consultar las
tablas teniendo en cuenta, al menos de manera aproximada, el tipo de magnitud en la que
estamos interesados. Las valoraciones (magnitud pequea, moderada y grande) son de Cohen
y constituyen una referencia comnmente aceptada como gua orientadora12.
Suponemos que las k muestras son de idntico tamao; si son de tamao desigual
podemos utilizar el tamao medio de las muestras (N/k)13.
magnitud
moderada
2 = .06
f = .25

grande
2 = .14
f = .40

nmero de
grupos

potencia

pequea
2 = .01
f = .10

.70

258

42

17

.80

322

52

21

.70

221

36

15

.80

274

45

18

.70

195

32

13

.80

240

39

16

.70

175

29

12

.80

215

35

14

4
5
6

Tabla 6

11 Explicado por Cohen (1988:274ss, 284). Se trata de un tamao del efecto global, teniendo en cuenta todas las
diferencias de las medias con respecto a la media total (no se trata de la diferencia entre dos medias, como sucede en el
tamao del efecto convencional).
12 Los valores de referencia seleccionados estn tomados de Cohen (1988, tablas 8.4.4 y 8.4.5); tambin pueden
verse en Kirk (1995:186 y tabla E.13). Las tablas de Cohen (vlidas hasta 25 muestras) son ms fciles de consultar, y utiliza
f como criterio de magnitud; otros autores como Kirk (1995) utilizan ambos valores f y 2. Cohen utiliza el smbolo 2 en
vez de 2 (y comenta la falta de unanimidad en los smbolos en p. 282).
13 Las implicaciones del tamao desigual pueden vese comentadas en Cohen (1988:360ss). Si las muestras mayores
tienen tambin las mayores medias, el tamao del efecto ser mayor que si las muestras fueran de idntico tamao y tambin
ser mayor la potencia (y a la inversa tambin es verdad).

Anlisis de varianza: anexos

21
Los valores tabulados son el nmero de sujetos en cada muestra. En el caso de tres
muestras, si estamos interesados en verificar solamente si hay diferencias valoradas como
grandes y con una probabilidad de encontrarlas (si las hay) del 80%, necesitaremos una
muestra total de 21x3 = 63 sujetos; si en cambio consideramos un buen resultado el encontrar
diferencias pequeas (pero significativas), necesitaremos una muestra total de 322x3 = 966
sujetos.
Comparando los valores correspondientes a una potencia de .70 y 80 podemos apreciar
cmo al disminuir el nmero de sujetos disminuyen las probabilidades de rechazar la
Hiptesis Nula. En tablas ms extensas podramos ver que a) si tenemos tres muestras, b)
estamos interesados en descubrir pequeas diferencias (pero significativas) porque en nuestro
caso las consideramos relevantes y c) slo tenemos en torno a 20 sujetos en cada muestra, las
probabilidades de tener que aceptar la Hiptesis Nula de no diferencia siendo falsa son del
90%.
4. Tamao de la muestra en los diseos factoriales

En la tabla 7 tenemos el nmero necesario de sujetos en cada celda cuando tenemos dos
criterios de clasificacin (o factores) divididos en entre dos y cuatro niveles. Suponemos que
en cada clasificacin hay un idntico nmero de sujetos, como es usual en estos
planteamientos.
Suponemos tambin un nivel de confianza de = .05 y una potencia (1-) de .70 o de
.80 En estas tablas los niveles (o subclasificaciones) de cada factor pueden ser 2, 3 4.
Para valorar la magnitud utilizamos los mismos criterios de la tabla 514
El nmero total de sujetos ser igual al nmero de sujetos que aparece en la tabla
multiplicado por el nmero de subclasificaciones o celdas. En una tabla 2x3 tenemos 6 celdas;
si estamos interesados en detectar diferencias moderadas el nmero total de sujetos ser 6x18
= 108.
El nmero de sujetos especificado en la tabla 7 es suficiente para detectar si uno de los
dos factores (o los dos) es estadsticamente significativo (si hay diferencias entre los niveles
de cada factor, o, lo que es lo mismo, entre las medias de cada columna o de cada fila), pero
en el caso de la interaccin con estos mismos nmeros la potencia es menor porque
intervienen menos sujetos (no los totales de cada fila o columna sino los que hay en cada
clasificacin).

14 Los valores del tamao de la muestra (en cada clasificacin), puestos como referencia orientadora, estn
seleccionados de las extensas tablas de Kirk (1995:401 y tabla E.13). La disposicin de la tabla es una adaptacin muy
simplificada.

Anlisis de varianza: anexos

22

Tamao
de la tabla

2x2

potencia

.70
.80

pequea
2 = .01
f = .10
152

magnitud
moderada
2 = .06
f = .25
25

grande
2 = .14
f = .40
11

193

32

13

2x3

.70
.80

127
158

21
26

9
11

2x4

.70
.80

109
134

18
22

8
9

3x3

.70
.80

85
106

14
18

6
7

3x4

.70
.80

73
90

12
15

5
6

4x4

.70
.80

55
67

9
12

4
5

Tabla 7

Anlisis de varianza: anexos

23
Anexo VII: Mtodos no paramtricos de anlisis de varianza

Disponemos de una serie de alternativas no paramtricas al anlisis de varianza. No las


exponemos aqu porque se trata de procedimientos sencillos que pueden encontrarse en
muchos textos15; en cambio s interesa tener una visin de conjunto de estas otras
posibilidades metodolgicas, al menos de las ms importantes.
1. Observaciones sobre los mtodos no paramtricos
a) En realidad en estas alternativas no se trata de anlisis de varianza propiamente
dicho, porque no descomponemos ninguna varianza total en varianzas parciales; con estos
anlisis sin embargo llegamos a conclusiones del mismo orden, sobre si entre varias muestras
hay diferencias estadsticamente significativas o no las hay y pueden considerarse extradas
de la misma poblacin.
b) El trmino no paramtrico viene del hecho de que en estos mtodos no hacemos
ninguna suposicin sobre las condiciones que deben darse en las poblaciones de donde
proceden las muestras (un parmetro es una medida o caracterstica de una poblacin). Estas
condiciones o supuestos ya los conocemos:
1 Unidades de intervalo en las medidas,
2 Distribucin normal en las poblaciones,
3 Homogeneidad de varianzas.
c) Aunque los mtodos paramtricos, y el anlisis de varianza en particular, son en
trminos generales mtodos seguros aun cuando no se cumplan los supuestos previos, las
alternativas no paramtricas pueden ser preferibles cuando estos supuestos se violan de
manera clara, sobre todo con muestras pequeas (y con mayor razn si son de tamao
desigual), con distribuciones claramente no normales y sobre todo con varianzas muy
desiguales.
d) No hay que confundir mtodos no paramtricos con mtodos ordinales, aunque
muchos de los mtodos no paramtricos son ordinales; es decir el dato que se utiliza de cada
sujeto es el rango o nmero de orden (en otros se utilizan frecuencias acumuladas; el ji
cuadrado, y otros mtodos semejantes para tratar variables categricas, son tambin no
paramtricos).
e) Los mtodos no paramtricos no son una mera alternativa a los mtodos
paramtricos; son buenos procedimientos de anlisis en s mismos, con la ventaja aadida de
su simplicidad.
2. Mtodos no paramtricos ms importantes anlogos al anlisis de varianza
Los ms conocidos y los que con ms frecuencia se encuentran en los textos son las
alternativas a la t de Student, para dos muestras independientes (el ms conocido es la U de
Mann-Whitney aunque hay otros mtodos, como la prueba de Kolmogorov-Smirnov que
utiliza frecuencias acumuladas y la prueba de las rachas de Wald-Wolfowitz) o relacionadas
(como la T de Wilcoxon y la prueba de los signos que es una aplicacin directa de la
distribucin binomial). Por lo que respecta a lo mtodos no paramtricos que pueden
considerarse alternativas al anlisis de varianza (para analizar ms de dos muestras
independientes o relacionadas) los ms conocidos son los que figuran en la tabla 8.

15

En muchos textos de estadstica es normal encontrar algn captulo dedicado a estos mtodos no paramtricos en
los que se explican al menos los ms importantes. De la abundante bibliografa dedicada a los mtodos no paramtricos es
til mencionar a Siegel (1972; la primera edicin en ingls es de 1956 y sigue siendo una obra de referencia importante),
Siegel, y Castellan, (1988), Gibbons (1993) y Kanji (1993).
Anlisis de varianza: anexos

24

Tipos de hiptesis

Ms de dos muestras
independientes.
Ms de dos muestras
relacionadas

Hiptesis habitual: si las muestras


proceden de la misma poblacin

Hiptesis sobre si se da una


tendencia a crecer o decrecer

H de Kruskal-Wallis
(se utilizan rangos)

Prueba de Jonckheere

Prueba de Friedman
(se utilizan rangos)

Prueba L de Page
(extensin de la prueba de
Friedman)

Q de Cochran
(con puntuaciones dicotmicas, 1 0)

Prueba de Mann
(cuando n = 1)

Tabla 8
Las pruebas no paramtricas para comprobar tendencias son menos populares; de hecho
no se encuentran en la mayora de los textos.16
La H de Kruskal-Wallis, la alternativa al anlisis de varianza para varias muestras
independientes ms utilizada, es insensible a la no normalidad de las distribuciones, pero no
es tan claro que lo sea tambin a la falta de homogeneidad de varianzas.17
Un inconveniente de las dos pruebas ms populares como alternativa no paramtrica al
anlisis de varianza, la H de Kruskal-Wallis y el test de Friedman, es que la mayora de los
textos no suelen incluir contrastes posteriores o clculos complementarios (coeficientes de
asociacin del tipo 2) que ayuden a la interpretacin de los resultados y por este motivo con
frecuencia se estudian de manera incompleta18.
En Internet se encuentra con facilidad cmo hacer los anlisis no paramtricos ms
comunes (tambin el SPSS).
La H de Kruskal-Wallis y la prueba de Friedman (adems de los equivalentes a la t de
Student, U de Mann-Whiteny y T de Wilcoxon) se encuentran al menos en:
Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html (men
ordinal data)
Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong
http://department.obg.cuhk.edu.hk/index.asp?scr=1024 (men frequency tables)

16

Las pruebas de Page y Jonckheere para comprobar tendencias no estn descritas en el texto ms conocido de
Siegel y tampoco es fcil encontrarlas en textos convencionales de estadstica. Las dos pueden verse al menos en Siegel y
Castellan (1988) y en Hollander y Wolf (1973, un texto de nivel alto) y en Green y dOliveira (1984, un texto sencillo); la de
Jonckheere est tratada con mayor extensin en Leach (1982); la de Mann (muestras relacionadas y n = 1) tambin se
encuentra en Leach (1982).
17 Lix, Keselman y Keselman, (1996).
18 Sobre cmo llevar a cabo los contrastes posteriores en el anlisis de varianza no paramtrico (algo que no es fcil
encontrar en la mayora de los textos) pueden consultarse Linton, Gallo y Logan (1975), Pett (1997), Black (1999).
Anlisis de varianza: anexos

25
ANEXO VIII: Anlisis de Varianza en Internet

Son bastantes los programas que diversas instituciones ponen en Internet con acceso
libre y que permiten llevar a cabo diversos tipos de anlisis de varianza.
Muchos de estos programas permiten importar datos (de EXCEL, tabla de Word, etc.),
otros resuelven el anlisis de varianza para muestras independientes a partir de los datos
descriptivos bsicos (from summary data: media, desviacin tpica y nmero de sujetos).
Algunos de estos programas estn indicados en el ltimo apartado de anlisis de varianza
para muestras independientes. En el mismo lugar se indica dnde se pueden consultar
diversas tablas (F, Tukey, Dunnet) y las probabilidades exactas asociadas a cualquier valor de
F.
Una direccin con numerosos enlaces de anlisis estadsticos en las que podemos
encontrar con programas para llevar a cabo distintos tipos de anlisis de varianza pueden
verse en Web Pages that Perform Statistical Calculations!, http://statpages.org/ Esta
direccin se encuentra en John C. Pezzullo's Home Page (de Georgetown University,
Washington, DC.) http://statpages.org/JCPhome.html (en Interactive Statistics Pages). Esta
pgina presenta un ndice bien estructurado con enlaces a los diversos modelos de anlisis de
varianza y otros anlisis estadsticos. Muchos de estos enlaces remiten a estas direcciones de
inters general:
College of Saint Benedict/Saint Johns University [http://www.csbsju.edu/ ]
http://www.physics.csbsju.edu/stats/
Department of Obstetrics and Gynaecology, The Chinese University of Hong Kong
http://department.obg.cuhk.edu.hk/index.asp?scr=1024
GraphPad, San Diego, CA [http://graphpad.com/] Free Online Calculators for
Scientists, http://graphpad.com/quickcalcs/index.cfm
Institute of Phonetic Sciences, Amsterdam (en Demos, tests, experiments statistics)
http://www.fon.hum.uva.nl/Welcome.html
Lane, David M. HyperStat Online Statistics Textbook
http://davidmlane.com/hyperstat/index.html
Lowry, Richard, VassarStats: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html
SISA (Simple Interactive Statistical Analysis, de Consultancy for Research and
Statistics, Hilversum, The Netherlands) http://www.quantitativeskills.com/sisa/
Referencias bibliogrficas

BLACK, THOMAS R. (1999). Doing Quantitative Research in the Social Sciences. London:
Sage.
BLAND, J. MARTIN and ALTMAN, DOUGLAS G. (1995). Multiple significance tests: the
Bonferroni method. British Medical Journal 1995;310:170 (21 January).
http://www.bmj.com/cgi/content/full/310/6973/170
CICCHETTI, DOMINIC V. (1972). Extensions of multiple-range tests to interaction tables in the
analysis of variance: A rapid approximate solution. Psychological Bulletin, 77, 405-408.
COHEN, JACOB (1988). Statistical Power Analysis for the Behavioral Sciences. Second
Edition. Hillsdale, N.J.: Lawrence Elrbraum.

Anlisis de varianza: anexos

26
DEPARTMENT OF OBSTRETRICS AND GYNAECOLOGY, THE CHINESE UNIVERSITY OF HONG
KONG http://department.obg.cuhk.edu.hk/ResearchSupport/OWAV.asp
GIBBONS, JEAN DICKINSON, (1993). Nonparametric Tests, an Introduction. Quantitative
Applications in the Social Sciences. Newbury Park: N.J.: Sage
GRAPHPAD. San Diego, CA [http://graphpad.com/] Free Online Calculators for Scientists
http://graphpad.com/quickcalcs/posttest1.cfm
GREENE, JUDITH y D'OLIVEIRA, MANUELA, (1984). Pruebas estadsticas para psicologa y
ciencias sociales: una gua para el estudiante. Bogot, Colombia: edit. Norma
HANCOCK, GREGORY R. and KLOCKARS, ALAN J., (1996). The Quest for : Developments in
Multiple Comparison Procedures in the Quarter Century Since Games (1971). Review of
Educational Research, 66, (3). 269 - 306.
HOLLANDER, MYLES and WOLFE, DOUGLAS A., (1973). Nonparametric Statistical Methods.
New York: Wiley and Sons.
JACCARD, JAMES (1998). Interaction Effects in Factorial Analysis of Variance, Sage
University Paper Series on Quantitative Applications in the Social Sciences. Thousand
Oaks: Sage.
KANJI, GOPAL, (1993). 100 Statistical Tests. London: Sage.
KIRK, ROGER E., (1995). Experimental Design, Procedures for the Behavioral Sciences.
Boston: Brooks/Cole.
LANE, DAVID M. HyperStat Online Statistics Textbook
http://davidmlane.com/hyperstat/index.html
LEACH, CHRIS, (1982). Fundamentos de estadstica, enfoque no paramtrico para ciencias
sociales. Mxico: Limusa.
LINTON, MARIGOLD, GALLO JR., PHILLIP S. and LOGAN, CHERYL A., (1975). The Practical
Statistician, Simplified Handbook of Statistics. Monterey: Brooks/Cole.
LIX, LISA M., KESELMAN, JOANNE C. and KESELMAN, H.J., (1996). Consequences of
Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way
Analysis of Variance F Test. Review of Educational Research, 66 (4) 579-619.
LOWRY, RICHARD, VASSARSTATS: Web Site for Statistical Computation,Vassar College,
Poughkeepsie, NY, USA; http://faculty.vassar.edu/lowry/VassarStats.html
MCGUIGAN, F. J., (1994) Experimental Psychology, Methods of Research. Sixth edition.
Englewood Cliffs, N.J.: Hall.
PERNEGER, THOMAS V. (1998). What's wrong with Bonferroni adjustments. British Medical
Journal 1998; 316:1236-1238 http://www.bmj.com/cgi/content/full/316/7139/1236
PETT, MARJORIE A. (1997). Nonparametric Statistics for Health Care Research. Statistics for
Small Samples and Unusual Distributions. Thousand Oaks & London: Sage.
PEZZULLO, JHON C. Web Pages that Perform Statistical Calculations.
http://members.aol.com/johnp71/javastat.html; Analysis of Variance from Summary Data
http://members.aol.com/johnp71/anova1sm.html
SIEGEL, SIDNEY and CASTELLAN, JR., N. JOHN (1988). Nonparametric Statistics for the
Behavioral Sciences. New York: McGraw-Hill
SIEGEL, SIDNEY, (1972). Estadstica no paramtrica aplicada a las ciencias sociales.
Mxico: Trillas.
TOOTHAKER, LARRY E., (1991). Multiple Comparisons for Researchers: Sage University
Paper Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.
TOOTHAKER, LARRY E., (1993). Multiple Comparison Procedures, Sage University Paper
Series on Quantitative Applications in the Social Sciences. Newbury Park: Sage.

Anlisis de varianza: anexos

TABLAS ESTADSTICAS
ltima revisin 25 de Marzo de 2009

ndice
1. Distribucin normal..................................................................................................

2. t de Student...............................................................................................................

3. Ji cuadrado................................................................................................................

4. r de Pearson ..............................................................................................................

5. F de Snedecor ...........................................................................................................

6. Tukey........................................................................................................................

11

7. Dunnett .....................................................................................................................

12

1. Tablas de la
Distribucin
Normal
--

--

rea mayor

Puntuacin tpica positiva


Proporcin de casos por debajo

Puntuacin tpica negativa


Proporcin de casos por encima

rea menor

Proporcin de casos por encima

Proporcin de casos por debajo

Proporcin de casos por debajo: percentil (multiplicando por 100) correspondiente a cada puntuacin tpica;
Puntuacin tpica positiva:
rea mayor
Puntuacin tpica negativa: rea menor
rea
rea
rea
rea
rea
rea
z
z
z
mayor
menor
mayor
menor
mayor
menor
0.82
0.7939
0.2061
0.41
0.6591
0.3409
0.00
0.50
0.50
0.83
0.7967
0.2033
0.42
0.6628
0.3372
0.01
0.504
0.496
0.84
0.7995
0.2005
0.43
0.6664
0.3336
0.02
0.508
0.492
0.85
0.8023
0.1977
0.44
0.67
0.330
0.03
0.512
0.488
0.86
0.8051
0.1949
0.45
0.6736
0.3264
0.04
0.516
0.484
0.87
0.8078
0.1922
0.46
0.6772
0.3228
0.05
0.5199
0.4801
0.88
0.8106
0.1894
0.47
0.6808
0.3192
0.06
0.5239
0.4761
0.89
0.8133
0.1867
0.48
0.6844
0.3156
0.07
0.5279
0.4721
0.90
0.8159
0.1841
0.49
0.6879
0.3121
0.08
0.5319
0.4681
0.91
0.8186
0.1814
0.50
0.6915
0.3085
0.09
0.5359
0.4641
0.92
0.8212
0.1788
0.51
0.695
0.305
0.10
0.5398
0.4602
0.93
0.8238
0.1762
0.52
0.6985
0.3015
0.11
0.5438
0.4562
0.94
0.8264
0.1736
0.53
0.7019
0.2981
0.12
0.5478
0.4522
0.95
0.8289
0.1711
0.54
0.7054
0.2946
0.13
0.5517
0.4483
0.96
0.8315
0.1685
0.55
0.7088
0.2912
0.14
0.5557
0.4443
0.97
0.834
0.166
0.56
0.7123
0.2877
0.15
0.5596
0.4404
0.98
0.8365
0.1635
0.57
0.7157
0.2843
0.16
0.5636
0.4364
0.99
0.8389
0.1611
0.58
0.719
0.281
0.17
0.5675
0.4325
1.00
0.8413
0.1587
0.59
0.7224
0.2776
0.18
0.5714
0.4286
1.01
0.8438
0.1562
0.60
0.7257
0.2743
0.19
0.5753
0.4247
1.02
0.8461
0.1539
0.61
0.7291
0.2709
0.20
0.5793
0.4207
1.03
0.8485
0.1515
0.62
0.7324
0.2676
0.21
0.5832
0.4168
1.04
0.8508
0.1492
0.63
0.7357
0.2643
0.22
0.5871
0.4129
1.05
0.8531
0.1469
0.64
0.7389
0.2611
0.23
0.591
0.409
1.06
0.8554
0.1446
0.65
0.7422
0.2578
0.24
0.5948
0.4052
1.07
0.8577
0.1423
0.66
0.7454
0.2546
0.25
0.5987
0.4013
1.08
0.8599
0.1401
0.67
0.7486
0.2514
0.26
0.6026
0.3974
1.09
0.8621
0.1379
0.68
0.7517
0.2483
0.27
0.6064
0.3936
1.10
0.8643
0.1357
0.69
0.7549
0.2451
0.28
0.6103
0.3897
1.11
0.8665
0.1335
0.70
0.758
0.242
0.29
0.6141
0.3859
1.12
0.8686
0.1314
0.71
0.7611
0.2389
0.30
0.6179
0.3821
1.13
0.8708
0.1292
0.72
0.7642
0.2358
0.31
0.6217
0.3783
1.14
0.8729
0.1271
0.73
0.7673
0.2327
0.32
0.6255
0.3745
1.15
0.8749
0.1251
0.74
0.7703
0.2297
0.33
0.6293
0.3707
1.16
0.877
0.123
0.75
0.7734
0.2266
0.34
0.6331
0.3669
1.17
0.879
0.121
0.76
0.7764
0.2236
0.35
0.6368
0.3632
1.18
0.881
0.119
0.77
0.7794
0.2206
0.36
0.6406
0.3594
1.19
0.883
0.117
0.78
0.7823
0.2177
0.37
0.6443
0.3557
1.20
0.8849
0.1151
0.79
0.7852
0.2148
0.38
0.648
0.352
1.21
0.8869
0.1131
0.80
0.7881
0.2119
0.39
0.6517
0.3483
1.22
0.8888
0.1112
0.81
0.791
0.209
0.40
0.6554
0.3446

z
1.23
1.24
1.25
1.26
1.27
1.28
1.29
1.30
1.31
1.32
1.33
1.34
1.35
1.36
1.37
1.38
1.39
1.40
1.41
1.42
1.43
1.44
1.45
1.46
1.47
1.48
1.49
1.50
1.51
1.52
1.53
1.54
1.55
1.56
1.57
1.58
1.59
1.60
1.61
1.62
1.63
1.64
1.65
1.66
1.67
1.68
1.69
1.70
1.71
1.72
1.73
1.74
1.75
1.76

rea
mayor
0.8907
0.8925
0.8944
0.8962
0.898
0.8997
0.9015
0.9032
0.9049
0.9066
0.9082
0.9099
0.9115
0.9131
0.9147
0.9162
0.9177
0.9192
0.9207
0.9222
0.9236
0.9251
0.9265
0.9279
0.9292
0.9306
0.9319
0.9332
0.9345
0.9357
0.937
0.9382
0.9394
0.9406
0.9418
0.9429
0.9441
0.9452
0.9463
0.9474
0.9484
0.9495
0.9505
0.9515
0.9525
0.9535
0.9545
0.9554
0.9564
0.9573
0.9582
0.9591
0.9599
0.9608

rea
menor
0.1093
0.1075
0.1056
0.1038
0.102
0.1003
0.0985
0.0968
0.0951
0.0934
0.0918
0.0901
0.0885
0.0869
0.0853
0.0838
0.0823
0.0808
0.0793
0.0778
0.0764
0.0749
0.0735
0.0721
0.0708
0.0694
0.0681
0.0668
0.0655
0.0643
0.063
0.0618
0.0606
0.0594
0.0582
0.0571
0.0559
0.0548
0.0537
0.0526
0.0516
0.0505
0.0495
0.0485
0.0475
0.0465
0.0455
0.0446
0.0436
0.0427
0.0418
0.0409
0.0401
0.0392

z
1.77
1.78
1.79
1.80
1.82
1.81
1.83
1.84
1.85
1.86
1.87
1.88
1.89
1.90
1.91
1.92
1.93
1.94
1.95
1.96
1.97
1.98
1.99
2.00
2.01
2.02
2.03
2.04
2.05
2.06
2.07
2.08
2.09
2.10
2.11
2.12
2.13
2.14
2.15
2.16
2.17
2.18
2.19
2.20
2.21
2.22
2.23
2.24
2.25
2.26
2.27
2.28
2.29
2.30

rea
mayor
0.9616
0.9625
0.9633
0.9641
0.9656
0.9649
0.9664
0.9671
0.9678
0.9686
0.9693
0.9699
0.9706
0.9713
0.9719
0.9726
0.9732
0.9738
0.9744
0.975
0.9756
0.9761
0.9767
0.9772
0.9778
0.9783
0.9788
0.9793
0.9798
0.9803
0.9808
0.9812
0.9817
0.9821
0.9826
0.983
0.9834
0.9838
0.9842
0.9846
0.985
0.9854
0.9857
0.9861
0.9864
0.9868
0.9871
0.9875
0.9878
0.9881
0.9884
0.9887
0.989
0.9893

rea
menor
0.0384
0.0375
0.0367
0.0359
0.0344
0.0351
0.0336
0.0329
0.0322
0.0314
0.0307
0.0301
0.0294
0.0287
0.0281
0.0274
0.0268
0.0262
0.0256
0.025
0.0244
0.0239
0.0233
0.0228
0.0222
0.0217
0.0212
0.0207
0.0202
0.0197
0.0192
0.0188
0.0183
0.0179
0.0174
0.017
0.0166
0.0162
0.0158
0.0154
0.015
0.0146
0.0143
0.0139
0.0136
0.0132
0.0129
0.0125
0.0122
0.0119
0.0116
0.0113
0.011
0.0107

z
2.31
2.32
2.33
2.34
2.35
2.36
2.37
2.38
2.39
2.40
2.41
2.42
2.43
2.44
2.45
2.46
2.47
2.48
2.49
2.50
2.51
2.52
2.53
2.54
2.55
2.56
2.57
2.58
2.59
2.60
2.61
2.62
2.63
2.64
2.65
2.66
2.67
2.68
2.69
2.70
2.71
2.72
2.73
2.74
2.75
2.76
2.77
2.78
2.79
2.80
2.81
2.82
2.83
2.84

rea
mayor
0.9896
0.9898
0.9901
0.9904
0.9906
0.9909
0.9911
0.9913
0.9916
0.9918
0.992
0.9922
0.9925
0.9927
0.9929
0.9931
0.9932
0.9934
0.9936
0.9938
0.994
0.9941
0.9943
0.9945
0.9946
0.9948
0.9949
0.9951
0.9952
0.9953
0.9955
0.9956
0.9957
0.9959
0.996
0.9961
0.9962
0.9963
0.9964
0.9965
0.9966
0.9967
0.9968
0.9969
0.997
0.9971
0.9972
0.9973
0.9974
0.9974
0.9975
0.9976
0.9977
0.9977

rea
menor
0.0104
0.0102
0.0099
0.0096
0.0094
0.0091
0.0089
0.0087
0.0084
0.0082
0.008
0.0078
0.0075
0.0073
0.0071
0.0069
0.0068
0.0066
0.0064
0.0062
0.006
0.0059
0.0057
0.0055
0.0054
0.0052
0.0051
0.0049
0.0048
0.0047
0.0045
0.0044
0.0043
0.0041
0.004
0.0039
0.0038
0.0037
0.0036
0.0035
0.0034
0.0033
0.0032
0.0031
0.003
0.0029
0.0028
0.0027
0.0026
0.0026
0.0025
0.0024
0.0023
0.0023

z
2.85
2.86
2.87
2.88
2.89
2.90
2.91
2.92
2.93
2.94
2.95
2.96
2.97
2.98
2.99
3.00
3.01
3.02
3.03
3.04
3.05
3.06

rea
mayor
0.9978
0.9979
0.9979
0.998
0.9981
0.9981
0.9982
0.9982
0.9983
0.9984
0.9984
0.9985
0.9985
0.9986
0.9986
0.9987
0.9987
0.9987
0.9988
0.9988
0.9989
0.9989

rea
menor
0.0022
0.0021
0.0021
0.002
0.0019
0.0019
0.0018
0.0018
0.0017
0.0016
0.0016
0.0015
0.0015
0.0014
0.0014
0.0013
0.0013
0.0013
0.0012
0.0012
0.0011
0.0011

z
3.07
3.08
3.09
3.10
3.11
3.12
3.13
3.14
3.15
3.16
3.17
3.18
3.19
3.20
3.21
3.22
3.23
3.24
3.25
3.26
3.27
3.28

rea
mayor
0.9989
0.999
0.999
0.999
0.9991
0.9991
0.9991
0.9992
0.9992
0.9992
0.9992
0.9993
0.9993
0.9993
0.9993
0.9994
0.9994
0.9994
0.9994
0.9994
0.9995
0.9995

rea
menor
0.0011
0.001
0.001
0.001
0.0009
0.0009
0.0009
0.0008
0.0008
0.0008
0.0008
0.0007
0.0007
0.0007
0.0007
0.0006
0.0006
0.0006
0.0006
0.0006
0.0005
0.0005

z
3.29
3.30
3.31
3.32
3.33
3.34
3.35
3.36
3.37
3.38
3.39
3.40
3.41
3.42
3.43
3.44
3.45
3.46
3.47
3.48
3.49
3.50

rea
mayor
0.9995
0.9995
0.9995
0.9995
0.9996
0.9996
0.9996
0.9996
0.9996
0.9996
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9998
0.9998

rea
menor
0.0005
0.0005
0.0005
0.0005
0.0004
0.0004
0.0004
0.0004
0.0004
0.0004
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0003
0.0002
0.0002

2. Tablas de la t de Student
Pruebas de una cola (unilaterales) Grados de
Pruebas de dos colas (bilaterales) libertad
1
2
Grados de libertad:
3
Muestras independientes: N1 + N2 -2
4
Muestras relacionadas:
N-1
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

0.05
.10
6.313752
2.919986
2.353363
2.131847
2.015048
1.943180
1.894579
1.859548
1.833113
1.812461
1.795885
1.782288
1.770933
1.761310
1.753050
1.745884
1.739607
1.734064
1.729133
1.724718
1.720743
1.717144
1.713872
1.710882
1.708141
1.705618
1.703288
1.701131
1.699127
1.697261
1.644854

0.025
.05
12.70620
4.30265
3.18245
2.77645
2.57058
2.44691
2.36462
2.30600
2.26216
2.22814
2.20099
2.17881
2.16037
2.14479
2.13145
2.11991
2.10982
2.10092
2.09302
2.08596
2.07961
2.07387
2.06866
2.06390
2.05954
2.05553
2.05183
2.04841
2.04523
2.04227
1.95996

0.005
0.0005
.01
.001
63.65674 636.6192
9.92484 31.5991
5.84091 12.9240
4.60409
8.6103
4.03214
6.8688
3.70743
5.9588
3.49948
5.4079
3.35539
5.0413
3.24984
4.7809
3.16927
4.5869
3.10581
4.4370
3.05454
4.3178
3.01228
4.2208
2.97684
4.1405
2.94671
4.0728
2.92078
4.0150
2.89823
3.9651
2.87844
3.9216
2.86093
3.8834
2.84534
3.8495
2.83136
3.8193
2.81876
3.7921
2.80734
3.7676
2.79694
3.7454
2.78744
3.7251
2.77871
3.7066
2.77068
3.6896
2.76326
3.6739
2.75639
3.6594
2.75000
3.6460
2.57583
3.2905

Adaptadas de STATSOFT, INC. (2002). Electronic Statistics Textbook. Tulsa, OK: StatSoft.
WEB: http://www.statsoft.com/textbook/stathome.html

3. Tablas del ji cuadrado (2)


Grados
de
libertad

1
3
4
5
6
7
8
9
10
11
12

p=
0.05

p=
0.01

p=
0.001

3.84
7.82
9.49
11.07
12.59
14.07
15.51
16.92
18.31
19.68
21.03

6.64
11.35
13.28
15.09
16.81
18.48
20.09
21.67
23.21
24.73
26.22

10.83
16.27
18.47
20.52
22.46
24.32
26.13
27.88
29.59
31.26
32.91

Grados
de
libertad

13
14
15
16
17
18
19
20
21
22
23

p=
0.05

p=
0.01

p=
0.001

22.36
23.69
25.00
26.30
27.59
28.87
30.14
31.41
32.67
33.92
35.17

27.69
29.14
30.58
32.00
33.41
34.81
36.19
37.57
38.93
40.29
41.64

34.53
36.12
37.70
39.25
40.79
42.31
43.82
45.32
46.80
48.27
49.73

Grados
de
libertad

24
25
26
27
28
29
30
40
50
60
70

p=
0.05

p=
0.01

36.42
37.65
38.89
40.11
41.34
42.56
43.77
55.76
67.51
79.08
90.53

42.98
44.31
45.64
46.96
48.28
49.59
50.89
63.69
76.15
88.38

p=
0.001

51.18
52.62
54.05
55.48
56.89
58.30
59.70
73.41
86.66
99.62
100.42 112.31

Tablas adaptadas y abreviadas de Alexei Sharov, Virginia Tech, Blacksburg, VA,


Quantitative Population Ecology, On-Line Lectures http://www.ento.vt.edu/~sharov/PopEcol/

4. Tablas del coeficiente de correlacin r de Pearson


Tablas del coeficiente de correlacin r de Pearson
(N entre 3 y 102)
Grados de libertad
.05
.01
.001
Con muestras
grandes:
z=

r
1/ N-1

y consultar las
tablas de la
distribucin
normal;
z >1.96, p<.05
z >2.56, p<.01
z >3.3, p<.001
o consultar
alguna direccin
de Internet.

= N-2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
95
98
100

.9969
.9500
.8783
.8114
.7545
.7067
.6664
.6319
.6021
.5760
.5529
.5324
.5139
.4973
.4821
.4683
.4555
.4438
.4329
.4227
.3809
.3494
.3246
.3044
.2875
.2732
.2609
.2500
.2405
.2319
.2242
.2172
.2108
.2050
.1996
.1986
.1946

.9998
.9900
.9587
.9172
.8745
.8343
.977
.7646
.7348
.7079
.6835
.6614
.6411
.6226
.6055
.5897
.5751
.5614
.5487
.5368
.4869
.4487
.4182
.3932
.3721
.3541
.3386
.3248
.3127
.3017
.2919
.2830
.2748
.2673
.2604
.2591
.2540

.9999
.9990
.9911
.9740
.9507
.9249
.8982
.8721
.8471
.8233
.8010
.7800
.7603
.7420
.7246
.7084
.6932
.6787
.6652
.6523
.5974
.5541
.5189
.4896
.4648
.4433
.4244
.4078
.3931
.3799
.3678
.3568
.3468
.3375
.3291
.3274
.3211

Estas tablas se encuentran en muchas direcciones de Internet, como Cosme Chaves


Introduccin a la Estadstica http://costaricalinda.com/Estadistica/ (tablas)
La probabilidad exacta de cualquier valor de r puede verse en estas direcciones (entre otras
muchas) http://graphpad.com/quickcalcs/PValue1.cfm ,
http://department.obg.cuhk.edu.hk/ResearchSupport/Correlation_coeff.asp
http://faculty.vassar.edu/lowry/VassarStats.html;
Los valores mnimos estadsticamente significativos de r (p =.05, .01 y .001 para cualquier
valor de N en http://department.obg.cuhk.edu.hk/ResearchSupport/Minimum_correlation.asp

5. Tablas de la F de Snedecor
Grados de libertad en el denominador (v2)
Grados de libertad en el numerador (v1)
p
1
2
3
4
5
6
7
8
12
.10
4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34
3.27
5
.05
6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.68
.01
16.3 13.3 12.1 11.4 11.0 10.7 10.5 10.3 9.89
.10
3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98
2.90
6
.05
5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.00
.01
13.7 10.9 9.78 9.15 8.75 8.47 8.26 8.10 7.72
.10
3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75
2.67
7
.05
5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.57
.01
12.2 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.47
.10
3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59
2.50
8
.05
5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.57
.01
11.3 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.67
.10
3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47
2.38
9
.05
5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.07
.01
10.6 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.11
.10
3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38
2.28
10
.05
4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 2.91
.01
10.0 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.71
.10
3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30
2.21
11
.05
4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.79
.01
9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.40
.10
3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24
2.15
12
.05
4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.69
.01
9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.16
.10
3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20
2.10
13
.05
4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.60
.01
9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 3.96
.10
3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15
2.05
14
.05
4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.53
.01
8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 3.80
.10
3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12
2.02
15
.05
4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.48
.01
8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.67
.10
3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09
1.99
16
.05
4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.42
.01
8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89
3.55
.10
3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06
1.96
17
.05
4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.38
.01
8.40 6.11 5.19 4.67 4.34 4.10 3.93 3.79
3.46
.10
.01
2.62 2.42 2.29 2.20 2.13 2.08 2.04
1.93
18
.05
4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.34
.01
8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71
3.37
.10
2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02
1.91
19
.05
4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.31
.01
8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63
3.30
.10
2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00
1.89
20
.05
4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.28
.01
8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56
3.23

24

3.19
4.53
9.47
2.82
3.84
7.31
2.58
3.41
6.07
2.40
3.41
5.28
2.28
2.90
4.73
2.18
2.74
4.33
2.10
2.61
4.02
2.04
2.51
3.78
1.98
2.42
3.59
1.94
2.35
3.43
1.90
2.29
3.29
1.87
2.24
3.18
1.84
2.19
3.08
1.81
2.15
3.00
1.79
2.11
2.92
1.77
2.08
2.86

3.11
4.37
9.02
2.72
3.67
6.88
2.47
3.23
5.65
2.29
3.23
4.86
2.16
2.71
4.31
2.06
2.54
3.91
1.97
2.40
3.60
1.90
2.30
3.36
1.85
2.21
3.17
1.80
2.13
3.00
1.76
2.07
2.87
1.72
2.01
2.75
1.69
1.96
2.65
1.66
1.92
2.57
1.63
1.88
2.49
1.61
1.84
2.42

10

Grados de libertad en el denominador (v2)


Grados de libertad en el numerador (v1)
p
1
2
3
4
5
6
7
8
12
.10
2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98
1.87
21
.05
4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.25
.01
8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51
3.17
.10
2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97
1.86
22
.05
4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.23
.01
7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45
3.12
.10
2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95
1.84
23
.05
4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.20
.01
7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41
3.07
.10
2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94
1.83
24
.05
4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.18
.01
7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36
3.03
.10
2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93
1.82
25
.05
4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.16
.01
7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32
2.99
.10
2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92
1.81
26
.05
4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.15
.01
7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29
2.96
.10
2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91
1.80
27
.05
4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.13
.01
7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26
2.93
.10
2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90
1.79
28
.05
4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.12
.01
7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23
2.90
.10
2.89 2.50 2.28 2.15 2.06 1.99 1.93 1.89
1.78
29
.05
4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.10
.01
7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20
2.87
.10
2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88
1.77
30
.05
4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.09
.01
7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17
2.84
.10
2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83
1.71
40
.05
4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.00
.01
7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99
2.66
.10
2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77
1.66
60
.05
4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 1.92
.01
7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82
2.50
.10
2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72
1.60
120 .05 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.83
.01
6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66
2.34
.10
2.71 2.30 2.08 1.94 1.85 1.77 1.72 1.67
1.55

.05
3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.75
.01
6.64 4.61 3.78 3.32 3.02 2.80 2.64 2.51
2.18

24

1.75
2.05
2.80
1.73
2.03
2.75
1.72
2.01
2.70
1.70
1.98
2.66
1.69
1.96
2.62
1.68
1.95
2.58
1.67
1.93
2.55
1.66
1.91
2.52
1.65
1.90
2.49
1.64
1.89
2.47
1.57
1.79
2.29
1.51
1.70
2.12
1.45
1.61
1.95
1.38
1.52
1.79

1.59
1.81
2.36
1.57
1.78
2.31
1.55
1.76
2.26
1.53
1.73
2.21
1.52
1.71
2.17
1.50
1.69
2.13
1.49
1.67
2.10
1.48
1.65
2.06
1.47
1.64
2.03
1.46
1.62
2.01
1.38
1.51
1.80
1.29
1.39
1.60
1.19
1.25
1.38
1.00
1.00
1.00

Adaptadas y simplificadas de SIX SIGMA Reference Tables


http://www.micquality.com/reference_tables/f_tables010.htm y de Bissonnette, Victor L.,
Berry College http://facultyweb.berry.edu/vbissonnette/
Al final de Anlisis de varianza para varias muestras independientes pueden verse
direcciones de Internet con diversas tablas y para ver la probabilidad exacta de cualquier valor
de t y F.

11

6. Tablas del rango estudentizado (q) de Tukey


Grados de libertad

k = nmero de medias

Trmino del error

5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
24
30
40
60
120

p ()

10

.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01

3.64
5.70
3.46
5.24
3.34
4.95
3.26
4.75
3.20
4.60
3.15
4.48
3.11
4.39
3.08
4.32
3.06
4.26
3.03
4.21
3.01
4.17
3.00
4.13
2.98
4.10
2.97
4.07
2.96
4.05
2.95
4.02
2.92
3.96
2.89
3.89
2.86
3.82
2.83
3.76
2.80
3.70
3.31
4.12

4.60
6.98
4.34
6.33
4.16
5.92
4.04
5.64
3.95
5.43
3.88
5.27
3.82
5.15
3.77
5.05
3.73
4.96
3.70
4.89
3.67
4.84
3.65
4.79
3.63
4.74
3.61
4.70
3.59
4.67
3.58
4.64
3.53
4.55
3.49
4.45
3.44
4.37
3.40
4.28
3.36
4.20
3.63
4.40

5.22
7.80
4.90
7.03
4.68
6.54
4.53
6.20
4.41
5.96
4.33
5.77
4.26
5.62
4.20
5.50
4.15
5.40
4.11
5.32
4.08
5.25
4.05
5.19
4.02
5.14
4.00
5.09
3.98
5.05
3.96
5.02
3.90
4.91
3.85
4.80
3.79
4.70
3.74
4.59
3.68
4.50
3.86
4.60

5.67
8.42
5.30
7.56
5.06
7.01
4.89
6.62
4.76
6.35
4.65
6.14
4.57
5.97
4.51
5.84
4.45
5.73
4.41
5.63
4.37
5.56
4.33
5.49
4.30
5.43
4.28
5.38
4.25
5.33
4.23
5.29
4.17
5.17
4.10
5.05
4.04
4.93
3.98
4.82
3.92
4.71
4.03
4.76

6.03
8.91
5.63
7.97
5.36
7.37
5.17
6.96
5.02
6.66
4.91
6.43
4.82
6.25
4.75
6.10
4.69
5.98
4.64
5.88
4.59
5.80
4.56
5.72
4.52
5.66
4.49
5.60
4.47
5.55
4.45
5.51
4.37
5.37
4.30
5.24
4.23
5.11
4.16
4.99
4.10
4.87
4.17
4.88

6.33
9.32
5.90
8.32
5.61
7.68
5.40
7.24
5.24
6.91
5.12
6.67
5.03
6.48
4.95
6.32
4.88
6.19
4.83
6.08
4.78
5.99
4.74
5.92
4.70
5.85
4.67
5.79
4.65
5.73
4.62
5.69
4.54
5.54
4.46
5.40
4.39
5.26
4.31
5.13
4.24
5.01
4.29
4.99

6.58
9.67
6.12
8.61
5.82
7.94
5.60
7.47
5.43
7.13
5.30
6.87
5.20
6.67
5.12
6.51
5.05
6.37
4.99
6.26
4.94
6.16
4.90
6.08
4.86
6.01
4.82
5.94
4.79
5.89
4.77
5.84
4.68
5.69
4.60
5.54
4.52
5.39
4.44
5.25
4.36
5.12
4.39
5.08

6.80
9.97
6.32
8.87
6.00
8.17
5.77
7.68
5.59
7.33
5.46
7.05
5.35
6.84
5.27
6.67
5.19
6.53
5.13
6.41
5.08
6.31
5.03
6.22
4.99
6.15
4.96
6.08
4.92
6.02
4.90
5.97
4.81
5.81
4.72
5.65
4.63
5.50
4.55
5.36
4.47
5.21
4.47
5.16

6.99
10.24
6.49
9.10
6.16
8.37
5.92
7.86
5.74
7.49
5.60
7.21
5.49
6.99
5.39
6.81
5.32
6.67
5.25
6.54
5.20
6.44
5.15
6.35
5.11
6.27
5.07
6.20
5.04
6.14
5.01
6.09
4.92
5.92
4.82
5.76
4.73
5.60
4.65
5.45
4.56
5.30
2.77
3.64

12

7. Tablas de Dunett
Para comparar varias medias con la media de un grupo de control,
Muestras de idntico tamao, pruebas bilaterales
Nmero de medias sin incluir el grupo de control
grados de
libertad
1
2
3
4
5
6
7
8
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
24
30
40
60
120

.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05
.01
.05

4.03
2.57
3.71
2.45
3.50
2.36
3.36
2.31
3.25
2.26
3.17
2.23
3.11
2.20
3.05
2.18
3.01
2.16
2.98
2.14
2.95
2.13
2.92
2.12
2.90
2.11
2.88
2.10
2.86
2.09
2.85
2.09
2.80
2.06
2.75
2.04
2.70
2.02
2.66
2.00
2.62
1.98
2.58
1.96

4.63
3.03
4.21
2.86
3.95
2.75
3.77
2.67
3.63
2.61
3.53
2.57
3.45
2.53
3.39
2.50
3.33
2.48
3.29
2.46
3.25
2.44
3.22
2.42
3.19
2.41
3.17
2.40
3.15
2.39
3.13
2.38
3.07
2.35
3.01
2.32
2.95
2.29
2.90
2.27
2.85
2.24
2.79
2.21

4.98
3.29
4.51
3.10
4.21
2.97
4.00
2.88
3.85
2.81
3.74
2.76
3.65
2.72
3.58
2.68
3.52
2.65
3.47
2.63
3.43
2.61
3.39
2.59
3.36
2.58
3.33
2.56
3.31
2.55
3.29
2.54
3.22
2.51
3.15
2.47
3.09
2.44
3.03
2.41
2.97
2.38
2.92
2.35

5.22
3.48
4.71
3.26
4.39
3.12
4.17
3.02
4.01
2.95
3.88
2.89
3.79
2.84
3.71
2.81
3.65
2.78
3.59
2.75
3.55
2.73
3.51
2.71
3.47
2.69
3.44
2.68
3.42
2.66
3.40
2.65
3.32
2.61
3.25
2.58
3.19
2.54
3.12
2.51
3.06
2.47
3.00
2.44

5.41
3.62
4.87
3.39
4.53
3.24
4.29
3.13
4.12
3.05
3.99
2.99
3.89
2.94
3.81
2.90
3.74
2.87
3.69
2.84
3.64
2.82
3.60
2.80
3.56
2.78
3.53
2.76
3.50
2.75
3.48
2.73
3.40
2.70
3.33
2.66
3.26
2.62
3.19
2.58
3.12
2.55
3.06
2.51

5.56
3.73
5.00
3.49
4.64
3.33
4.40
3.22
4.22
3.14
4.08
3.07
3.98
3.02
3.89
2.98
3.82
2.94
3.76
2.91
3.71
2.89
3.67
2.87
3.63
2.85
3.60
2.83
3.57
2.81
3.55
2.80
3.47
2.76
3.39
2.72
3.32
2.68
3.25
2.64
3.18
2.60
3.11
2.57

5.69
3.82
5.10
2.57
4.74
3.41
4.48
3.29
4.30
3.20
4.16
3.14
4.05
3.08
3.96
3.04
3.89
3.00
3.83
2.97
3.78
2.95
3.73
2.92
3.69
2.90
3.66
2.89
3.63
2.87
3.60
2.86
3.52
2.81
3.44
2.77
3.37
2.73
3.29
2.69
3.22
2.65
3.15
2.61

5.80
3.90
5.20
3.64
4.82
3.47
4.56
3.35
4.37
3.26
4.22
3.19
4.11
3.14
4.02
3.09
3.94
3.06
3.88
3.02
3.83
3.00
3.78
2.97
3.74
2.95
3.71
2.94
3.68
2.92
3.65
2.90
3.57
2.86
3.49
2.82
3.41
2.77
3.33
2.73
3.26
2.69
3.19
2.65

9
5.89
3.97
5.28
3.71
4.89
3.53
4.62
3.41
4.43
3.32
4.28
3.24
4.16
3.19
4.07
3.14
3.99
3.10
3.93
3.07
3.88
3.04
3.83
3.02
3.79
3.00
3.75
2.98
3.72
2.96
3.69
2.95
3.61
2.90
3.52
2.86
3.44
2.81
3.37
2.77
3.29
2.73
3.22
2.69

Adaptadas de http://www.forecastingprinciples.com/tables.pdf , Lane, David M. HyperStat


Online Statistics Textbook (http://davidmlane.com/hyperstat/index.html)
http://davidmlane.com/hyperstat/table_Dunnett.html (en Introduction to Between-Subjects
ANOVA Comparing means with a control)

Das könnte Ihnen auch gefallen