Sie sind auf Seite 1von 8

C.

San Luis
ANÁLISIS DE VARIANZA

Los Modelos de ANOVA son una familia o conjunto de técnicas


derivadas del modelo lineal general cuyas características más
definitorias son que la Variable dependiente es continua (intervalo o
de razón) y la/s variable/s independientes (llamadas en este contexto
FACTORES) son nominales o han sido dicotomizadas (es decir
establecido clase excluyentes entre ellas) u ordinales. 1
Se utiliza cuando la pregunta de investigación pretende responder a
cuestiones relativa a “Diferencias” entre varios grupos (más de dos ya
que para dos grupos existen las pruebas t que son un caso particular).

El ANOVA es un método muy flexible que permite construir modelos


estadísticos para el análisis de los datos. Básicamente es un
procedimiento que permite dividir la varianza de la variable
dependiente en dos o más componentes, cada uno de los cuales puede
ser atribuido a una fuente (presumiblemente) causante de la variación
(variable o factor) identificable. Lo anterior quiere decir que los
modelos de Análisis de Varianza (al igual que ocurre con cualquier
modelo estadístico) se pueden escribir de forma genérica:

(Valor observado) = Σ (efectos de los factores) + Σ (efectos error) (1)

El valor observado se refiere al que se obtiene en el proceso de medida


y corresponde a lo que comúnmente llamamos “variable dependiente”
(V.D) que debe ser continua. Los efectos de los factores son
parámetros (variables aleatorias que ya veremos en cada caso a que
corresponden) y son el resultado de los efectos (en el caso de que se
produzcan) de los distintos niveles que administramos o fijamos de los
factores, y que, presumiblemente, actúan sobre la V.D., son pues las
habitualmente llamadas variables independientes y, producen
variaciones atribuibles a ellos en la V.D. Aquellos efectos no
atribuibles a ningún factor contemplado en el diseño se denominan
efectos error (residuales).
Ahora bien, sobre los efectos no atribuibles a ninguno de los factores
contemplados en un diseño (concreto), para algunos de ellos, el
investigador puede, si así lo desea, ejercer control, esto es mantenerlos
constantes, por ejemplo, en una investigación podemos, si lo hacemos
en un ambiente controlado, mantener constante la “luminosidad” o
podemos controlar la edad (por ejemplo seleccionando sujetos todos de
la misma edad) o podemos mantener constante la “inteligencia”
seleccionando sujetos todos con el mismo nivel de inteligencia. Estos
factores, que si queremos podemos controlar, también puede ocurrir

1
Se trata, en último término, de un análisis de regresión múltiple con variables
DUMY.
que no queramos controlarlos (en aras a tener una mayor
generabilidad), por ejemplo, podemos no controlar la inteligencia para
poder llevar “más allá nuestras inferencias”. En otros términos,
podemos decir que hay factores dentro de lo que englobamos en los
“efectos del error” que pueden o no ser controlados.
Existen otros factores sobre los que es literalmente imposible ejercer
control, por ejemplo “la historia personal”, estos siempre estarán
incluidos con el modelo como términos de error, los otros, los factibles
de ser controlados estarán o no en le término de error, según los
hayamos controlado o no (es una decisión delimitada en todo caso por
lo intereses de la investigación que depende del investigador y que
determinará el tipo de diseño).
Lo anterior quiere decir que el modelo:

(Valor observado) = Σ (efectos de los factores) + Σ (efectos error) (2)

Puede reescribirse como:

(Valor observado) = Σ (efectos de los factores constantes o


controlados) + Σ (efectos de los factores manipulados o administrados)
+ Σ (efectos error) (3)

Es importante ver que esta forma de plantear la cuestión nos lleva a la


misma expresión que la empleada en la regresión, es decir lo anterior
lo podemos expresar matemáticamente como:

Yij = 0 Xi0 + 1 Xi1 + Ei donde: (4)

Yij corresponde a la puntuación de un sujeto (i)

X0; X1 son los factores (variables independientes) incluidos en el


modelo para explicar la variable dependiente Y y, 0; 1 corresponde a
los parámetros que se deben estimar y que informan sobre la
importancia de cada factor (variable independiente) en el modelo.
Destacar la similitud con lo visto en regresión sin más que tener
presente que 0 Xi0 representa los efectos debidos a los factores que
hemos mantenido constantes (controlados) y que son comunes a todos
los sujetos donde X0 es =1 y 0 es la parte de la variable dependiente
común a todos los sujetos, por tanto se corresponde con µ (es decir la
media poblacional).

Ei representa el error o efecto de aquellas variables no tenidas presentes


y que varía aleatoriamente. (Es decir es el término de error y
corresponde a lo que “el modelo se aleja de la realidad).

Las expresiones anteriores corresponden a un modelo con una única variable


independiente. Si trabajamos con dos, el modelo sería el que aparece en la
expresión (5):

Yij = 0 Xi0 + 1 Xi1 + 2 Xi2 + Ei (5).


En el caso de que el número de variables independientes (factores)
fuese 3 la expresión anterior sería (6).

Yij = 0 Xi0 + 1 Xi1 + 2 Xi2 + 3 Xi3 + Ei (6)

En general, para k factores (variables independientes) la expresión


será:
Yik = 0 Xi0 + 1 Xi1 + 2 Xi2 + 3 Xi3 + …. …+ 3 Xik + Ei (7)

A cada situación concreta de investigación corresponde una expresión


específica del modelo anterior.2

SUPUESTOS

El ANOVA, como cualquier técnica estadística se basa en ciertos


requerimientos (supuestos), sobre de las variables aleatorias. Estos
supuestos son:

 Distribución normal de la V.D. a en todos y cada unos de los


grupos establecidos
 Homocedasticidad: Igualdad de varianzas en la/s variable/S
Independientes en los K grupos
 Independencia de las observaciones (cada observación no esta
correlacionada con el resto de las observaciones).

El incumplimiento de los supuestos afectará en mayor o menor grado a


la conclusión estadística incrementando el Error Tipo I o el Error Tipo
II según el caso3.

Supuesto de Normalidad, diversos autores mantienen que con n > 50,


F es bastante robusta, así mismo Riba (1990) señala que las
distribuciones leptocúrticas, es decir con índice de apuntamiento
positivo la probabilidad de Error Tipo I es superior al  prefijado
mientras que el error tipo I es menor que  en distribuciones
mesocúrticas es decir con apuntamiento negativo, sobre estas
consideraciones recordar la relación inversa entre error Tipo I y Tipo II
ya explicadas en otros documentos.

Supuesto de Homocedasticidad destacar que si el diseño es


equilibrado le estadístico F es bastante robusto en relación con esta
supuesto. Cuando los diseños son NO equilibrados el incumplimiento
de este supuesto es más grave ya que el Error Tipo I real es
considerablemente distinto del  prefijado. Riba (1990) aclara que es
estos casos que cuando el grupo con mayor número de observaciones
es el que posee mayor varianza el error tipo I es mayor que el 

2
Ver el apéndice donde se expresan algunos de estos modelos.
3
El ANOVA en general es bastante robusto respecto a violaciones de los supuestos de
Normalidad y Homocedasticidad..
prefijado (el Tets F es más liberal), mientras que si el grupo con menor
número de sujetos es le que presenta mayor varianza el error tipo I es
menor que el  prefijado (el test F es más conservador).

Supuesto de Independencia de las Observaciones: La independencia


de los errores es de todos los supuestos aquel que cuando se incumple
produce graves consecuencias en la conclusión estadística ya que
afecta a error tipo I y a la potencia de la prueba. Se entiende que la
independencia se refiere a que cada observación no este relacionada o
correlacionada con las otras observaciones. En otros términos, la razón
F No es un test robusto ante el incumplimiento de este supuesto (es
especialmente peligroso y se debe estudiar con mucha atención en
los diseños de medidas repetidas).

Finalmente, en este contexto resaltar que en algunas ocasiones el valor


obtendio es F< 1, (lo que es bastante incongruente dada la propia
definición de F), cuando esto ocurre muchos autores consideran que es
síntoma de incumplimiento de los supuestos paramétricos o de que el
modelo elegido no es el correcto4. Ante este hecho, Ostle propone
utilizar el inverso del estadístico calculado, es decir 1/F, como valor a
contrastar, valor que se compara con la F correspondiente pero con los
grados de libertad cambiados (gl error; gl efecto). Si como resultado de
lo anterior se ACEPTA H0 no pasa nada, ahora, si se rechaza H0, el
resultado no es válido y por tanto hay que buscar una solución
estudiando cada elemento implicado en el diseño de la investigación en
curso.

4
Entre los que consideran que no es importantes Snedecor y entre los que lo consideran un
criterio determinante que impide el uso de técnicas paramétricas Ostle.
IDEAS BÁSICAS SOBRE LAS RESPUESTAS QUE OFRECEN
LOS DISEÑOS

Los diseños Factoriales (llamados también diseños Inter-grupos)


permiten estudiar el efecto conjunto de varias (más de una) variables
independientes (factores) sobre una variable dependiente. La principal
ventaja que ofrecen es que además e aportar información relativa al
efecto de cada factor por si mismo, informa de la acción conjunta
(interacción) que las V.I. pueden ejercer sobre la V.D.

Los Diseños Factoriales completos supone que existen tanto grupos


(muestras) como combinaciones entre los niveles de todas la V.I.. El
análisis de estos diseños implica el estudio de los factores Principales
(acción de cada V.I. o factor individualmente) y los efectos de la
INTERACCIONES (efecto de la combinación o acción conjunta de las
V.I. o factores implicados en el estudio).

Existen situaciones en las que se puede plantear un diseño


INCOMPLETO, que son aquellos en los que algunas de las
combinaciones están ausentes, en este caso algunos de los efectos
factoriales no pueden ser estudiados.5

Los diseños de Medidas Repetidas (Llamados también diseños


Intra-grupos): permiten estudiar el patrón de cambio de los sujetos a
través del tiempo en función de los tratamientos. Los diseños de
medidas repetidas se diferencian de los Inter-sujetos en que en ellos la
unidad experimental (sujeto) recibe todos los niveles de la/s variable/s
independiente/s.
Estos diseños, además del supuesto de Hocedasticidad (igualdad de
varianzas) debe cumplirse también el principio de circularidad (igual
covarianza en todos los grupos)6.
El contraste apropiado para comprobar este principio es “Esfericidad de
Mauchy” cuyo estadístico es W, que se valora como cualquier otro
estadístico.
Si el valor p de W es > 0.05, ACEPTAMOS H0, ES DECIR SE
CUMPLE EL SUPUESTO, esto es “la matriz de varianzas-
covarianzas es circular”. Cuando esto ocurre, y dado que F univariada es
más potente que sus homólogos multivariados, se estudiaran los
resultados a través de los contrastes invariados, en caso de no cumplirse
deberá estudiarse los resultados a través de los resultados
correspondientes a los contrastes multivariados.
Cuando p de W es < 0.05 hay dos soluciones al problema:

5
Sobre estas cuestiones consultar “Diseños Experimentales en Psicología” Manuel Ato García
Y Guillermo Vallejo Seco (2007). Psicología Pirámide.
6
Este principio se puede y debe incluir en el estudio de la homocedasticidad. Supone
que las varianzas de las diferencias entre cada dos niveles del factor de medidas
repetidas son iguales (Pardo y Ruiz, 2005). Esto quiere decir que si tenemos un factor
de medidas repetidas con 3 niveles, podemos hacer 2(K-1) combinaciones (en este caso
2(3-1) = 4) combinaciones que son 1→2; 1→3; 2→3.
El supuesto de circularidad implica igualdad de varianzas también, luego ya no habrá
que ver específicamente el cumplimiento de las varianzas ya que va implícito.
1. Analizar los resultados a través de los contrastes multivariados
(no les afecta el incumplimiento del supuesto, pero es una
solución menos parsimoniosa).
2. Utilizar el Estadístico F Univariado aplicando el índice ε de Box 7

El análisis de estos diseños implica el estudio de los Efectos Principales


de los tratamientos y los efectos de la interacción

Los Diseños Mixtos: (También llamados de medidas parcialmente


repetidas): Son aquellos en los que hay un factor inter entre-sujetos y
otro factor intra-sujetos. Permiten, entre otras características, estudiar el
paso del tiempo (efectos de arrastre o práctica) en cada grupo de la
variables inter sujetos y en cada sujeto dentro de cada grupo (Vallejo,
Fernández, Herrero & Cortejo, 2004a).
En estos diseños también se debe atender al principio de “circularidad” y
vale todo lo dicho en el apartado anterior.
El análisis de estos diseños implica el estudio de los Efectos Principales
de los tratamientos y los efectos de la interacción

TAMAÑO DEL EFECTO

Existen básicamente tres. Todos ellos son se basan en considerar la proporción


entre la varianza explicada por el factor de interés (o factores de interés)
respecto a la varianza total. Se interpretan como proporción de varianza
explicada y representan el grado de relación existente entre la V.I. y la V.D., son
por lo tanto estimadores de 2.

ETA CUADRADO (propuesta por Pearson):

2 = SCI donde SCI representa la Suma de Cuadrados Intergrupos y


SCT
SCT la Suma de Cuadrados Total.
Este índice presenta diversos problemas de sesgo como estimador, razón por la
que se han propuesto otros índices.

ε2 de Kelley (1935(; Van Voorhis (1940) y Cohen (1966). La deferencia con el


anterior es que emplea los estimadores insesgados de SCI y SCT .

ε2 = SCI  ( J  1) MCE
SCT

Finalmente ω2: Hays (1988). (Es el más aceptado y utilizado, de hecho es el que
aporta el SPSS. Hay dos variantes, uno para efectos fijos y otro para efectos
aleatorios).
7
Epsilón ε indica el grado en que la matriz de varianzas covarianzas se aleja de la
esfericidad (cuando se cumple este supuesto ε = 1). El SPSS ofrece en los resultados
el valor de la F corregida según tres criterios: Greenhause-Geisser, el más
conservador; Huynh-Feldt y el valor “límite inferior” que corresponde al valor de ε
para incumplimientos extremos. (Lo que ofrece el SPSS es el valor F corregida
calculada después de haber multiplicado los grados de libertad por el valor de ε).
Para efectos fijos: ω2 = SCI  ( J  1) MCE
SCT  MCE
Para efectos aleatorios: ω = MCI  MCE
2 8
MCI  (n  1) MCE

Es muy importante al evaluar los valores de ω2 (o cualquiera de los otros índices


presentados) que debido a que las distribuciones maestrales de estos estadísticos
tienen un error típico muy alto, los valores de n son especialmente influyentes
(ver O`Grady 1982 para mayor información) y ver lo que a continuación se
expone sobre Potencia.

POTENCIA

Cuando obtenemos efectos significativos para F, esto quiere decir que la


distribución F obtenida con nuestros datos es una F “NO CENTRADA” 9.

n  2j
= j
2
donde j = µj - µ corresponde al j-esimo efecto del factor y en consecuencia
generalizando para todos los niveles y para todos los grupos tendremos el
numerador de la ecuación anterior que representa la varianza intergrupos.

σ2 corresponde a la varianza total (es decir la Inter. grupos + la de error).

 es un indicativo del grado en que se diferencian las medias de los diferentes


 n j  2j
grupos. A partir del valor de  se define φ = =
J J 2
Para abreviar los cálculos podemos hacer:

Φ = φ`n, siendo φ`=


 j
2
j

J 2

En la mayoría de los trabajos 10 se realizan los cálculos empleando los


resultados obtenidos previamente, de tal forma que:
8
Para una información más detallada consultar Pardo y San Martín “Análisis de Datos en
Psicología” 1998, y Pardo y San Martin “Análisis de Datos en Ciencias Sociales y de la Salud”
(2010) de donde están tomadas estas formulaciones.
9
Básicamente una F no centrada (reacuérdese que F es un cociente entre dos distribuciones chi
cuadrado con n1 y n2 grados de libertad respectivamente) es un cociente de dos Chi-cuadrado,
la del numerador no centrada y la del denominador centrada, ambas independientes.
La diferencia entre una distribución Chi cuadrado centrada y una no centrada es que en la
primera es la suma de distribuciones Normales tipificadas, cada una de ellas elevada al
cuadrado y en la chi cuadrado no centrada es la suma de Normales, al cuadrado
también, pero cada una de ellas está sin tipificar. (Para más información consultar:
http://www.danielsoper.com/statcalc/calc06.aspx). Los parámetros que definen F centrada son
los grados de libertad del numerador y denominador, la F no centrada requiere de un parámetro
más  denominado parámetro de NO CENTRALIDAD.
10
En buena teoría deberíamos estimar φ y la varianza poblacional σ 2 a partir de resultados
previos.
Σ ˆ 2j = (J-1)(MCI-MCE)/n
̂ 2 = MCE
Conocido el valor de Φ obtenido mediante la expresión antes definida
podemos calcular la potencia sin más que acudir a las tablas de la distribución
F no centrada (disponibles en cualquier manual) que nos aportarán el valor de β
y pro tanto calculando (1- β) tendremos la potencia. Si a la vista de este
resultado obtenemos una potencia baja podemos actuar en sentido contrario
que sería fijar la potencia y determinar n ya que la misma tabla nos dará, para
una potencia prefijada, el valor de Φ, si bien es cierto que faltaría por conocer
el valor de gl2, paro dado que a partir de gl2 = 20 las probabilidades son muy
similares, se recomienda tomar gl2 = 30 (para mayor información consultar
Pardo y San Martín 1998 y 2010 opus. Cit.).

Finalmente conviene señalar que las diferentes técnicas de ANOVA responde a


la conjunción de los diferentes criterios que responde a: número de variables
independientes; número de niveles en cada variable y forma de selección de los
mismos (efectos fijos, efectos aleatorios); formas de control, etc.

Das könnte Ihnen auch gefallen