Sie sind auf Seite 1von 20

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS DE UTILIDAD (Segunda parte)

1. Contrastes acerca de la Diferencia de Medias


1.1 Contexto General
Tenemos dos variables Y1 e Y2 , (medidas en escala de intervalo, por lo menos), cuyo comportamiento

probabilstico es caracterizado apropiadamente por las medidas de centralidad 1 y 2 . Se quiere contrastar o


someter a prueba la hiptesis H 0 : 1 = 2 contra una H 1 que puede ser uni o bilateral.

Supondremos que el Nivel de Significacin es predeterminado y que de las poblaciones tomaremos muestras de
tamaos conocidos n1 y n2 , respectivamente asumiendo normalidad de datos, i.e. Yi ~ N ( i , i2 ) i = 1,2 , para
simplificar el anlisis.
1.2 Caso de Muestras Relacionadas (Antes-Despus)
Este caso se presenta cuando por cuestiones de control, es necesario trabajar con los mismos sujetos en ambas
muestras (por ejemplo, en estudios con Test-Retest, o Antes-Despus) o con sujetos "emparejados" (como en el
caso de estudios con Gemelos). Cada sujeto proporciona dos valores: uno para Y1 ("Antes" o "Test") y otro para

Y2 ("Despus" o "Retest").
n1 = n2 = n , donde n es el nmero de casos vlidos en el estudio y la hiptesis nula H0 es la de no diferencia
entre el "antes" y el "despus", esto es H 0 : 1 = 2
El estadstico de contraste para H0 es t =
D =Y1 Y 2

D
, donde D = Y1 Y2 es la diferencia "antes"-"despus",
SD

n
es la media de esta diferencia y S D es su correspondiente desviacin estndar. S D puede ser

calculada directamente a partir de las n diferencias D = Y1 Y2 o con S D2 = S12 + S 22 2rY1Y2 S1 S 2

En realidad esta prueba es una adaptacin de la prueba sobre la media de una poblacin, pues si
D = (Y1 Y2 ) , entonces ya sabemos que D = ( 1 2 ) y por tanto H 0 : 1 = 2 equivale a H 0 : D = 0 .

Si H 0 es verdadera, el estadstico t =

n
La ventaja de esta prueba es que elimina otras fuentes de diferencias entre casos, ajenas al Factor bajo estudio.
La regin crtica o zona de rechazo de H 0 , depende de cmo sea H 1

Hiptesis Nula

H 0 : 1 = 2
t1 y t1 / 2

D
tiene distribucin t-Student con k=(n-1) grados de libertad.
SD

Hiptesis Alterna

Rechazar H 0 si

Tipo de contraste

H 1 : 1 > 2

t > t1

Unilateral derecho

H 1 : 1 < 2

t < t1

Unilateral izquierdo

| t |> t1 / 2
H 1 : 1 2
percentiles 1 y 1 / 2 de la tabla t(k=n-1)

Bilateral

1.3 Caso de Muestras Independientes


El anlisis depende de si 12 = 22 o si 12 22 . Se hace un contraste previo
Contraste Manual de Homogeneidad de Varianzas H 0 : 12 = 22 vs H 1 : 12 22

Estadstico de contraste F =

S12
, donde S i2 es la varianza de la muestra tomada de la poblacin
2
S2

N ( i , i2 ) i = 1,2

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

H 0 : 12 = 22 verdadera F =

2
1
2
2

S
~ F ( n1 1, n 2 1)
S

Hiptesis Nula

Hiptesis Alterna

Rechazar H 0 si

Tipo de contraste

H 0 : 12 = 22

H 1 : 12 22

F > F1 / 2 o F < F / 2

Bilateral

F1 / 2 y F / 2 percentiles de la tabla F (n1 1, n2 1) en donde


F / 2 ( n1 1, n 2 1) = 1 / F1 / 2 ( n2 1, n1 1)
Contraste de homogeneidad con SPSS
Primero SPSS hace el Contraste de Levene para que decidamos si las varianzas poblacionales son iguales o no.
No es una hiptesis de investigacin, pero se necesita para determinar luego la metodologa para el contraste
de medias.
La hiptesis a contrastar es H0:12=22 vs H0:1222 que figura debajo del encabezamiento Levene's Test
for Equality of Variantes. Se nos muestra el estadstico F de esta prueba y su significacin. La regla es
rechazar H0:
12=22 si esta significacin es menor que el nivel con que deseamos trabajar.
1.3.1 Caso de Varianzas Homogneas ( 12 = 12 = 2 )
La hiptesis nula es H 0 : 1 = 2 y si podemos asumir 12 = 12 = 2

El estadstico de contraste es t =

(Y 1 Y 2 )
S 2p
n1

S p2

(n1 1) S12 + (n 2 1) S 22
donde S =
.
(n1 + n 2 2)
2
p

n2

Si H 0 : 1 = 2 es verdadera, t tiene distribucin t-Student con k =(n1+n2-2) grados de libertad.

En el contexto anterior, la regla de decisin depende de H 1

Hiptesis Nula

H 0 : 1 = 2
t1 y t1 / 2

Hiptesis Alterna

Rechazar H 0 si

Tipo de contraste

H 1 : 1 > 2

t > t1

Unilateral derecho

H 1 : 1 < 2

t < t1

Unilateral izquierdo

| t |> t1 / 2
H 1 : 1 2
percentiles 1 y 1 / 2 de la tabla t ( k = n1 + n2 2)

Bilateral

Solucin con SPSS:


Dependiendo del resultado del contraste previo sobre varianzas, debemos usar la lnea Equal variances
assumed (si 12=22) o Equal variances not assumed (si 1222).
SPSS presenta el valor del estadstico t-Student, los grados de libertad correspondientes y la Significacin a
dos colas o bilateral
1.3.2 Caso de Varianzas Heterogneas ( 12 22 )
La hiptesis nula es H 0 : 1 = 2 y sabemos que 12 22
Para este caso no existe una solucin o Test ptimo exacto. Hay varias propuestas pero programas
computacionales como SPSS suelen usar una metodologa (Test de Welch) donde se ponderan los grados de
libertad de las varianzas muestrales

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


2

2
2

Como las varianzas poblacionales son diferentes, no podemos combinar las varianzas muestrales S1 y S en
una varianza ponderada y debemos mantenerlas separadas por lo que el estadstico de contrastes es de la forma

t=

(Y 1 Y 2 )
S12 S 22
+
n1 n2

El problema es que la distribucin de este estadstico t no es exactamente la t de Student y hay dos valores para
los grados de libertad: ( n1 1) y ( n2 1) , de modo que se necesita una solucin de compromiso
En la metodologa de Welch que usa SPSS, se calcula un promedio ponderado k de los grados de
libertad ( n1 1) y ( n2 1) , usando la frmula
2

S12 S 22

+
n1 n 2

k=
2
2
S12
S 22


n1 + n2
n1 1
n2 1
Con este valor de k (redondeado) se va a la tabla t-Student de acuerdo al nivel de significacin y el tipo de
hiptesis alterna H 1 uni o bilateral

Hiptesis Nula

Hiptesis Alterna

Rechazar H 0 si

Tipo de contraste

H 1 : 1 > 2

t > t1

Unilateral derecho

H 1 : 1 < 2

t < t1

Unilateral izquierdo

H 0 : 1 = 2
t1 y t1 / 2

| t |> t1 / 2
H 1 : 1 2
Bilateral
percentiles 1 y 1 / 2 de la tabla t (k ) con k grados de libertad

Solucin con SPSS:


En SPSS el anlisis es similar al anterior pero usando la t de la lnea de correspondiente al caso donde no
podemos asumir varianzas iguales.
SPSS presenta el valor del estadstico t-Student, los grados de libertad ponderados correspondientes y la
Significacin a dos colas. Si deseamos usar una tabla t-student, debemos comparar el t obtenido con el valor
tabular con grados de libertad ms cercanos a los mostrados por SPSS. Pero como se nos da la significacin,
basta con este dato
1.3.4 Criterio de Cohen para medir el Tamao del Efecto.
El ndice d de Cohen es d =

( 1 2 )

y se llama "Tamao del Efecto".

Si 0.2 d < 0.5 el efecto es "pequeo" (diferencia pequea)


Si 0.5 d < 0.8 el efecto es "mediano" (diferencia mediana)
Si 0.8 d el efecto es "grande" (diferencia grande)
En el caso que resulte d < 0.2, el efecto puede ser considerado irrelevante, dependiendo mucho del contexto de la
investigacin.

Observaciones:
Los test anteriores se pueden aplicar al caso ms general H0:1-2=d0, donde d0 es un valor predeterminado.
Slo cambia el numerador del estadstico t que es ahora igual a [ (Y 1 Y 2 ) d 0 ]

Es recomendable tener tamaos de muestra iguales. Esta precaucin es importante sobre todo en el caso de
heterogeneidad de varianzas.

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

4
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Hemos asumido normalidad de datos. Pero se ha probado que las pruebas t-Student pueden aplicarse incluso si
no hay normalidad; basta con que las distribuciones de las respuestas sean simtricas. En este caso, es de suma
importancia que n1 = n2.
2. Contrastes acerca de la Diferencia de Proporciones
2.1 Contexto General
Tenemos una caracterstica cualitativa A que se presenta en una Poblacin 1 en proporcin P1 y en otra Poblacin
2 en proporcin P2. Deseamos contrastar la hiptesis H0:P1=P2 a partir de respectivas muestras de tamaos n1 y n2,
apropiadamente grandes y a un nivel de significacin predeterminado.
2.2 Caso de Muestras Independientes
Este caso se presenta cuando tenemos dos poblaciones diferentes e independientes y queremos ver si son
equivalentes (u homogneas) en relacin a una caracterstica cualitativa A. Para ello tomamos muestras grandes e
independientes una de la otra, de las respectivas poblaciones. La hiptesis de equivalencia equivale a H 0 : P1 = P2
El estadstico de contraste es Z =

( p1 p 2 )

donde p =

pq pq
+
n1
n2

n1 p 1 + n 2 p 2
n1 + n 2

y q = 1 p , siendo p j la proporcin

de sujetos que tienen la caracterstica cualitativa A en la muestra de la Poblacin j.


Hiptesis Nula

H 0 : P1 = P2
Z1 y Z1 / 2

Hiptesis Alterna

Rechazar H 0 si

Tipo de contraste

H 1 : P1 > P2

Z > Z1

Unilateral derecho

H 1 : P1 < P2

Z < Z 1

Unilateral izquierdo

| Z |> Z1 / 2
H 1 : P1 P2
percentiles 1 y 1 / 2 de la tabla N ( 0,1)

Bilateral

Este test se usa con tamaos de muestra de 20 casos como mnimo, por poblacin.
El contraste puede modificarse para cubrir la hiptesis general H 0 : P1 P2 = D0 , donde D0 es una cantidad
predeterminada. El estadstico Z cambia a Z =

( p 1 p 2 ) D0
p1 q 1

donde en el denominador ya no se incluye una

p2 q2

+
n1
n2
proporcin promedio, pues sta no tiene sentido en este caso.

Solucin con SPSS:


SPSS le muestra una tabla de frecuencias de casos con A y sin A dentro de cada grupos y aade los porcentajes
por grupo.
Lo que hace SPSS es elevar al cuadrado el estadstico Z de contraste, con lo que lo convierte en un 2 con
k = 1 grado de libertad o df como lo llama SPSS. Esto figura en el cuadro Chi Square tests, donde SPSS
muestra la significacin (a dos colas) en la lnea que llama Pearson Chi-Square y bajo el encabezamiento
Asymp. Sig. (2-sided) o Exact Sig. si se ha pedido. La significacin exacta es ms precisa pero no siempre se
puede calcular. El resto del output no interesa para este test.
2.3 Caso de Muestras Relacionadas (Prueba de McNemar)
En este caso, tenemos n sujetos, en los cuales se observa si tienen una caracterstica cualitativa A , Antes y
Despus de una intervencin.

La hiptesis de no cambio o no efecto de la intervencin es H 0 : P1 = P2 y deseamos contrastarla con los


datos.
Para contrastar H 0 : P1 = P2 se distribuyen los n casos en una tabla de frecuencias de doble entrada de la
forma:

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


Antes
Despus
Con A
Sin A
Total

Sin A
a
c
(a+c)

H 0 : P1 = P2
Z1 y Z1 / 2

Total
(a+b)
(c+d)
n

(d a)
y la Regla de Decisin depende de la forma de H 1 , segn:
(d + a)

Se calcula el estadstico de contraste Z =

Hiptesis Nula

Con A
b
d
(b+d)

Hiptesis Alterna

Rechazar H 0 si

Tipo de contraste

H 1 : P1 > P2

Z > Z1

Unilateral derecho

H 1 : P1 < P2

Z < Z 1

Unilateral izquierdo

| Z |> Z1 / 2
H 1 : P1 P2
percentiles 1 y 1 / 2 de la tabla N ( 0,1)

Bilateral

Este test se usa si (a+d) > 10, en caso contrario no es fiable y hay que aplicar otra prueba, llamada Prueba
Exacta de Fisher.
Esta prueba tambin permite comparar proporciones de dos caractersticas cualitativas diferentes pero medidas
en los mismos sujetos.

Solucin con SPSS:


SPSS le muestra una tabla de frecuencias simples y luego un cuadro llamado Chi Square tests donde figura la
significacin (a dos colas) del test de McNemar y como en el caso de muestras independientes, eleva el estadstico
de contraste Z al cuadrado y muestra la significacin asinttica y si se pide y la memoria lo permite, la
significacin exacta.
2.4 Tamao del Efecto en el caso de Proporciones
Cohen sugiere usar un ndice que involucra la funcin trigonomtrica "arco seno". El ndice propuesto por Cohen,
denotado h, es h=|2arcsen( P1 )-2arcsen( P2 ) y para medir el Tamao del Efecto se aplica a h el mismo

criterio usado en el caso de diferencia de medias, esto es:


Si 0.2 h < 0.5 el efecto es "pequeo"
Si 0.5 h < 0.8 el efecto es "mediano"
Si 0.8 h el efecto es "grande"
En el caso que resulte h < 0.2, el efecto puede ser considerado irrelevante, dependiendo mucho del contexto
de la investigacin.
Recordemos finalmente, la definicin de la funcin "arcoseno": Arcsen(x)=El ngulo (medido en radianes) cuyo
seno vale x, i.e. =Arcsen(x)Sen(x)= .

3. Prueba 2 de Igualdad de k Proporciones


Contraste General de H 0 : P1 = P2 = ... = Pk vs H 1 : Pi Pj
El estadstico de contraste es 2 =

(O E ) 2
E ,que mide la discrepancia entre H 0 y los datos observados.

Se rechazar H 0 : P1 = P2 = ... = Pk si 2 =

(O E ) 2
> 12 donde 12 es el percentil
E

de la Tabla

2 con (k-1)grados de libertad. Si se rechaza H 0 , luego se aplica contrastes por pares para identificar las

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

6
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
poblaciones diferentes. En este caso hay que tener cuidado de la capitalizacin del azar: haciendo muchos
contrastes aumenta la probabilidad de cometer al menos un error entre estos contrastes.
Con SPSS la metodologa es exactamente igual a la aplicada en la comparacin de dos proporciones para muestras
independientes.

Esta prueba asume muestras grandes pues se apoya en la aproximacin de la distribucin de p usando la
distribucin normal. Una regla es que no debe aplicarse el contraste 2 si ms del 20% de las celdas o casillas
tienen una frecuencia esperada Eij menor que 5. En el caso de k = 2 poblaciones, no se debe usar si n.. < 20
o si siendo n.. < 40 , alguna Eij es menor que 5.

SPSS calcula el % de celdas con frecuencia esperada pequea (Eij<5) y nos los proporciona, como precaucin
por si este porcentaje pasa del 20% del total de celdas. En este caso hay que usar la significacin exacta.

4. Analisis de Varianza para una Clasificacion Simple (One Way Anova)


Tenemos k poblaciones debidamente representadas por sus medias 1 , 2 ,..., k y deseamos contrastar la
hiptesis de nulidad o de no diferencias H 0 : 1 = 2 =,..., = k a partir de los datos de k muestras aleatorias
independientes y de tamaos n1 , n 2 ,..., n k respectivamente.
Plan de anlisis
Primero se evala una Hiptesis global H0 de no diferencias, mediante un Test mnibus. Si no se rechaza H0,
ah termina todo.
Segundo, si en el paso anterior se llega a rechazar H0, hay que ubicar cules poblaciones son diferentes mediante
contrastes especficos.
Modelo Lineal del Anlisis de Varianza
Si Y ij representa el valor de la variable respuesta Y en el elemento # j de la muestra aleatoria de la Poblacin #i,
podemos escribir Yij = i + ij para i = 1,2,..., k ; j = 1,2,..., n (o ni en el caso llamado no balanceado, donde
las muestras son de tamao desigual).
Aqu i denota la media de la poblacin #i y ij representa la variabilidad natural dentro de cada poblacin, que
es variabilidad debida al azar y/o a otros factores no considerados o controlados en el modelo.
Supuestos del modelo lineal
Asumimos que:
Los ij son independientes y con distribucin normal
Los ij tienen media cero E ( ij ) = 0
Los ij tienen varianza comn V ( ij ) = 2
4.1 Contraste Global de H 0 : 1 = 2 = ... = k
Corresponde a una primera etapa, en donde se trata de ver si alguna poblacin difiere de las otras, en la variable
respuesta Y . Dados los datos
Poblacin

Total

ni

Media

Varianza

Datos
Y11 Y12 ... Y 1 j ... Y 1 n 1

Y1.

n1

Y1

S12

Y21 Y 22 ... Y 2 j ... Y2n 2

Y2.

n2

Y2

S 22

Yi1 Y i 2 ... Y ij ... Yin1

Yi.

ni

Yi

S i2

Yk1 Yk 2 ... Y kj ... Yknk

Yk .

nk

Yk

S k2

Y..

Y ..

S2

Total

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

Donde:
ni

Yi . = Yij = Suma de valores en la muestra #i, Yi = Media de la muestra #i


j =1

ni

S i2 = Varianza de la muestra #i, Y.. = Yij = Suma de valores en todas las muestras ,
i =1 j =1

N = ni = Tamao global de muestra, Y.. = Media global y S 2 = Varianza global. En este contexto:
i =1

La variabilidad total en la muestra es medida por

(Y

ij

(Y

ij

Y.. ) 2 y se puede demostrar que

Y.. ) 2 = (Yi Y.. ) 2 + (Yij Yi ) 2

La cantidad

(Y

Y.. ) 2 se conoce como la Variabilidad entre sujetos o Entre muestras (Between groups

en SPSS) o tambin como la Suma de Cuadrados entre de muestras. Mide las diferencias entre sujetos que
se deben a que provienen de poblaciones distintas o de tratamientos/niveles distintos en el factor bajo
estudio. Se denotar SCTR
La cantidad

(Y

ij

Yi ) 2 se conoce como la Variabilidad intra sujetos o Dentro de muestras (Within groups

en SPSS) o tambin Suma de Cuadrados dentro de muestras. Mide las diferencias entre casos dentro de
cada muestra o sea es la variabilidad debida al azar y no al factor bajo estudio. Se denotar SCE.
Si H 0 : 1 = 2 = ... = k es cierta, las diferencias entre medias Yi se deben slo al azar y ambas sumas de
cuadrados mediran lo mismo: el efecto del azar.
La varianza por tratamiento o Cuadrado medio entre tratamientos (Between groups) denotada CMTR se define
como CMTR = SCTR /( k 1)
La varianza del azar o Cuadrado Medio Dentro de Muestras o Residual (Within Groups) denotada CME se
define como CME = SCE /( N k ) y en verdad es un promedio ponderado de las varianza muestrales S i2 pues
k

CME =

(n
i =1
k

1) S i2

(n

1)

SCE
N k

i =1

Si H 0 : 1 = 2 = ... = k es cierta, las diferencias entre medias Yi se deben slo al azar y ambos cuadrados
medios mediran lo mismo: la varianza del azar 2
Y debieran ser iguales.
Por lo anterior, un estadstico apropiado para contrastar H 0 : 1 = 2 = ... = k es la variable F de Fisher, dada
por F = CMTR / CME : Para ver si se rechaza H 0 o no, se compara F con el percentil F1 de la distribucin F
de Fisher con ( k 1) y ( N k ) grados de libertad:

Si F > F1 se rechaza H 0 : 1 = 2 = ... = k y se admite que al menos dos medias poblacionales son diferentes.
Los pasos anteriores se presentan en una Tabla de Anlisis de Varianza de la forma:

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

8
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Anlisis de Varianza de un Factor (One Way ANOVA)
Sig.
Suma de
Grados de
Variabilidad
Media cuadrtica
F de Fisher
(o F1 )
Cuadrados
libertad
Del Factor o
CMTR = SCTR /( k 1) F = CMTR / CME
SCTR
k 1
Entre Grupos
Del Error o
CME = SCE /( N k )
Dentro de
SCE
N k
Grupos
Total
SCT
N 1
4.2 Contrastes Especficos.
Comparaciones Planeadas o Ad Hoc.
En este caso, antes de tomar las muestras haba hiptesis especficas que indicaban las poblaciones que eran
diferentes, esto es, no haba intencin de comparar todos los pares posibles, sino algunos casos especficos. Esto se
puede hacer con la Prueba t-Student modificada.
Para comparar las Poblaciones #s y #m ( H 0 : s = m ):
Se calcula t =

Y s Y m
que se compara con un valor tabular de la distribucin t de Student, segn sea H1
CME CME
+
ns
nm

Hiptesis
Nula

Hiptesis
Alterna

H1 : s > m
H 0 : s = m

Rechazar H 0
si

t > t1

Tipo de contraste

H1 : s < m

t < t1

Unilateral derecho
Unilateral
izquierdo

H1 : s m

t > t1 / 2

Bilateral

t1 y t1 / 2 percentiles 1 y 1 / 2 de la tabla t ( N k )
Aqu t1 t1 / 2 son los respectivos percentiles 1 1 / 2 de la tabla t-Student con (N-k) grados de
libertad (o sea con los grados de libertad del CME).
Comparaciones No Planeadas o Post Hoc.
En este caso, antes de tomar las muestras no se tena hiptesis sobre cules poblaciones diferan, y se deben comparar todos los pares posibles, porque previamente no haba idea de dnde se encontrara la diferencia de resultar
significativa la Prueba F del Anlisis de Varianza. Para situaciones como esta, hay varias alternativas, pero la ms
conservadora y estricta es la Prueba de Scheffe que consiste en:
a) Para cada par H 0 : s = m , formar el estadstico Fsm =

nn
(Y s Y m ) 2
s m
CME
n s + nm

b) Si Fsm > ( k 1) F1 ( k 1, N k ) , se rechaza H 0 : s = m


Solucin con SPSS
SPSS trata esta metodologa dentro del procedimiento Compare Means, en el comando One-Way ANOVA.
Bsicamente hay que indicar la variable dependiente Y, que SPSS ubica en el cuadro Dependent List, y el Factor.
El output bsico es:
Primero SPSS nos muestra los estadsticos de Y segn muestras
Luego se presenta el Cuadro de ANOVA, donde se muestran las sumas de cuadrados (que SPSS llama Sum of
Squares): La Suma de Cuadrados de Tratamientos SCTR es llamada Between Groups Sum of Squares en
SPSS, y la Suma de Cuadrados del Error SCE es llamada Within Groups Sum of Squares en SPSS. Los
Cuadrados medios son denominados Mean Square. SPSS muestra el estadstico F y la significacin que

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

9
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
denomina Sig.que es la base para rechazar o aceptar H0, donde el sistema es el de siempre, comparar Sig.
con el nivel predeterminado
Finalmente SPSS muestra el Contraste de Scheffe o contrastes t-Student segn sea el caso y se haya pedido,
para hacer los contrastes especficos de haber lugar para ello.
Si se solicita, SPSS muestra el Test de Levene de homogeneidad de varianzas que sirve para verificar si este
supuesto clave se cumple o no y grficos de medias para inspeccionar visualmente las diferencias.
Sobre los Supuestos. Ya se mencion que estamos asumiendo normalidad, independencia y homogeneidad de
varianzas. Estos supuestos no siempre se cumplen y es necesario informarse de las consecuencias:

La Normalidad no es imprescindible. Investigaciones mediante simulaciones han probado que el ANOVA es


bastante robusto a la falta de normalidad si se puede asegurar simetra en las distribuciones (o al menos
asimetra moderada).
La falta de independencia no es usual en experimentos, a menos que sea parte del diseo, pero este caso ya
tiene una metodologa desarrollada, que se trata en textos como el de Ferguson.
La
falta
de
homogeneidad
de
varianzas,
puede
traer
problemas,
si
es
severa y los tamaos de muestra son desbalanceados. No hay una regla infalible de cundo las varianzas son
muy heterogneas, pero una regla prctica muy usada es sospechar de heterogeneidad si la mayor varianza
muestral es ms de 4 veces la menor de la varianza. En todo caso, hay pruebas de Homogeneidad de Varianzas
como la de Bartlet o la de Levene (figuran en SPSS). Deben usarse con cuidado, pues estudios tericos han
demostrado que son sensibles no slo a la falta de homogeneidad, sino tambin a la falta de normalidad, que
como ya vimos, no necesariamente es un problema serio.
Anova One-Way y el Modelo Lineal. El modelo subyacente al Anova de un Factor puede escribirse tambin
como Yij = + i + ij i = 1,2,..., k ; j = 1,2,..., n (o ni en el caso no balanceado, donde las muestras son de
tamao desigual). Aqu denota la media general y i denota el efecto del Nivel #i del Factor bajo
estudio. El error aleatorio ij representa la variabilidad natural debida al azar (y a otros factores no consi-

derados o controlados).
Por lo general, los niveles del factor son escogidos y predeterminados por el experimentador. En este caso los
coeficientes i son parmetros fijos que miden los diferentes efectos. Pero existen casos donde los Niveles
posibles son tan numerosos, que el experimentador los selecciona al azar, como una muestra representativa de
los distintos niveles que se podra aplicar y se llama un modelo de efectos aleatorios.

4.3 ANOVA One Way cuando no hay Homogeneidad de varianzas


Cuando la prueba de Levne o la de Bartlett indican heterogeneidad de varianzas, la prueba F del test global para
contrastar H 0 : 1 = 2 = K = k no es eficiente y entonces hay que hacer algunos ajustes:

Para contrastar H 0 : 1 = 2 = K = k SPSS ofrece en el subcomando Options Statistics los tests de


Welch y de Brown-Forsythe, como alternativas a la prueba F de la tabla ANOVA. El test de Welch es el ms
recomendable en este caso.

Para los contrastes especficos:


Si se trata de contrastes Ad Hoc para hiptesis previas, se aplica el subcomando Contrasts que ya conocemos,
pero se usa la segunda lnea (Does not assume equal variances) que aplica el Test de Welch, con grados de
libertad fraccionarios
Si se trata de contrastes Post Hoc por que no hay hiptesis previas, se usa el subcomando Post Hoc Equal
Variances Not Assumed y se selecciona alguno de los contrastes ofrecidos por SPSS. El Test de Games- Howell
es el ms recomendable.
4.3 Tamao del efecto: Coeficiente Eta
La magnitud de las diferencias generadas por el factor bajo estudio o equivalentemente, el grado de diferencias
entre las medias poblacionales, se estima con el Coeficiente Eta que es el equivalente al coeficiente de
correlacin mltiple R del anlisis de regresin. As tenemos:

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


Coeficiente Eta2 (
2)

10

SCTR
y es la proporcin de varianza total generada por las poblaciones. Se interpreta
SCT
anlogamente a como se interpreta el R 2 , por ejemplo un R2 >0.25 se considera grande

Se define como

Coeficiente Eta (
)
Se define como =

SCTR
y es la correlacin tipo Pearson entre la variable respuesta Y y la
SCT

variable cualitativa X=Poblacin, con k categoras o valores. Se le aplica el Criterio de Cohen para
correlaciones. As, por ejemplo, un > 0.5 se considera grande.
5. Anlisis de Varianza con Dos Factores o ANOVA TWO WAY
5.1 Utilidad.
Permite estudiar el efecto de dos factores a la vez: Factor A (filas) con i = 1,2,...,a niveles, y Factor B (columnas)
con j = 1,2,...,b niveles, que son aplicados simultneamente a las unidades experimentales. Cada combinacin AiBj
de niveles o tratamientos se aplica a n unidades. El tamao global de muestra es N=n
a
b. Esta estrategia permite
estudiar los efectos de A, de B y sobre todo la interaccin entre A y B, es decir un efecto especial que se
presenta debido a la combinacin de los factores. Esta es la utilidad bsica de este diseo.
Si hacemos una tabla con a filas y b columnas, cada celdilla representa una combinacin de tratamientos de A y
de B que al ser aplicada, genera una poblacin cuya media podemos denotar mediante ij = Media de la poblacin
cuando se aplica el nivel #i del Factor A y el Nivel #j del Factor B.
Por ejemplo, para un factorial con a=2 y b=4, podramos representar las 2x4=8 subpoblaciones mediante 8 medias:

Factor A
Nivel A1
Nivel A2
Efecto de B

Nivel B1

11
21
1

Factor B
Nivel B2
Nivel B3

12
22
2

13
23
3

Nivel B4

Efecto de A

14
24
4

1
2

Aqu podemos plantearnos los siguientes efectos:


El Efecto de A, medido u obtenido promediando a travs de los niveles del Factor B. Este efecto es representado
por los promedios de las filas 1 y 2, que denotamos 1 y 2 . Una prueba para este efecto consiste en contrastar

si las medias de las filas son iguales, o sea contrastar H0: 1 = 2 Este efecto se llama Efecto principal de A.

El Efecto de B, obtenido promediando a travs de los niveles del Factor A, y que es representado por los
promedios de las columnas 1 , 2 , 3 y 4 . Una prueba para este efecto consiste en ver si las medias de las
columnas son iguales, o sea contrastar H0: 1 = 2 = 3 = 4 Este efecto se llama Efecto principal de B.
La Interaccin de A y B ocurre cuando el efecto de un factor no es el mismo a todos los niveles del otro
factor. Es el efecto especial que se presenta debido a la combinacin de los factores, por ejemplo, si tenemos
que las diferencias ( 11 - 21 ), ( 12 - 22 ), ( 13 - 23 ), etc. no son todas iguales, diremos que hay interaccin entre
A y B.
5.2 Elementos y Metodologa.
Sea Yijk el puntaje de obtenido al aplicar el i-simo nivel de A y el j-simo nivel de B en la unidad experimental k
(i=1,2,...,a; j=1,2,...,b y k=1,2,.. ..,n).

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

11
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Los supuestos son los mismos del anlisis con un factor, esto es, asumimos normalidad de datos, independencia y
varianzas homogneas.
En este diseo, al igual que en el caso de un Factor, hay casos de Efectos Fijos, de Efectos Aleatorios y modelos
Mixtos. El caso ms frecuente es el de Efectos Fijos y es el que desarrollaremos primero.
Modelo de Efectos Fijos
El modelo lineal es Yijk= + i + j + (
)ij + ijk para i=1, 2,...,a; j=1,2,...,b; k=1,2,...,n.
es una media general;
i es efecto del Nivel i del Factor A;
j es el efecto del Nivel j del Factor B;
()ij es el efecto de la Interaccin entre los niveles;
ijk es un residuo o error aleatorio
Como en el caso de un solo factor, la suma de cuadrados total SCT se divide ahora en cuatro componentes : Suma
de Cuadrados de A (SCA), Suma de Cuadrados de B (SCB), Suma de Cuadrados de la Interaccin (SCAB) y
Suma de Cuadrados del Error (SCE), de modo que SCT = SCA + SCB + SCAB + SCE
Como en el caso ONE-WAY, se calculan los Cuadrados Medios dividiendo las respectivas Sumas de Cuadrados
entre los respectivos Grados de Libertad. Y tambin los resultados se presentan en una Tabla de Anlisis de
Varianza de Dos Factores (Two Way ANOVA).
ANALISIS DE VARIANZA (DOS FACTORES o TWO WAY ANOVA)
Fuente de
variacin

Grados de
Libertad

Suma de
Cuadrados

Cuadrado
Medio

F de
Fisher

Factor A

a-1

SCA

CMA=SCA/(a-1)

FA=CMA/CME

Factor B

b-1

SCB

CMB=SCB/(b-1)

FB=CMB/CME

Interaccin A*B

(a-1)(b-1)

SCAB

CMAB=SCAB/(a-1)(b-1)

FAB=CMAB/CME

Error

ab(n-1)

SCE

CME=SCE/ab(n-1)

Total

abn-1

SCT

Sig.
de F

Para las hiptesis globales de no efecto


Para la Hiptesis:
Usar:
Rechazar H0 si:
FA
H0: i = 0 i
FA > F1-[a-1,ab(n-1)]
FB
H0: j = 0 j
FB > F1-[b-1,ab(n-1)]
FAB
H0: ()ij = 0 ij
FAB > F1-[(a-1)(b-1),ab(n-1)]
Esta es la presentacin estndar en reportes, aunque SPSS muestra ms detalles
Para comparar las combinaciones Ai B j y Ai ' B j ' de los factores A y B
Si se desea comparar dos combinaciones especficas de niveles de A y B, digamos la combinacin AiBj con la
combinacin Aij, aplicamos la Prueba t-Student modificada para dos muestras independientes:
La hiptesis nula es que las dos combinaciones tienen similar efecto, esto es que sus respectivas medias son
iguales H 0 : ij = i ' j '
Se calcula t =

Y ij Y i ' j '
, donde CME es el Cuadrado Medio del Error (que SPSS llama Error Mean
CME CME
+
nij
ni ' j '

Square). El valor de t se compara con un valor tabular de la distribucin t de Student con los grados de libertad
del Error (que SPSS llama Error df), segn sea H1:

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


Rechazar H 0 si
Hiptesis Nula
Hiptesis Alterna
Tipo de contraste

H 0 : ij = i ' j '

H 1 : ij > i ' j '

t > t1

Unilateral derecho

H 1 : ij < i ' j '

t < t1

Unilateral izquierdo

H 1 : ij i ' j '

| t |> t1 / 2

Bilateral

t1 y t1 / 2 percentiles 1 y 1 / 2 de la tabla t ( df

del

12

Error )

Aqu t1 t1 / 2 son los respectivos percentiles 1 1 / 2 de la tabla t-Student con los grados de libertad
del CME ab(n-1).
Solucin con SPSS
Aplicando el procedimiento General Linear Model Univariate de SPSS e indicando la variable dependiente y los
factores SPSS muestra un cuadro llamado Tests of Between-Subjects Effects, donde presenta los diferentes Fs y
su significacin. Se evala la significacin de cada factor por separado y tambin la interaccin. Adems se reporta
el coeficiente R2 (Squared) que est entre 0 y 1, cuanto ms cercano a 1 es, ms fuerte es el efecto de los factores.
Para interpretar cmo se dan los efectos, hay que mirar el cuadro adjunto de estadsticas (medias) y algn grfico
de medias que aclare los resultados.
Observaciones:
Los Supuestos son los mismos del ANOVA ONE WAY y las recomendaciones son idnticas.
Si los tamaos de muestra son distintos, no es posible separar los Efectos Principales de la Interaccin de modo
nico. Este caso requiere tcnicas especiales y la ayuda de un especialista.
Modelo de Efectos Aleatorios
Aunque la ecuacin es la misma del modelo de efectos fijos, en el Modelo de Efectos Aleatorios: i , j y ()ij
son variables aleatorias. Las Sumas de Cuadrados y los Cuadrados Medios son iguales
Modelo de Mixto
En el Modelo de Mixto: A es Fijo y B es Aleatorio. Las Sumas de Cuadrados y los Cuadrados Medios son iguales
Tanto en el modelo de efectos aleatorios como en el mixto, el procedimiento con SPSS no cambia, basta
indicar al programa cul factor es fijo o aletorio.
5.3 Tamao del efecto: Coeficiente Eta
El tamao del efecto se mide anlogamente a como se hace en el ANOVA One way con el Coeficiente Eta2 (
2)

SCTR
y es la proporcin de varianza total generada por los factore. Se interpreta anlogamente a como se
SCT
interpreta el R 2 , por ejemplo un R2 >0.25 se considera grande

2 =

Coeficiente Eta (
)
Se define como =

SCTR
y es la correlacin tipo Pearson entre la variable respuesta Y y los
SCT

factores. Se le aplica el Criterio de Cohen para correlaciones. As, por ejemplo, un > 0.5 se considera grande.
6. Contrastes no paramtricos
6.1 Uso
Cuando no se puede asumir normalidad de datos por asimetra extrema o por ser las variables respuesta no
cuantitativas.
Por lo general para cada contraste paramtrico de los estudiados hasta ahora, hay un equivalente no paramtrico
que es alternativo pero menos potente: Para un mismo tamao de muestra n y un mismo nivel , el contraste no
paramtrico tiene menor probabilidad de detectar una H1 verdadera.

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


6.2 Prueba T De Wilcoxon.

13

Uso
Alternativa a la prueba t-Student para dos muestras relacionadas
Fundamento
Si X e Y denotan las dos variables relacionadas, la hiptesis a probar es H0: P( X < Y ) = P( X > Y ). Esta hiptesis
equivale a la de similar posicin central de las respectivas distribuciones y por comodidad, la representaremos
como H0: MeX = MeY donde Me representa la Mediana de la respectiva distribucin.
Si H0 es verdadera y formamos las diferencias di=Xi-Yi, al ordenarlas esperamos que el nmero de diferencias
positivas sea igual al nmero de diferencias negativas y que el nmero de diferencias grandes y negativas sea igual
al nmero de diferencias grandes y positivas. Por tanto, si encontramos que existen pocas diferencias de un signo
dado y que la suma de los rangos de estas diferencias es pequea, entonces tenemos evidencia de que H0 no se
cumple y podemos rechazarla. El estadstico de contraste se llama T de Wilcoxon.
Metodologa con SPSS
Para someter a prueba H0, examinar la significacin verdadera en el cuadro Test statistics (SPSS hace contraste a
dos colas) y de resultar rechazada H0, examinar el cuadro Descriptive Statistics para ver si se cumple su H1
Si n es grande ( n > 27 en este test) probablemente SPSS muestre la significacin aproximada para n grande, que
llama Asymptotic (asinttica), pues muchas veces la significacin exacta supera la memoria del computador.
6.3 Prueba U De Mann-Whitney.
Uso
Alternativa a la prueba t-Student para muestras independientes
Fundamento
Si X e Y denotan la variable respuesta en las respectivas muestras, la hiptesis a probar es H0:P(X < Y) =
P(X >Y). Esta hiptesis equivale a la de similar posicin central de las distribuciones y por comodidad, la
representaremos como H0: MeX = MeY.
Si H0 es cierta, al juntar muestras es de esperar que las puntuaciones X e Y se intercalen. Si una de las muestras
ocupa consistentemente lugares bajos, pensaremos que H0 no es cierta. Como no tiene sentido usar directamente
las puntuaciones originales, las pasamos a rangos para el anlisis. El estadstico de contraste se llama U de Man
Whitney
Metodologa con SPSS
Para someter a prueba H0 hay que examinar la significacin verdadera en el cuadro Test statistics (SPSS hace
contraste a dos colas) y de resultar rechazada H0, examinar el cuadro Descriptive Statistics para ver si se
cumple su H1. Si n es grande (n > 40 en este test) probablemente SPSS muestre la significacin aproximada
para n grande, que l llama Asymptotic (asinttica), pues muchas veces la significacin exacta supera la
memoria del computador.
6.4 Prueba H de Kruskal-Wallis (Anova No Parametrico).
Uso
Equivalente no paramtrico del ANOVA One Way por falta de normalidad por asimetra extrema o varianzas
heterogneas. La hiptesis es la de igual tendencia central en k poblaciones, y se quiere contrastar H0 a partir de k
muestras independientes.
Fundamento
Al juntar muestras y ordenar por rangos, si H0 es cierta se espera que las muestras se intercalen o se distribuyan
homogneamente en los rangos. Si alguna muestra ocupa rangos extremos, hay indicios de la falsedad de la
hiptesis. Por comodidad escribiremos H0 como H0:Me1 = Me2 = ... =Mek
Metodologa en SPSS
Para contrastar H0:Me1 = Me2 = ... =Mek basta examinar la significacin en el cuadro Test statistics (SPSS presenta
significacin exacta y asinttica si el tamao global de muestra es grande y en este caso usar la exacta) para ver si
se rechaza H0 o no.
Este contraste se apoya en la aproximacin de la distribucin binomial a la normal, por lo que slo debe usarse si
ni 5. En caso contrario hay que usar pruebas exactas.

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

14
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Como en el ANOVA One-Way, se trata de una prueba de descarte. De ser significativa, hay que ubicar las
diferencias usando Mann-Whitney.
6.5 Contraste de Normalidad
Uso
Para ver si una muestra de datos proviene de una distribucin normal
Fundamento
El contraste ms aplicado es el Test de Kolmogorov y Smirnov, que se apoya en la comparacin de la distribucin
acumulativa de la variable de la muestra versus la distribucin acumulativa de una distribucin normal que tenga la
misma media y varianza que la muestra. Este contraste asume muestras grandes (n > 50 y de preferencia alrededor
de 100 casos), en caso contrario, se aplica la variante de Saphiro y Wilk.
En todos los casos H0 es H0:La distribucin en Normal.
El contraste de Normalidad en SPSS
Se encuentra en dos mdulos de SPSS: en el Nonparametric Test, como procedimiento One Sample Kolmogorov
Smirnov y en el mdulo Descriptive Statistics, como opcin del procedimiento Explore, que adems proporciona
pruebas grficas de normalidad. Este segundo mdulo es preferible por ser ms completo. Si se rechaza H0 se
concluye que no hay normalidad. Esta prueba es bastante sensible y compara contra una distribucin exactamente normal, algo ideal. Por eso, con muestras grandes de todos modos saldr significativo.
Pruebas grficas de normalidad
Se usan para chequear a ojo si habra falta de normalidad extrema, pues los procedimientos paramtricos como
pruebas t-Student o ANOVA pueden aplicarse cuando la falta de normalidad no sea extrema.
Histograma de frecuencias: Si es marcadamente asimtrico hay razn para sospechar falta de normalidad.
Diagrama de Percentiles (Q-Q Plot en SPSS) donde en el eje horizontal van los percentiles de la muestra y en el
eje vertical van los percentiles de la distribucin normal Z obtenida una normal de misma media y desviacin
estndar que la muestra. Si hay normalidad los puntos deben caer en lnea recta o siguiendo la recta, con
algunos puntos arriba y otros debajo de la recta. En caso contrario no hay normalidad.
Pruebas descriptivas de normalidad
Usan los coeficientes de asimetra y de curtosis, y sirven ms bien para ver si la falta de normalidad es severa:
Si la asimetra (en valor absoluto) pasa de 3, hay asimetra severa (y por tanto no hay normalidad)
Si la curtosis (en valor absoluto) pasa de 10, hay curtosis severa (y por tanto no hay normalidad).

Si se compara dos o ms grupos, lo mejor es hacer pruebas de normalidad dentro de cada grupo por
separado y no en global.

7. Anlisis Factorial
Se usa en Psicometra como una herramienta para verificar la validez conceptual o validez de constructo de una
prueba psicomtrica, entendiendo constructo como un concepto no observable pero s inferible a travs de de la
conducta, se trata de una definicin terica de determinado rasgo psicolgico. Para registrar el grado de presencia
del constructo en una persona podemos hacer preguntas a la persona e inferir de sus respuestas la magnitud del
constructo en ella. Esta ltima alternativa es lo que se llama definicin operacional del constructo y que se usa
en Psicometra.
Una Prueba psicomtrica o Test es un conjunto de preguntas organizadas y con opciones de respuesta
predefinidas, construida a partir de un anlisis terico y tambin de contenido. Las preguntas o tems son
manifestaciones del constructo
En Estadstica:
El constructo se llama Variable latente: una variable que es no observable directamente.
Las preguntas o Items que usamos para registrar el constructo, se llaman Variables Manifiestas: variables
observables o registrables que se asumen como manifestaciones de la variable latente

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

15
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Con varias preguntas, para tener una sola medida del constructo se suele sumar o promediar las puntuaciones de
las respuestas y en este caso se dice que el test es de tems sumables. Lo anterior slo tiene sentido o validez si,
en efecto, las preguntas miden fundamentalmente el mismo constructo o rasgo. En caso contrario no tiene sentido
la suma.
7.1 Modelo de Anlisis Factorial
Variables:
Los rasgos psicolgicos que forman el constructo son las Dimensiones o Factores del Test y los tems asociados
a estos rasgos.
Los tems del test, que s son observables, son manifestaciones de los factores o dimensiones del test. Los tems
son variables dependientes o causadas por los Factores
Ecuaciones:
Tenemos un test con p preguntas o tems, cuyas respuestas se codifican generando p variables cuantitativas:

X 1 , X 2 ,..., X p

En el test hay m dimensiones o factores F1 , F2 ,..., Fm (pueden ser m reas o aspectos de un mismo rasgo o m
rasgos distintos) que generan las respuestas a las preguntas de modo que hay proporcionalidad entre la
magnitud de la dimensin y el valor de la variable (la magnitud de la respuesta).
Cada tem o variable X i responde proporcional y principalmente a alguno de los m factores F j

X i = li1 F1 + li 2 F2 + ... + lij F j + ... + lim Fm + i donde lij es la constante de proporcionalidad de X i a F j y


la variable (no observable) i representa la variacin fortuita o de azar. Se trata entonces de un modelo de
regresin, pero con la salvedad que las v.i. F j son no observables.
En forma compacta podemos escribir las ecuaciones que definen la relacin de proporcionalidad mediante
m

X i = lij F j + i

i = 1,2,..., p

j =1

Las ecuaciones representan matemticamente las relaciones tericas entre rasgos (las dimensiones o reas
del test) y respuestas o conductas asociadas
Supuestos (Axiomas):
(1) F j es variable estandarizada (puntuacin Zeta) con media 0 y varianza 1
(2) i , el efecto del azar en X i , tiene media 0 pero su porpia varianza V ( i ) = 2i i = 1,2,..., p . Esto quiere
decir que el efecto de azar es especfico para cada variable, el azar no afecta a todas las respuestas del test por
igual. La varianza del azar se llama varianza especfica y se denota V ( i ) = i2
(3) Hay independencia entre i y cualquier factor F j , de modo que i F j = 0
(4) Los factores son independientes {F j } ( F j F j ' = 0 ). Este supuesto no es obligatorio y muchas veces se
levanta. Cuando se asume (4) el modelo se llama Modelo Factorial Ortogonal, en caso contrario, cuando los
factores tienen correlaciones, se llama Modelo Factorial Oblcuo
7.2 Consecuencias del modelo factorial

En las varianzas:
m

V ( X i ) = (lij ) + V ( i ) = (lij ) 2 + i2
2

j =1

j =1

i = 1,2,..., p . La cantidad

(l
j =1

ij

) 2 es la varianza del tem X i

asociada o explicada por los factores comunes a los p tems y por eso se llama comunalidad del tem X i y se
denota hi2 . Es frecuente que los tems se estandaricen o pasen a puntuaciones Z de modo que V ( X i ) = 1 y en este
contexto se tiene la ecuacin:
m

1 = (lij ) 2 + i2 = hi2 + i2 = Comunalidad + Varianza especfica


j =1

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

16
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
Por analoga con el anlisis de regresin se define:
Comunalidad = hi2 =Proporcin de varianza de X i asociada a los factores comunes = Proporcin de diferencias
observadas en las respuestas de las personas en el tem i, que se deben a la diferente intensidad con que se
presentan los factores en ellas
Varianza especfica = i2 = Varianza residual (o del azar y/o otros factores no previstos) en X i = Proporcin de
diferencias observadas en las respuestas que no se deben al constructo sino que se deben al azar o a otros factores
no previstos y especficos a la conducta registrada en la pregunta o tem i del test.
En las correlaciones Item-Factor:
Bajo el supuesto (4) se cumple X i F j = lij : La constante de propocionalidad lij (carga factorial en la jerga
estadstica) es precisamente la correlacin entre el Factor F j y el tem X i . En este contexto para ver si un tem
dado corresponde a un factor, basta identificar la carga lij ms grande (en valor absoluto). Si se cumple el supuesto
(4) bastara aplicar el criterio de Cohen para correlaciones a la carga factorial del item con el factor. Los puntos de
corte clsicos son: carga lij en valor absoluto mayor o igual que 0.3 o carga lij mayor o igual que 0.5

En las correlaciones entre tems


m

La correlacin entre el tem X i y el tem X i ' es rX X = lij li ' j = Suma de productos de las correspondientes
i i'
j =1

cargas factoriales.
7.3 Estimacin de las cargas factoriales
El proceso tiene dos etapas:
(1) Determinar el nmero m de factores. Esto puede ser identificando o hallando el valor de m (Anlisis
exploratorio) o confirmando un valor de m ya conocido o predeterminado (Anlisis confirmatorio).
(2) Estimar cada carga factorial lij . Esto implica hallar la correlacin entre cada tem y cada uno de los m
factores, interpretando cada factor a partir de los tems que correlacionan ms con l y midiendo el efecto
factorial tanto en cada tem (va la comunalidad) como en el total de tems de la prueba (va la suma de
comunalidades)
7.3.1 Mtodos para determinar m= # de factores:

Mtodo de Kaiser. Es el default de SPSS: m= # de factores con varianza (eigenvalues) > 1


Mtodo de Catell. Es un mtodo alternativo al de Kaiser y SPSS lo llama scree plot (o grfico de
sedimentacin). La idea es comparar las varianzas de los factores, desde el que tiene la menor (y por tanto no
es factor real) hasta el que tiene la mayor varianza. Debemos detenernos cuando veamos un cambio sbito en
una varianza, cuando encontremos el primero de los factores con varianza relativamente grande comparada
con las de varianza menor.
Mtodo de % mnimo de varianza total. Segn este mtodo o criterio, m debe ser lo suficientemente grande
como para que el % acumulado de varianza total asociada a los factores pase de 50% o algn %
predeterminado. Los puntos de corte clsicos son 50% y 80%. No siempre se cumple el criterio de 50% de
varianza total como mnimo. Pero este caso es peligroso porque los resultados del A.F. pueden ser inestables.

Nota: Existe otro mtodo ms moderno que SPSS no usa, aunque se puede programar para aplicarlo y es el
Anlisis paralelo de Horn, que consiste en comparar sucesivamente la varianza de cada factor de la muestra real
con la correspondiente varianza de factores calculados sobre una muestra de nmeros al azar del mismo tamao y
cantidad de variables de la base de datos: Si un factor de la muestra real tiene varianza mayor que el equivalente de
la muestra de nmeros al azar, entonces es significativo y se toma en cuenta. El proceso se detiene cuando un
factor de la muestra real no supera a su equivalente de la muestra de nmeros al azar.

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


7.3.2 Identificacin de Factores

17

Identificar un factor es averiguar qu es o qu representa; cul es su sentido.


Para cada variable o tem X i observamos el factor F j con el cual est ms asociado (el que satura ms a

X i ), viendo las correspondientes cargas factoriales lij ms grandes en valor absoluto y luego asignamos cada
tem X i a uno de los m factores F j : aqul con mayor carga factorial absoluta lij
Luego observamos el conjunto o cluster de variables ms asociadas a cada factor F j y a continuacin le damos
a cada factor F j el significado o sentido promedio de las variables X i del cluster.
Cuando hay ms de un factor, se aplica la tcnica de las rotaciones: un reclculo de las cargas factoriales,
que partiendo de las estimaciones iniciales de lij , redistribuye la varianza de cada factor o componente, aunque no
cambia la varianza total. Sabremos que la rotacin ha sido exitosa cuando veamos que los tems asignados a un
factor (por sus cargas factoriales ms grandes) conforman un factor fcilmente explicable, o sea, identifican bien a
su respectivo constructo
Las rotaciones son de dos tipos:
Ortogonales (Perpendiculares): Mantienen factores Fj que no correlacionan entre s. Los mtodos
ortogonales en SPSS son:
Varimax: El ms usado de todos. Maximiza la varianza de las cargas factoriales dentro de cada factor y as obliga
a las variables a asociarse a un solo factor.
Quartimax: Maximiza la varianza de las cargas factoriales dentro de cada variable y obliga a los factores a
asociarse a una sola variable. Tiende a dar variables con ms de un factor
Equamax: Es una combinacin de los dos anteriores

Oblicuas (no ortogonales):Al girar los ejes, stos pueden formar un ngulo ms o menos cerrado, los factores
resultantes son correlacionados, no son independientes. Los mtodos oblicuos de SPSS son:
Oblimin: El ms usado dentro de los oblicuos, tiende a formar factores con la mayor correlacin pero con
estructura lo ms simple (tems cargados con la menor cantidad de factores).
Promax: Es una combinacin de oblimn y varimax de modo que los factores son lo menos correlacionados dentro
de lo posible. Es un mtodo de auge reciente.
Con rotaciones oblcuas, las cargas factoriales lij no coindicen con las correlaciones Item-Factor y se

reportan dos cuadros de resultados:


Las cargas factoriales estn en la matriz Pattern matrix o de configuracin. Estos son los coeficientes de
los factores en las variables: se asigna cada variable al factor con mayor carga en valor absoluto.
La matriz de correlaciones tem-factor llama Structure matrix o Estructura. Ayuda a interpretar los
factores a partir de los tems que correlacionan ms con l, pero debe tenerse en cuenta que ahora es posible que un
tem correlacione con ms de un factor.
Adems se obtiene la Matriz de correlaciones de componentes o de correlaciones entre factores, llamada
tambin Component correlations matrix. Si las correlaciones entre factores son bajas o irrelevantes, se prefiere
usar la rotacin Varimax.
Debemos recordar que los factores siempre se interpretan de modo indirecto, va las variables ms asociadas a
cada factor (aquellas con mayores cargas factoriales) y se suele bautizarlos atribuyndoles un significado
promedio de los significados de dichas variables. Por regla, se considera como asociada a un factor a toda
variable cuya correlacin (en valor absoluto) con el factor, pase de un cierto lmite o punto de corte. Lo mnimo es
0.3, aunque con este sistema es posible que una variable quede asociada a dos o ms factores, por lo que se
recomienda usar un lmite ms alto, por ejemplo 0.5.
Naturalmente las cargas o correlaciones que uno examina son las obtenidas despus de una rotacin, si es que
hubo necesidad de hacerla. Si la rotacin es oblicua, hay que analizar tanto la matriz de cargas o patrones
(pattern matrix) como la de correlaciones o configuracin (structure matrix).

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

18
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
7.4 Estimacin de factores
Interpretados los factores, puede ser que se necesite estimar la "cantidad" de cada factor que tiene cada unidad o
sujeto. En principio no es posible obtener estimaciones exactas, pues por definicin los factores no son
medibles directamente; pero s es posible obtener "medidas indirectas". Hay dos sistemas:

De Clculo agregado, donde los factores se miden promediando o sumando directamente las variables que
estn asociadas a l, ya sea como promedio simple o como promedio ponderado (donde la ponderacin est
asociada a la carga factorial o es la carga factorial misma). Esto no siempre es posible, si es que las variables
tienen unidades de medida distintas. Se usa mucho en construccin de pruebas o Psicometra.

Mtodos Anlticos, donde los factores se estiman apelando a algn sistema estadstico de regresin, siendo
las estimaciones iniciales de los factores, las componentes principales o cantidades anlogas. Los mtodos del
SPSS producen factores (factor scores) con media 0 y son:
(a)
(b)
(c)

Regression: Produce factor scores con media cero, que pueden estar correlacionadas.
Anderson: Produce factor scores independientes con media cero y varianza 1 siempre.
Bartlett: Produce factor scores con media cero.

En el caso de pruebas psicomtricas no es recomendable dejar que SPSS calcule los factores con alguno
de sus mtodos, pues son ms bien ciegos, pegados a la comodidad estadstica y menos a la teora
psicolgica.

7.5 Otros mtodos de Extraccin de Factores


Aunque Componentes Principales (A.C.P) es el mtodo default de SPSS porque es general y recomendado, hay
otros mtodos para estimar las cargas factoriales. Todos se apoyan Componentes Principales en el sentido que
toman la solucin de este mtodo como base.
Unweighted Least Squares: Mnimos cuadrados no ponderados. Se caracteriza porque obtiene los factores de
modo que se minimice la diferencia global entre las correlaciones observadas y las reproducidas, esto es, se centra
ms en las correlaciones que en las varianzas (como lo hace Componentes Principales). Es preferible usarlo
cuando el nmero m de factores es conocido o se puede conjeturar. Tambin hace una prueba Chi2 de bondad de
ajuste, donde H0: El modelo usado es el adecuado
Generalized Least Squares: Mnimos cuadrados generalizados. Se caracteriza porque obtiene los factores de
modo que se minimice la diferencia global entre las correlaciones observadas y las reproducidas, privilegiando
aquellas parejas de variables con mayor "efecto factorial". Anlogamente al mtodo anterior, se aplica cuando se
conoce el nmero m de factores y se sabe que hay variables con "efecto" factorial muy disparejo en relacin al
resto. Es uno de los que mejor funciona con tems dicotmicos. Tambin hace una prueba Chi2 de bondad de
ajuste, donde H0: El modelo usado es el adecuado
Maximun Likelihood: Asume normalidad de variables. Adicionalmente permite contrastar la hiptesis de que el
nmero de factores es una cierta cantidad m predeterminada, mediante un estadstico Chi2 (Chi-square), cuyo
Nivel de Significacin debe ser MAYOR que 0.05 para aceptar que hay m factores.
Principal-Axis Factoring: Es una variante de A.C.P., que consiste en aplicar C.P. tomando como varianza inicial
de cada variable, no 1 sino un nmero menor, para amortiguar la tendencia de C.P. de dar un primer factor con
mucha varianza. Es el segundo mtodo ms usado, y tambin es de tipo exploratorio
Alpha factoring: Calcula los factores de modo que tengan mxima confiabilidad, considerando que las variables
son una muestra de un universo mayor de variables.
En general, el orden de mtodos es: 1ero. Componentes ; 2do. Principal-Axis y 3ero. Otros ( Maximun
Likelihood, Unweighted Least Squares, etc ).

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II


8. Anlisis de medidas repetidas

19

8.1 Uso
Cuando tenemos una variable Y cuya evolucin queremos seguir en un grupo de participantes, en diversas ocasiones, cada una de las cuales suele estar en un contexto especfico o tratamiento (este conjunto de contextos o
repeticiones se llama factor intrasujetos). Tambin puede ser cuando tenemos k variables respuesta Y1, Y2,,Yk
medidas en los mismos participantes y que son comparables entre ellas (o sea estn en la misma escala).
Se desea ver si las medias o las medianas (segn el caso) de las k variables son iguales o si difieren, quiz con un
patrn de evolucin o tendencia caracterstica.
Adems hay algunos otros factores cuyo efecto en esa evolucin o tendencia se quiere identificar. El anlisis se
llama de anlisis de medidas repetidas porque cada individuo es medido sucesivas veces, o sea se repite la
medicin de Y en cada participante k veces y por tanto los datos estn correlacionados.
Si la variable Y es ordinal o no tiene distribucin normal, la prueba ms usada es el Test o Prueba de
Friedman, que compara las k medianas de las muestras relacionadas. Es una prueba o test mnibus y de ser
significativa, los contrastes especficos siguientes son sucesivas pruebas T de Wilcoxon por pares o pruebas U de
Mann-Whitney
Si la variable Y es cuantitativa con distribucin normal y se satisfacen ciertos supuestos, la prueba de
eleccin es el ANOVA para medidas repetidas, donde, como en el ANOVA One Way o Two Way, se contrasta
la existencia de un efecto de diferencia entre repeticiones, tomando en cuenta el efecto de los factores si los hay
y las posibles interacciones. Anlogamente al ANOVA, tambin habr contrastes Post Hoc o contrastes Ad Hoc
segn sea el caso.
8.2 Caso No paramtrico
Con una variable Y ordinal o con distribucin no normal, cuya evolucin se sigue en un grupo de participantes, en
k ocasiones, que generan las mediciones o repeticiones Y1, Y2, ,Yk. O tambin cuando hay k atributos medidos
ordinalmente o con falta de normalidad Y1, Y2, ,Yk que se quieren comparar. Asumimos independencia entre
casos distintos pero no entre mediciones repetidas en cada caso o sujeto.
El plan de anlisis estadstico comprende:
Un Test mnibus para la hiptesis global H0:Me1=Me2==Mek
Contrastes especficos segn las hiptesis previas por contrastar o las comparaciones mltiples que haya que
hacer para detectar los pares diferentes.
Si adems hay factores cuyo efecto se desea estudiar, no hay una prueba no paramtrica que haga este trabajo,
pero se pueden aplicar contrastes separados por los niveles de los factores y estudiar el conjunto de resultados.
8.2.1 Test mnibus (Prueba de Friedman para k muestras relacionadas)
Contrasta H0:Me1=Me2==Mek vs H1:Al menos dos medianas son diferentes. Su lgica es similar a la de otras
pruebas basadas en rangos o puestos, esto es, se ordenan las puntuaciones dentro de cada sujeto y si H0 es cierta,
las k mediciones debieran intercalarse y por tanto sus rangos o puestos correspondientes debieran ser similares. Lo
mismo debiera ocurrir con las mediciones de los otros sujetos. Comparando los rangos promedio se calcula la
probabilidad de que siendo cierta H0 se obtenga rangos promedio como los que aparecen en nuestros datos. Si esta
probabilidad o significacin es muy pequea, sabemos que podemos rechazar H0.
Metodologa en SPSS
Para contrastar H0:Me1=Me2==Mek
Digitar la base con los datos de cada participante en cada variable del grupo Y1, Y2, ,Yk de mediciones, en
un columnas diferentes. Si hubiera otras variables como factores, stas van como identificadoras de cada grupo
en una columna por factor.
Aplicar la secuencia de comandos:
Analizar
Pruebas no paramtricas Cuadros de dilogo antiguos
k muestras relacionadas

Variables de prueba: Pasar las variables Y1, Y2,, Yk Opciones: Estadsticos: check en Descriptivos
y en Cuartiles Continuar
Exact
check en Exact
Continuar
Aceptar.
Examinar la significacin en el cuadro Estadsticos de contraste (de preferencia la significacin exacta, la
asinttica slo si el tamao global de muestra es grande e impide obtener la exacta) para ver si se rechaza H0 o

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

20
FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II
no. Si se rechaza H0, usar las estadsticas descriptivas (medianas) del cuadro Estadsticas descriptivas de SPSS
para tener idea de cules mediciones difieren ms.
8.2.2 Contrastes especficos
Si se llega a rechazar H0:Me1=Me2==Mek, se pasa a comparar las variables Y1 , Y2 ,..., Yk , ya sea en ciertos pares,
si es que hay hiptesis previas, o todos los pares, si no se tiene hiptesis previas. En el ltimo caso, hay que tener
cuidado con la capitalizacin del azar y para ello, hay que trabajar con un nivel ms exigente, por ejemplo, no
0.05, sino 0.01; Dado que se trata de muestras relacionadas, se usan sucesivas pruebas T de Wilcoxon para pares
relacionados. Otra alternativa es trabajar slo a nivel descriptivo. Si hubiera factores cuyos niveles deseamos
comparar, se aplican pruebas U de Mann Whitney.
8.3 Caso paramtrico: Anlisis de varianza de medidas repetidas con distribucin normal
Bajo el supuesto de normalidad, con este modelo podemos analizar el efecto (los cambios) del factor repeticiones o
intra-sujetos asociado a las k mediciones Y1, Y2,,Yk de una variable Y observada en k situaciones distintas (o
de k variables Y1, Y2,,Yk comparables) en los mismos n casos. Adicionalmente se estudia el efecto de los niveles
de otros factores inter-sujetos A, B, etc., es decir que las correspondientes combinaciones AiBj se aplican a grupos
distintos e independientes de casos.
Este diseo requiere menos casos que un diseo de ANOVA factorial y controla mejor la variacin al azar entre
sujetos pero al precio de tener que controlar el efecto de posible contaminacin por repeticiones, esto es que
como son los mismos participantes, adems de las diferencias ocasionadas por los contextos hay una diferencia
generada por el aprendizaje o el efecto residual de la medicin anterior, entre dos mediciones consecutivas.
Supuestos
Adems de los supuestos del ANOVA se asumir que las varianzas de las diferencias entre las mediciones intrasujetos son iguales y que lo mismo sucede con sus correlaciones (esfericidad). SPSS verifica este supuesto con
el Test W de Mauchly: Si se rechaza la hiptesis de esfericidad, SPSS hace una correccin en el estadstico F del
anlisis al presentar el Anlisis de varianza del contraste de diferencias entre repeticiones Y1, Y2,,Yk. Presenta
dos correcciones de F: la de Greenhouse-Geisser y la de Huynh-Feldt, junto con los correspondientes contrastes.
La de Greenhouse-Geisser es ms conservadora y es la que usaremos.
Metodologa en SPSS

Digitar la base con los datos de cada participante en cada variable del grupo Y1, Y2, ,Yk de mediciones, en
un columnas diferentes. Si hubiera otras variables como factores, stas van como identificadoras de cada grupo
en una columna por factor.
Aplicar la secuencia bsica de comandos es:
Analizar
Modelo lineal general
Medidas repetidas
Nombre del factor intra-sujetos: reemplazar el
nombre factor1 por uno ms especfico si se desea
Nmero de niveles: poner el nmero k de
repeticiones
Aadir
Definir
Variables intra-sujetos: Pasar las sucesivas mediciones Y1,,Yk
Factores inter-sujetos: Pasar los factores inter-sujetos
Opciones: check en Estadsticos descriptivos

Continuar
Grficos: Eje horizontal axis: poner el factor intra-sujetos; Lneas separadas: poner un
factor inter-sujetos Aadir
Continuar
Aceptar.
Examinar la significacin en la tabla Prueba de esfericidad de Mauchlyb para ver si se cumple el supuesto de
homogeneidad de varianzas y correlaciones (esfericidad). La hiptesis nula H0 es que s se cumple el supuesto:
Si no se rechaza H0 (la esfericidad) pasar a la tabla Pruebas de efectos intra-sujetos y ver las significacin del
factor intra-sujetos (y la de interacciones con factor inter-sujeto si lo hubiera) asumiendo esfericidad
Si se rechaza la hiptesis H0 de esfericidad, ver las significacin del factor intra-sujetos (y la de interacciones
con factor inter-sujeto si lo hubiera) usando la prueba de Greenhouse-Geisser.
Si hubiera hiptesis de tendencias lineal, cuadrtica o cbica en la evolucin de los sujetos, examinar la tabla
Pruebas de contrastes intra-sujetos (factor intra-sujeto) y ver las significaciones para saber cules tendencias se
presentan y si cambian con los niveles del factor inter-sujeto. Apoyarse en las estadsticas y grfico para
interpretar mejor, de ser necesario.
Para evaluar el o los factores inter-sujetos examinar las significaciones tabla Pruebas de los efectos intersujetos. Pero si ha habido interaccin con el factor inter-sujeto, esto ltimo es lo importante.

FORMULAS ESTADISTICA II - FORMULAS ESTADISTICA II -FORMULAS ESTADISTICA II

Das könnte Ihnen auch gefallen