Sie sind auf Seite 1von 22

TEMA: CONTRASTES ORTOGONALES Y COVARIANCIA.

INTRODUCCIN
El anlisis de la varianza se convierte en la tcnica ms habitual cuando las
variables explicativas son categricas y cuantitativas la variable explicada. Las
variables independientes se denominan factores, constan de dos o ms niveles y
pueden interactuar entre ellas. Esta tcnica contrasta mediante el anlisis de la
variabilidad si los valores medios de la variable dependiente difieren segn las
diferentes combinaciones de factores e interacciones. Los experimentos
factoriales pueden complicarse tanto como se deseen e incorporar efectos
aleatorios, multinivel, jerrquicos, anidados, fijos, etc. Existe una amplia gama de
situaciones que se presentan de forma habitual al realizar un experimento o
anlisis.
Si bien el acercamiento bsico al anlisis de la varianza proviene de los
contrastes de medias para dos o ms niveles, el enfoque ms correcto nace
desde el anlisis de regresin. El anlisis de la varianza particulariza el modelo de
regresin lineal cuando las variables independientes son cualitativas y la
independiente cuantitativa. Considerar esta situacin desde los modelos de
regresin permite al investigador un estudio completo, detallado y sistematizado
del experimento factorial.
Cuando en los modelos de regresin intervienen variables independientes
cualitativas, el abordaje se realiza mediante dos tipos de contrastes: los
denominados a priori y los contrastes a posteriori. Si bien a nivel matemtico se
establece un isomorfismo entre ambos enfoques por lo que son equivalentes, a
nivel prctico el investigador debe optar por uno de esos contrastes.
Los contrastes ortogonales, o a priori, se utilizan habitualmente en el mbito de
las Ciencias Experimentales. Los factores intervienen en el modelo de forma
controlada (por ejemplo, a un ratn le inyectamos 100 gramos del compuesto I y
a otro roedor 200 gramos) y se suele denominar Diseo de Experimentos. Las
principales ventajas de los contrastes ortogonales residen en que el orden de los
factores no influye en el modelo, ste adopta una nica expresin (ortogonal) y
resulta fcil detectar qu factores o niveles influyen o no. El principal
inconveniente consiste en que los coeficientes del modelo han de interpretarse
con precaucin.
En el otro extremo aparecen los contrastes no ortogonales, o a posteriori, muy
usuales en las Ciencias Sociales. Estos estudios no disponen de condiciones
controladas desde donde puedan observar las reacciones de los sujetos
entrevistados. En estos modelos el orden de los factores o variables nominales
que intervienen en el modelo s importan, lo que conlleva a diferentes modelos
igualmente vlidos. La principal ventaja en estos modelos surge que los
coeficientes son muy fciles de interpretar.

OBJETIVOS:

Determinar los parmetros


Ortogonales y Covariancia.

Indagar sobre las restricciones, ventajas, desventajas, modelo matemtico,


clculos de anlisis de varianza y ejemplos.

de

resolucin

del

mtodo

Contrastes

MARCO TERICO
CONTRASTES ORTOGONALES
RESTRICCIONES
Los contrastes se utilizan mucho en mtodos de comparacin mltiple; el cual se
estudiar a continuacin.
Supongamos que el factor que se est estudiando tiene cinco niveles
(tratamientos) y al llevar a cabo el Anlisis de Varianza se rechaza Ho, con base a
esta informacin es posible suponer que el tratamiento uno y dos producen la
misma diferencia.
Esto implica que es necesario probar las siguientes hiptesis:
Ho : 1 = 2
H1 : 1 2
Estas hiptesis pueden ser probadas investigando una combinacin lineal
apropiada de los totales de los tratamientos, por ejemplo:
y1. y2. = 0
Por otro lado, si se suponen que el promedio de los tratamientos 1 y 3 no difieren
del promedio de los tratamientos 4 y 5, las hiptesis que deben probarse son:
Ho : 1 + 3 = 4 + 5
H1 : 1 + 3 4 + 5
y esto implica la combinacin lineal:
y1. + y3. y4. y5. = 0
La propiedad bsica de las comparaciones ortogonales es que reflejan piezas de
informacin independientes y que el resultado de una comparacin no tiene
relacin alguna con el resultado de cualquier otra.
Bajo el supuesto de ortogonalidad, dos comparaciones son independientes
cuando la suma de los productos cruzados de los coeficientes es cero, es decir, la

condicin de ortogonalidad entre dos comparaciones cumple la siguiente


restriccin:

(ajak = 0)
VENTAJAS

Es que con stos se logra un control total al estimar los errores a y .


Mejor alternativa para sustituir las pruebas de comparaciones mltiples.
Permite comparaciones entre medias individuales o entre grupos de medias, sobretodo, cuando se tiene algn criterio que permite separar los
tratamientos en grupos lgicos.
Reflejan piezas de informacin independientes y que el resultado de una
comparacin no tiene relacin alguna con el resultado de cualquier otra.
Son independientes cuando la suma de los productos cruzados de los
coeficientes es cero, es decir, la condicin de ortogonalidad entre dos
comparaciones cumple la siguiente restriccin .

DESVENTAJAS

Se corre el riesgo de cometer ms errores de Tipo I al asumir como


verdadera la hiptesis de nulidad; es decir, hay la posibilidad de realizar
ms rechazos falsos de la hiptesis de nulidad o de no efectos. En lnea con
esa problemtica, es conveniente distinguir dos tipos de errores: Error de
Tipo I por comparacin (PC) y tasa de error por familia (PF). El error PC,
simbolizado por , es la probabilidad de cometer un error de Tipo I por
comparacin.
Si es 0.05, la probabilidad es 0.05. Por el contrario, la tasa de error PF,
PF, es la probabilidad de cometer uno o ms errores de Tipo I en un
conjunto de comparaciones. La relacin entre estos dos errores y la
probabilidad de cometer al menos un error de Tipo I es:

PF = 1 - (1 - )c

CALCULO DE ANALISIS DE VARIANZA


Cinco hiptesis de nulidad para los contrastes ortogonales
1. H0 = 2 - 1 = 0
Dos lecturas de la lista (condicin A 2) no difieren de una sola lectura (condicin
A1).
3. H0 = 23 (1 + 2) = 0
Se establece la igualdad entre tres lecturas y el promedio entre una y dos
lecturas.
5. H0 = 34 - (1 + 2 + 3)= 0
Se define la igualdad entre cuatro lecturas y el promedio de las restantes.

Coeficientes de los contrastes ortogonales

Supuesto de ortogonalidad entre dos contrastes


Ejemplo: entre el contraste uno y dos:
(-1)(-1) + (1)(-1) + (0)(2) + (0)(0) = 0
Suma de cuadrados del contraste

Sumas de cuadrados
5[(-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2]
SCC1 = -------------------------------------------------

= 16.90

2
5[(-1)2.4 + (-1)5.0 + (2)6.6 + (0)8.2]
SCC2 = --------------------------------------------------- = 28.03
6
5[(-1)2.4 + (-1)5.0 + (-1)6.6 + (3)8.2]
SCC3 = ------------------------------------------------------ = 46.82
12
=======

SCA:

91.75

Razones F
16.90
F1 = ------------ = 11.66
1.45
28.03
F2 = ------------ = 19.33
1.45
46.28
F3 = ----------- = 32.39
1.45

Valor terico de F
Entrando en la tabla de la distribucin F, el valor terico del estadstico es
F0.95(1/16) = 4.49
Caractersticas de los contrastes ortogonales
Una propiedad caracterstica de las comparaciones ortogonales es la
descomposicin de la Suma de Cuadrados de tratamientos del ANOVA en tantos
componentes ortogonales (independientes) como grados de libertad de esa
fuente de variacin (se dispone de un grado de libertad por componente).
Siguiendo con el ejemplo propuesto, la Suma de Cuadrados de tratamientos, SC A,
tiene a - 1 grados de libertad y, como consecuencia, tres componentes
ortogonales (siendo a igual a cuatro).
Propiedades de los contrastes ortogonales

EJEMPLO:

Se supone que la cantidad de carbn usada en la produccin de acero tiene un


efecto en su resistencia a la tensin. En la tabla se muestran los valores de la
resistencia a la tensin del acero para cada uno de los 4 diferentes porcentajes de
carbn. Con estos datos efecte el anlisis apropiado e interprete sus resultados.

Solucin.
Variable Respuesta: Resistencia a la tensin.
Las hiptesis que se desean probar son:
Ho : 1 = 2 = 3 = 4 (Las medias son iguales)
H1 : 1 2 3 4 (Las medias son diferentes)
El significado verbal es:
Ho : La cantidad de carbn usada en la produccin de acero no tiene efecto
significativo en la resistencia a la tensin.
H1 : La cantidad de carbn usada en la produccin de acero tiene efecto
significativo en la resistencia a la tensin.
Datos
a = 4 , n = 4 , N = 16 , i = 1,2,3,4 , j = 1,2,3,4
Clculos Matemticos
Totales

Medias de los Tratamientos

Sumas de Cuadrados

Medias de Cuadrados

Estadstica

Utilizando un nivel de significancia del 5% ( = 0.05), para encontrar el FTablas


(Tablas Fisher) con 3 grados de libertad (a-1) en el numerador y 12 grados de
libertad (N-a) en el denominador.
F,a-1,N-a =F0.05,3,12 = 3.49
Comparando el F0 calculado en el anlisis de varianza y el FTablas , se puede
observar que:
F0 > FTablas
15.41 > 3.49
Por tanto, se Rechaza la hiptesis nula (H0) y se acepta la hiptesis alternativa
(H1); es decir, que las medias de los tratamientos difieren.
Tambin se puede observar grficamente, de la siguiente manera:

Se observa que el valor de F0 cae en la zona de rechazo de H0.


Conclusin
Se concluye que la cantidad de carbn usada en la produccin de acero tiene
efectos significativos en la resistencia a la tensin.
Como se ha rechazado H0, existe diferencia entre las medias de los tratamientos,
pero no se especifica entre que medias de tratamientos existen las diferencias.

Se podra estar interesado en querer saber entre que medias de tratamientos


existe diferencia, para ello se utilizar el mtodo de contrastes ortogonales para
contestar esta inquietud.
1. Se definen las 4 1 = 3 hiptesis.

2. Un conjunto de comparaciones entre medias y los contrastes


ortogonales son:

3. Clculo de los contrastes.

4. Clculo de la Suma de cuadrados de los contrastes.

5. Tabla de Anlisis de Varianza con los contrastes

6. Anlisis de los resultados de los contrastes.


Utilizando un nivel de significancia del 5% ( = 0.05), para encontrar el FTablas
(Tablas Fisher) con 1 grado de libertad en el numerador y 12 grados de libertad
(N-a) en el denominador.
F,1,N-a =F0.05,1,12 = 4.75
Al comparar el F0 obtenido en cada uno de los contrastes del anlisis de varianza
con el FTablas; se llega a las siguientes conclusiones:
a) El valor del F0 del contraste 1 es mayor que el FTablas (5.81 >4.75)
entonces se Rechaza
H0, y por lo tanto, hay diferencia significativa entre los porcentajes de
carbn uno y dos.
b) Como el F0 del contraste tres es menor que FTablas (1.12 < 4.75) se
acepta H0; y por lo tanto, no hay diferencia significativa entre los
porcentajes de carbn tres y cuatro.
c) Al comparar el valor de F0 del contraste dos con el FTablas se observa que
el F0 es mayor (39.31 > 4.75) entonces se Rechaza H0; y por lo tanto, se
dice que el promedio de los porcentajes de carbn uno y dos difieren
significativamente del promedio de los porcentajes de carbn tres y cuatro.

7. Mtodo de Scheff para comparar todos los contrastes.


Existen situaciones en que el investigador no sabe de antemano los contrastes
que desea comparar, o le interesa llevar a cabo ms de a-1 posibles
comparaciones. Estas comparaciones de inters en muchos experimentos son
descubiertas slo hasta despus de hacer un examen preliminar de los datos.
Scheff hizo una propuesta de un mtodo para comparar cualquier contraste, o
los posibles contrastes entre medias de tratamientos. Con este mtodo en

cualquiera de las posibles comparaciones el error tipo I es cuando mucho igual a


.
Supongamos que existe un conjunto de m contrastes de inters de las medias de
tratamientos.
Wk = C1k1 + C2k2 + C3k3 +..+Caka , con k = 1,2,.,m, estos
contrastes usando los promedios de tratamientos i son:
Ck = C1k 1. y + C2k 2. y + C3k 3. y +..+Cak a. y con k = 1,2,.,m
El error estndar de estos contrastse viene dado por:

El valor crtico con el que Ck debe ser comparado es:

Para llegar a probar la hiptesis de que el contraste Ck difiere significativamente


de cero, es necesario comparar Ck con el valor crtico. Si _Ck_ > S,k, la hiptesis
nula de que el contraste Wk es igual a cero debe rechazarse.
Este mtodo de Scheff se puede utilizar para construir intervalos de confianza
para todos los posibles contrastes de las medias de tratamientos; los cuales
pueden ser construidos como Ck - S,k _ Wk _ Ck + S,k , estos son intervalos de
confianza simultneos; en el sentido de que la probabilidad de que todos ellos
sean simultneamente verdaderos es al menos 1 - .
El procedimiento para llevar a cabo la comparacin de medias por medio del
mtodo de Scheff es el siguiente:
Definir los contrastes de inters.
Calcular los valores numricos de los contrastes.
Calcular el error estndar para cada contraste.
Encontrar los valores crticos.
Realizar las conclusiones.
COVARIANCIA
Entre las diferentes aplicaciones que puede tener el Anlisis de Covariancia
ANCOVA se destaca su uso en el control del error, lo cual aumenta la precisin

con que se mide un experimento; tambin, permite ajustar las medidas de


tratamientos, logrando as una mejor interpretacin de los datos y del efecto de
los tratamientos. Lo anterior se consigue al eliminar, por progresin, ciertos
efectos de los tratamientos que no pueden ser o no han sido controlados en el
experimento. Estos efectos indirectos de los tratamientos, se miden con una
variacin adicional en X la cual contribuye a la variacin en Y. as la covariancia
controla la varianza del error mediante el uso de la covariable (X).
Para ilustrar el aporte de una covariable en el efecto de los tratamientos, haremos
relacin a un experimento de nutricin animal, en el cual se ensayan diferentes
raciones. Si al momento de iniciar este experimento, no contamos con animales
experimentales del mismo peso inicial y ste est correlacionado con la ganancia
de peso (variable respuesta del tratamiento) esta falta provoca un incremento de
error en el verdadero efecto de los tratamientos. En estos casos, el ANCOVA
permite calcular y eliminar esta porcin del error experimental, generada por la
ganancia de peso atribuida al peso inicial de los animales.
En experimentos de nutricin animal, las diferencias detectadas entre medias de
tratamientos pueden ser provocadas por sus diferencias en el valor nutritivo, a las
diferencias en las cantidades consumidas, o a ambas. Si por covariancia, las
diferencias de rendimientos medios observados se ajustan sobre el consumo de
una racin comn, entonces, las medias ajustadas indicarn el verdadero efecto
de los tratamientos.
VENTAJAS

Indica el grado de variacin conjunta de dos variables aleatorias.


Determinar si existe una dependencia entre ambas variables y adems es el dato necesario
para estimar otros parmetros bsicos, como el coeficiente de correlacin lineal o la recta de

regresin.
Permite que las dos variables estn variando conjuntamente, y en el mismo sentido, cuando al

crecer los valores de una de las variables tambin aumentan los de la otra.
Devuelve la covariancia de la muestra, o promedio de los productos de las desviaciones para

cada pareja de puntos de datos en dos conjuntos de datos.


Eliminar cualquier error sistemtico fuera del control del investigador que puede sesgar los

resultados
Tener en cuenta las diferencias en las respuestas debidas a las caractersticas propias de los
encuestados. Un sesgo sistemtico puede ser eliminado por medio de la asignacin aleatoria
de los encuestados a varios tratamientos.

DESVENTAJAS

Covariancia es negativa, la covariacin de ambas variables ser en sentido inverso.


Si la covariancia es cero no hay una covariacin clara en ninguno de los dos sentidos.

La medida de asociacin es que su valor depende de las unidades en que se miden las

variables de inters.
No permite ajustar medias de tratamientos de la variable dependiente a las diferencias en
conjuntos de valores de variables independientes correspondientes.

MODELO MATEMTICO
El modelo de la covariancia, representa el modelo lineal aditivo del anlisis de
varianza del diseo experimental que se est utilizando ms un componente
adicional para la variable concomitante o independiente. Para un DBCR
tendremos:

Y= + i + j + b(x - x.) +
Dnde:
y= variable dependiente o de respuesta
x= covariable o variable independiente
b= pendiente de la regresin lineal
Este modelo igualmente, se resuelve por la suma de cuadrados tal como fue explicado en el
Anlisis de Varianza.
Los supuestos de la covariancia son:
Los X son fijos (se repiten), medidos sin error e independientes de los tratamientos.
La regresin de Y respecto a X, despus de eliminar diferencias de bloques y
tratamientos es lineal e independiente de estos factores.
Los errores se distribuyen normal e independientemente con medida cero y varianza
comn.
CALCULO DE ANALISIS DE VARIANZA

Esquema de anlisis de covariancia en un diseo de bloques comple

ANOVA

Fuentes

g.l.

SUMA DE PRODUCTOS Y CUADRADOS

SCY

SPXY

SCX

Total

rt 1

( y it Y ..)2

( xit X ..) ( y it Y .. )

( xij X ..)2

Bloques

r -1

t ( y iY ..)2

( X . t X ..)( Y .t Y .. )

t ( X t X ..)2

Tratamientos

t1

r ( y t Y ..)2

( X t X ..)( Y t Y .. )

r ( X i X ..)2

Error

(r - 1)(t - 1)

Diferencia

(a1)

Diferencia

(a2)

Diferencia

(a3)

Covariable

Tratam + error

Bloques + error

S 2YX

r(t - 1)

SC (Y .Trat + Error )

SP ( XY .Trat +Error )

(b1)

(b2)

SC (Y . Bloq+ Error )

SP ( XY . Bloq+Error )

SC ( X .Bloq+ Error )

(c1)

(c2)

(c1)

t(r - 1)

= error estndar de la estima o variancia residual

FORMULAS DESARROLLADAS: Eq. (15.2 15.10)

y ij

2
SC Y .Total = y ij

y ij

y ij

SC Y .Bloques

2
y. j

SC Y .Trat

2
yi .

SC ( X .Trat+ Error )

(b3)

(r

SP XY .Total = x ij y ij

SP XY . Bloques=

SP XY .Trat

x ij y ij
rt

X i Y j xij
t

rt

X i Y j x ij y ij
=
r

rt

xij

y ij
SC X . Total = x 2ij

x ij

SC X . Bloques

2
X.j

x ij

SC X . Trat

X 2i .

Ejemplo. En un experimento para probar la eficacia de 5 dietas en 4 bloques (lotes


de animales) se midi, adems del efecto de las dietas (Y = ganancia de peso), el
consumo de alimento (X = covariable). Realizar el anlisis de covariancia para los
resultados siguientes:
Datos sobre ganancia de peso y consumo de alimento

Total
Tratamientos

BLOQUES

TRAT.

Xi.

Yi.

307.3

20.5

393.3

38.4

355.2

30.4

345.1

25.1

1400.9

114.4

402.2

38.3

405.2

42.1

388.7

35.2

388.4

40.5

1584.5

156.1

342.4

24.6

350.4

25.1

323.2

24.1

302.3

20.1

1318.3

93.9

375.7

32.1

381.5

34.4

302.1

21.4

350.9

30.2

1410.2

118.1

305.2

27.6

353.1

29.6

377.3

32.1

382.5

32.8

1418.1

122.1

Total Bloq.

X.j

Y.j

20

1732.8

143.1

1883.5

169.6

1746.5

143.2

1769.2

148.7

Clculos bsicos:
1. FCY = 604.62/20 = 18277.06
2. SCY.Tot = (20.52+38.42++32.82) 18277.06 = 19115.5 18277.06 = 838.44

X..

Y..

7132

604.6

3. SCY.Bloq = (143.12+169.62+143.22+148.72)/5 18277.06 = 18371.94 18277.06 = 94.88


4. SCY.Trat= (114.42+156.12+..+122.12)/4 18277.06 = 18781.95 18277.06 = 504.89
5. SCY.Error = 838.44 94.88 504.89 = 238.67
6. FCXY = (7132)(604.6)/20 = 215600.36
7. SPXY.Tot = [307.3(20.5)++382.5(32.8)] 215600.36 = 219599.8 215600.36 = 3999.45
8. SPXY,Bloq = [1732.8(143.1)++1769.2(148.7)]/5 215600.36 = 216116.82 -215600.36 =
516.46
9. SPXY,trat = [1400.9(114.4)++1418.1(122.1)]/4 215600.36 = 217771.6 215600.36 =
2171.24
10.SPXY,Error = 3999.45 516.46 2171.24 = 1311.75
11.FCX = 71322/20 = 2543271.2
12.SCX.Tot = (307.32+402.22++382.52) 2543271.2 = 2565710.96 2543271.2 =
22439.76
13.SCX.Bloq = (1732.82+1883.52+.+1769.22)/5 2543271.2 = 2546099.8 2543271.2 =
2828.6
14. SCX.Trat= (1400.92+1584.52+..+1418.12)/4 2543271.2 = 2552686.9 2543271.2 =
9415.7
15.SCX.Error = 22439.76 2828.6 9415.7 = 10185.46

Resultados del anlisis de covariancia ANOVA

Fuentes de
variacin

SCy

SPXY

SCX

19

838.44

3999.4
5

22439.7
6

Bloques

94.88

516.46

2828.60

7.02 c

2.34

Tratamientos

504.89

2171.2
4

9415.70

55.07 b

13.77

12

238.67

1311.75

10195.4
6

11

69.90

6.35

Total

Error

g.l.

Covariable

Tratam+Error

g.l.

SCy,ajust.

16

743.56

3482.9
9

19611.1
6

15

168.77
a

124.97

CMajust.

168.77

0.37

2.17 NS

26.58**

Bloques+Err
or
a

15

333.55

1828.2
1
b

238.67-69.90 = 168.77

13024.0
6

14

124.97-69.90 = 55.07

76.92
c

76.92-69.90 = 7.02

El Anlisis de Covariancia, a travs del ajuste del Cuadrado medio de tratamientos, en este
caso, ha demostrado no significacin sobre la diferencia entre tratamientos, los cuales han
sido evaluados con alta significacin en el Anlisis de Variancia:

( p=0.0055 )
504.89/4
F=
=6.35
238.67 /12
La F no significativa para media ajustadas (F = 2.17 NS) demuestra que no existen diferencias
verdaderas entre las medidas de tratamiento para Y cuando se ajustan por X. Esto prueba
que las diferencias entra las medias no ajustadas reflejan, en gran medida, diferencias en el
consumo y no precisamente por efecto de las dietas solamente, es decir, a un consumo de
alimento comn. Si se hubiera detectado significacin para las medias ajustadas por
covariancia, entonces se habra concluido que las diferencias entre los tratamientos son
reales.
Procedimiento de ajuste de medidas de tratamientos
Para este propsito se usa la siguiente frmula:

i X )
Y^ t . =Y t b yx ( X
Donde:

b yx =b=coeficiente de regresin del error


A continuacin, el siguiente cuadro se observa el ajuste de las medias del ejemplo anterior:

Ajuste de medidas de tratamientos

TRAT.

Y t

X t

X i X ..

28.60

350.23

- 6.37

X
^
i X )
b yx ( t X ..) Y t . =Y t b yx ( X

- 0.83

29.43

39.03

396.13

39.53

5.14

33.89

23.48

329.13

- 27.02

- 3.51

26.99

29.53

352.55

- 4.05

- 0.53

30.06

30.53

354.53

-2.07

- 0.27

30.80

X ..=356.6

b=

SP XY . Error 1311.75
=
=0.1287
SP X . Error 10195.46

Los errores estndar de la diferencia entre dos medias de tratamiento ajustados, con igual
tamao y diferente tamao muestral, respectivamente se determinan por:

S =S yx
d

S =S yx
d

Donde:

i X t )2
2 (X
+
r SC x . error

i X t )2
1 1 (X
+ +
r 1 r 1 SC x . error
S yx = CM erro. ajustado

CONCLUSIONES:
Las comparaciones ortogonales son aquellas que reflejan piezas de informacin
independientes y que el resultado de una comparacin no tiene relacin alguna con
el resultado de cualquier otra.
Destacamos su uso en el control del error, lo cual aumenta la precisin con que se
mide un experimento; tambin, permite ajustar las medidas de tratamientos,
logrando as una mejor interpretacin de los datos y del efecto de los tratamientos.
BIBLIOGRAFA:

CONTRASTES ORTOGONALES. http://uce.uniovi.es/cursolineal/Informese5.html


CONTRASTES
Ortogonales

ORTOGONALES.

http://es.scribd.com/doc/14590547/7/Contrastes-

SNCHEZ OTERO, Julio. INTRODUCCIN AL DISEO EXPERIMENTAL. Anlisis de


Covariancia Quito Ecuador. Edicin 2006. Pginas: 126 129.

CUESTIONARIO
GRUPO N 5
TEMA: CONTRASTES ORTOGONALES Y COVARIANCIA
1. Ponga la frmula de Suma de cuadrados del contraste:

2. Ponga una caracterstica de los contrastes ortogonales


Una propiedad caracterstica de las comparaciones ortogonales es la
descomposicin de la Suma de Cuadrados de tratamientos del ANOVA en
tantos componentes ortogonales (independientes).
3. Cul es el modelo matemtico de la Covariancia?

Y= + i + j + b(x - x.) +
Dnde:
y= variable dependiente o de respuesta
x= covariable o variable independiente
b= pendiente de la regresin lineal
4. Cules son los supuestos de la covariancia?

Los X son fijos (se repiten), medidos sin error e independientes de los
tratamientos.
La regresin de Y respecto a X, despus de eliminar diferencias de bloques
y tratamientos es lineal e independiente de estos factores.
Los errores se distribuyen normal e independientemente con medida cero y
varianza comn.

5. Subraye la respuesta correcta


Ventajas de los contrastes ortogonales:
a) Mejor

alternativa para sustituir las

pruebas de comparaciones

mltiples
b) Devuelve la covarianza de la muestra, o promedio de los productos de
las desviaciones para cada pareja de puntos de datos en dos conjuntos
de datos.
c) Son independientes cuando la suma de los productos cruzados de los
coeficientes es cero, es decir, la condicin de ortogonalidad entre dos
comparaciones cumple la siguiente restriccin.

6. Escriba verdadero o falso segn corresponda

Desventajas de Covariancia

Si la covarianza es cero no hay una covariacin clara en ninguno de los dos

sentidos. (V)
Independientes cuando la suma de los productos cruzados de los coeficientes
es cero, es decir, la condicin de ortogonalidad entre dos comparaciones

cumple la siguiente restriccin. (F)


No permite ajustar medias de tratamientos de la variable dependiente a las
diferencias en conjuntos de valores de variables independientes
correspondientes. (V)

7. Cules son las ventajas de Covarianza

Indica el grado de variacin conjunta de dos variables aleatorias.


Determinar si existe una dependencia entre ambas variables y adems es el
dato necesario para estimar otros parmetros bsicos, como el coeficiente de

correlacin lineal o la recta de regresin.


Permite que las dos variables estn variando conjuntamente, y en el mismo
sentido, cuando al crecer los valores de una de las variables tambin
aumentan los de la otra.

Das könnte Ihnen auch gefallen