Beruflich Dokumente
Kultur Dokumente
H 0 : q K K 1 q 1
R
H 1 : R r
1
H 0 : R r 0 0 1 0 2 = 0
3
4
2. Contraste de significacin conjunta: H 0 : 2 3 4 0
0 1 0 0
H 0 : R r 0 0 1 0
0 0 0 1
1
0
2 0
3
0
4
1
0
0 0 1 0 2
H 0 : R r
0
0 0 0 1 3 0
4
Podemos ilustrar el inters de contrastar otro tipo de restricciones lineales en el
siguiente modelo para la inversin agregada de un pas,
Donde las variables implicadas son:
INVERR t 1 2 t 3 PNBRt 4 INTERES t 5 INFLACION t t
INVERR:
t:
PNBR:
INTERES:
INFLACION:
1
2
H 0 : R r 0 0 1 0 0 3 1
4
5
2. H 0 : 4 5 0, los inversores tienen en cuenta el tipo de inters real. Esto es
la inversin no variara si un aumento del tipo de inters nominal viene
acompaado por un aumento de la misma magnitud de la tasa de inflacin,
manteniendo el resto de factores constantes.
1
2
H 0 : R r 0 0 0 1 1 3 0
4
5
0 1 0 0 0
H 0 : R r 0 0 1 0 0
0 0 0 1 1
1
0
2
3 1
4 0
5
H 0 : 1 2 K 0
H 1 : Al menos uno de los k s es diferente decero
El estadstico F se puede construirse a partir del R2 de la regresin estimada
F
n ( K 1)
R2
*
K
1 R2
Este es un caso particular del problema general de imponer y testear restricciones sobre
los parmetros del modelo.
Por ejemplo, podemos imponer una restriccin alternativa sobre el modelo
b1 + b2 = 1
En este caso, si incorporamos la restriccin al modelo tenemos:
Yt 0 1 X 1t (1 1 ) X 2t 3 X 3t t
(Yt X 2t ) 0 1 ( X 1t X 2t ) 3 X 3t t
F = (SCRR - SCRNR)/q
(SCRNR)/(n k - 1)
Donde
SCRR: Suma de los Cuadrados de los errores de la Regresin Restringida
SCRNR: Suma de los Cuadrados de los errores de la Regresin No Restringida
q: grados de libertad del numerador (g.de lib rest g de lib no rest) (nmero de
restricciones)
k: nmero de variables independientes en el modelo irrestricto
n: nmero de observaciones
n k 1: grados de libertad del denominador (g. de lib no rest)
Dist ~ F (q, n-k-1)
El estadstico se distribuye como una F con (q grados de libertad en el numerador y (nk-1) en el denominador.
Esta versin general del test F puede utilizarse para cualquier restriccin que implique
una combinacin lineal de parmetros.
En el caso particular en el que la variable dependiente no cambia el test F puede
plantearse en trminos de los R2 calculados para las regresiones restringida y no
restringida.
F = (R2NR - R2R)/q
(1 - R2NR)/(n k - 1)
La variable de desenlace (que es aquella sobre la cual actan los otros dos tipos
de variables).
Para aclarar este concepto, imaginemos que queremos estudiar el efecto del gnero
sobre las horas de participacin en un programa de ejercicio en una muestra de 10
estados de la repblica; en este ejemplo, la variable de agrupacin (que sera el estado
de la repblica) debera ser tratada como factor aleatorio, ya que la variable dependiente
o de desenlace es la cantidad de horas de participacin en el programa de ejercicio y la
variable independiente o maniobra es el gnero. Incluir esta variable de efectos
aleatorios puede mejorar la varianza explicada por el gnero.
El ANCOVA separa el efecto de las maniobras del efecto de las covariables, es decir,
corrige la variable de respuesta eliminando la influencia de las covariables por el hecho
de que estas varan conjuntamente con las maniobras o tratamientos, lo cual afecta la
variable de desenlace.
En el anlisis de la covarianza se realiza el siguiente modelo de regresin:
Y
Dnde:
Y = desenlace (peso del recin nacido)
X = covariable (ganancia de peso en el embarazo).
Z = variable dicotmica que representa los grupos que se van a comparar (anmica y
no anmica) (Z = 0 para un grupo y Z = 1 para otro grupo, etctera).
E = error.
De acuerdo con este modelo, las medias ajustadas para los grupos se definen como los
valores predichos obtenidos al evaluar el modelo con Z= 0 y Z = 1, cuando se asume
artificialmente que X tiene el mismo promedio general de la covariable para todos los
grupos, este procedimiento es equivalente a asumir una distribucin comn de las
covariables que est basada en la muestra combinada de todos los grupos.
Los promedios corregidos por las covariables se llaman medias mnimo-cuadrticas
corregidas (LSMEANS, por sus siglas en ingls least-squares means) y se calculan
de la siguiente manera:
Y : Y b yx X i X
Despus de realizar el modelo de regresin y calcular las medias ajustadas, se realiza
una prueba de hiptesis de F ( H 0 : 2 0 ) para determinar si dichas medidas ajustadas
son significativamente diferentes.
Supuestos:
La relacin entre X y Y debe ser lineal. Este supuesto se prueba si se hace un anlisis de
regresin lineal simple entre la covariable (X) y la respuesta (Y). La regresin debe ser
significativa, es decir, con p< 0.05.
Homogeneidad de las pendientes. Las pendientes de todos los grupos de tratamiento
deben ser iguales o aproximadamente iguales; es decir, no hay interaccin entre las
variables de estudio y las covariables. Este supuesto se prueba verificando que la
interaccin del tratamiento por la covariable no sea significativa.
Supuesto de independencia entre la covariable (X) y el tratamiento. Este supuesto se
prueba realizando un ANOVA en el que la covariable (X) sea declarada variable
dependiente y los tratamientos sean declarados como variables independientes. La
prueba de F debe resultar no significativa.
Consideraciones:
Tericamente no hay lmites para el nmero de covariables que pueden usarse, pero la
prctica ha demostrado que 4 o 5 son suficientes; ms all de este nmero, se generan
problemas de colinealidad.
Las covariables son variables independientes que afectan la respuesta, pero sobre las
cuales no se ha podido ejercer control por criterios de seleccin o por alguna otra razn.
Las covariables deben ser medidas en escala de razn, intervalar o nominal.
Las covariables no deben estar relacionadas con las maniobras o condiciones
experimentales.
Las covariables deben estar relacionadas con el desenlace (variable dependiente o de
respuesta).
Las covariables deben poseer una relacin lineal con la variable de respuesta. De no ser
as, se debe aplicar una transformacin para convertir la relacin en lineal. Esta
transformacin puede ser logartmica, recproca, arcoseno, exponencial o de raz.