Beruflich Dokumente
Kultur Dokumente
LAMBDA
Ahora bien, un supuesto tambin clave es que () = , el cual garantiza que sea invertible, de modo
que el problema de MCO tiene una solucin nica. Esto se conoce como el supuesto de no multicolonealidad.
2. QU ES MULTICOLONEALIDAD?
La multicolinealidad es un problema que surge cuando las variables explicativas del modelo estn
correlacionadas entre s. Este es un problema complejo, porque en cualquier regresin las variables
explicativas van a presentar algn grado de correlacin.
Matemticamente, existe multicolinealidad cuando tenemos problemas a la hora de invertir la matriz . De
hecho, si el | | = 0 () < , implica multicolonelidad exacta (perfecta o estricta) y elimina la
posibilidad de encontrar estimaciones nicas. En este caso, alguna variable explicativa es combinacin lineal
de otras y el sistema de ecuaciones normales tiene infinitas soluciones. Ahora bien, si | | 0
() = implica multicolonelidad alta (no estricta o de grado). En este caso la correlacin entre las
variables explicativas si bien no es perfecta, es alta.
3. LAS CONSECUENCIAS DE LA MULTICOLONEALIDAD
El problema de multicolinealidad es un problema de grado. Es decir, si | | 0 () = , este
determinante numricamente es distinto de cero y por tanto, existe una nica solucin para las ecuaciones
normales. As que en principio no se viola ningn supuesto clsico, el teorema de Gauss-Markov sigue siendo
vlido. Sin embargo, la multicolinealidad de grado tiene una serie de efectos perniciosos sobre las
estimaciones MCO de los parmetros:
Las varianzas y covarianzas de los estimadores de los parmetros se hacen muy grandes conforme
aumenta el grado de colinealidad. Es decir:
[( )]
( ) = 2 ( )1 = 2
| |
y al ser el determinante cercano a cero, esto infla las varianzas y covarianzas de los parmetros
estimados. Ello implica que la precisin de la estimacin disminuye a medida que aumenta la
multicolinealidad. Ms precisamente
2
( ) =
[(1 2 ) ]
En donde 2 es el 2 de regresar en todas las restantes variables explicativas, y =
2
=1( )
( ) =
LAMBDA
2
[(1
2 ) ]
(1 2 ) ( )
es relativamente estable. Entonces hay tres factores que contribuyen a una mayor varianza
Ya que la varianza de los estimadores est sesgada al alza, los estadsticos de significacin
individual estarn sesgados a la baja. Esto har que tendamos a no rechazar la 0 : = 0 ms
frecuentemente de lo que se debiera si no existiese colinealidad alta:
=
~
( )
Tambin es interesante resaltar que bajo multicolinealidad alta, seria comn observar que los
estadsticos t de significatividad sean bajos pero si el modelo es vlido - el R2 y el estadstico F de
significatividad global sean altoa Por qu? Intuicin: El R2 puede ser alto ya que refleja como las
variables Y explican conjuntamente pues la bondad del ajuste seguir siendo parecida ante la
presencia de variables explicativas superfluas. Asimismo el estadstico F:
2 1
=
(1 2 )
Otro sntoma de multicolinealidad de grado es que ligeros cambios en las matrices de datos e
(por ejemplo, aadiendo o suprimiendo unas pocas observaciones) pueden llevar a grandes cambios
en los parmetros estimados. Esto nos puede llevar errneamente a considerar la posibilidad de
cambio estructural, cuando en realidad se trata de otro problema.
4. CAUSAS DE LA MULTICOLONEALIDAD
5. DETECCIN DE LA MULTICOLONEALIDAD
Correlacin lineal simple existente entre pares de variables explicativas. Sin embargo, pueden existir
dependencias lineales ms complicadas entre las exgenas y esto nunca lo detectaramos
calculando slo coeficientes de correlacin simples entre todas las variables.
LAMBDA
mientras ms grande es el nmero mayor probabilidad que exista multicolonealidad. Sin embargo no
hay una regla analtica para decidir a partir de qu nmero de condicin empezamos a tener
problemas graves de multicolinealidad. Existen reglas heursticas como que un nmero de condicin
mayor que 20 25, ya sugiere la presencia de alta colinealidad.
Factor de inflacin de varianza (VIF): Este indicador evala el nivel en que la varianza del coeficiente
estimado para la variable ha sido inflada, como consecuencia de que esta variable no es ortogonal
(no es independiente) del resto de variables del modelo.
=
1
(1 2 )
Procedimiento de Frisch:
El mtodo consiste en el siguiente procedimiento:
1) Se regresiona la variable dependiente con cada una de las variables explicativas por separado; y
se examina sus resultados en base a un criterio a priori y estadstico (v.gr. altos R2 cuadrados, signos
esperados, comportamiento de los residuos, mejor forecast).
2) Se elige la regresin elemental que parece dar el mejor resultado plausible, con ambos criterios a
priori y estadsticos.
3) Luego, se inserta gradualmente variables explicativas adicionales y se examina sus efectos sobre
los coeficientes individuales, sobre sus errores estndar y sobre el R2
Una nueva variable ser til, superflua o detrimental, de acuerdo a:
a) Si la nueva variable mejora el R2, sin producir coeficientes individuales inaceptables
(equivocados) en base a las consideraciones a priori, entonces la variable es considerada UTIL, y
es retenida como variable explicativa.
b) Si la nueva variable no mejora el R2, y no afecta en grado considerable los valores de los
coeficientes individuales, entonces esta variable es considerada como SUPERFLUA, es decir, no se
considera dentro de las variables explicativas del modelo, dado que no agrega informacin adicional.
LAMBDA
c) Si la nueva variable afecta considerablemente los signos o los valores de los coeficientes, es
considerada como DETRIMENTAL. Si los coeficientes individuales son afectados de tal manera que
se vuelven inaceptables en base a las consideraciones tericas a priori, entonces ello es una
advertencia que la multicolinealidad es un serio problema.
OJO: La nueva variable es importante, pero debido a su intercorrelacin con las otras variables
explicativas su influencia no puede ser asegurada estadsticamente por los MCO. Esto no significa
que debamos rechazar la variable detrimental, pues si lo hacemos se ignorara informacin valiosa
en el intento de especificar la verdadera relacin. Si se omite la variable detrimental, se debe tener
en mente que haciendo eso se deja que su influencia sea absorvida por los otros coeficientes y por el
trmino aleatorio, el cual puede volverse correlacionado con las variables dejadas en la funcin,
violando en consecuencia el supuesto de (|) = 0.
23
1
34
24
34 ]
1
1, =
2
( 1)
2
(1 )( )
LAMBDA
- Tercero: El objetivo de esta etapa es determinar qu variables son responsables que aparezca la
multicolonealidad. As, de la regresin escogida en la etapa anterior, se calcula la matriz de coeficientes
de correlacin parcial entre las variables explicativas y se escoger el ms alto de ellos. Luego se hace
un test t.
0 : = 0 1 : 0 . EL estadstico:
=
2
1
~()
Nota:
= 0 + 1 1 + 2 2 + + + con = 1, ,
( 0 1 1 )2
=1
=0
( 0 1 1 ) = 0
=1
1 ( 0 1 1 ) = 0
=1
2 ( 0 1 1 ) = 0
=1
( 0 1 1 ) = 0
=1
LAMBDA
Regresin Parcializada
1 = 0 + 1 2 + + + 1 = 1 + 1 con = 1, ,
(1 0 1 2 )2
=1
1
=0
(1 0 1 2 ) = 0
=1
2 (1 0 1 2 ) = 0
=1
( 0 1 2 ) = 0
=1
Ahora;
1 ( 0 1 1 ) = 0
=1
(1 + 1 )( 0 1 1 ) = 0
=1
Pero =1 1 = =1(0 + 1 2 ) = 0 =1 + 1 =1 2 = 0
1 ( 0 1 1 ) = 0
=1
Pero
0 1 = 0
=1
2 =1 1 2 =0
=1 1 =0
1 ( 1 1 ) = 0
=1
Pero 1 = 1 + 1 =1 1 1 =1(0 + 1 2 )1 = 0 =1 1 + 1 =1 2 1 = 0
LAMBDA
1 ( 1 1 ) = 0
=1
1 =
=1 1
=1 1 2
Los residuos 1 son la parte de 1 que no se correlaciona con 2 . Otra forma de decirlo es que 1 es
1 cuando se ha parcializado o extrado el efecto de 2 . As, 1 mide la relacin muestral entre y 1
despus de parcializar 2 .
Pero
= 0 + 1 1 + 2 2 + + +
Con lo que
1 = 1 +
(1 ) =
=1 1
=1 1
=1 1 2
( )
2
2
=
=
2
=1 1 2 1 (1 12 )
1 2 ]
[=1
( ) =
2
[(1 2 ) ]