Sie sind auf Seite 1von 7

Econ.

Paulo Roberto Chahuara Vargas

LAMBDA

MULTICOLONEALIDAD EN EL MODELO LINEAL GENERAL


1. INTRODUCCIN
Sea = + con = 1, ,

donde el modelo es lineal


La () = 0
No hay heterocedasticidad y correlacin serial: () = 2
Bajo Gauss-Markov el = ( )1 es MELI

Ahora bien, un supuesto tambin clave es que () = , el cual garantiza que sea invertible, de modo
que el problema de MCO tiene una solucin nica. Esto se conoce como el supuesto de no multicolonealidad.
2. QU ES MULTICOLONEALIDAD?
La multicolinealidad es un problema que surge cuando las variables explicativas del modelo estn
correlacionadas entre s. Este es un problema complejo, porque en cualquier regresin las variables
explicativas van a presentar algn grado de correlacin.
Matemticamente, existe multicolinealidad cuando tenemos problemas a la hora de invertir la matriz . De
hecho, si el | | = 0 () < , implica multicolonelidad exacta (perfecta o estricta) y elimina la
posibilidad de encontrar estimaciones nicas. En este caso, alguna variable explicativa es combinacin lineal
de otras y el sistema de ecuaciones normales tiene infinitas soluciones. Ahora bien, si | | 0
() = implica multicolonelidad alta (no estricta o de grado). En este caso la correlacin entre las
variables explicativas si bien no es perfecta, es alta.
3. LAS CONSECUENCIAS DE LA MULTICOLONEALIDAD
El problema de multicolinealidad es un problema de grado. Es decir, si | | 0 () = , este
determinante numricamente es distinto de cero y por tanto, existe una nica solucin para las ecuaciones
normales. As que en principio no se viola ningn supuesto clsico, el teorema de Gauss-Markov sigue siendo
vlido. Sin embargo, la multicolinealidad de grado tiene una serie de efectos perniciosos sobre las
estimaciones MCO de los parmetros:

Las varianzas y covarianzas de los estimadores de los parmetros se hacen muy grandes conforme
aumenta el grado de colinealidad. Es decir:
[( )]
( ) = 2 ( )1 = 2
| |
y al ser el determinante cercano a cero, esto infla las varianzas y covarianzas de los parmetros
estimados. Ello implica que la precisin de la estimacin disminuye a medida que aumenta la
multicolinealidad. Ms precisamente
2
( ) =
[(1 2 ) ]
En donde 2 es el 2 de regresar en todas las restantes variables explicativas, y =
2
=1( )

Econ. Paulo Roberto Chahuara Vargas

( ) =

LAMBDA
2

[(1

2 ) ]

(1 2 ) ( )

es relativamente estable. Entonces hay tres factores que contribuyen a una mayor varianza

2 , la varianza del termino de error


, la cantidad de observaciones
2, la correlacin entre y las otras variables.
Es importante ver que la multicolinealidad alta afecta a la varianza de la misma forma que el nmero
de observaciones (micronumerosidad).

Ya que la varianza de los estimadores est sesgada al alza, los estadsticos de significacin
individual estarn sesgados a la baja. Esto har que tendamos a no rechazar la 0 : = 0 ms
frecuentemente de lo que se debiera si no existiese colinealidad alta:

=
~
( )

Tambin es interesante resaltar que bajo multicolinealidad alta, seria comn observar que los
estadsticos t de significatividad sean bajos pero si el modelo es vlido - el R2 y el estadstico F de
significatividad global sean altoa Por qu? Intuicin: El R2 puede ser alto ya que refleja como las
variables Y explican conjuntamente pues la bondad del ajuste seguir siendo parecida ante la
presencia de variables explicativas superfluas. Asimismo el estadstico F:
2 1
=
(1 2 )

Otro sntoma de multicolinealidad de grado es que ligeros cambios en las matrices de datos e
(por ejemplo, aadiendo o suprimiendo unas pocas observaciones) pueden llevar a grandes cambios
en los parmetros estimados. Esto nos puede llevar errneamente a considerar la posibilidad de
cambio estructural, cuando en realidad se trata de otro problema.

4. CAUSAS DE LA MULTICOLONEALIDAD

Reducido tamao de muestra


Relacin causal entre variables explicativas del modelo
Escasa variabilidad en las observaciones de las variables independientes
Variables irrelevantes
Problemas de escala
Inclusin de variables explicativas retardadas (modelos de rezagos distribudos)

5. DETECCIN DE LA MULTICOLONEALIDAD

Correlacin lineal simple existente entre pares de variables explicativas. Sin embargo, pueden existir
dependencias lineales ms complicadas entre las exgenas y esto nunca lo detectaramos
calculando slo coeficientes de correlacin simples entre todas las variables.

Calcular los coeficientes de correlacin parcial


2

Econ. Paulo Roberto Chahuara Vargas

LAMBDA

Calcular el valor numrico del determinante de .

Calcular los autovalores de y ver si alguno de estos autovalores es cercano a cero

Examinar el tamao relativo de los autovalores. En concreto, se calcula el nmero de condicin de la


matriz como la raz cuadrada del cociente entre el autovalor ms grande y el ms pequeo.

mientras ms grande es el nmero mayor probabilidad que exista multicolonealidad. Sin embargo no
hay una regla analtica para decidir a partir de qu nmero de condicin empezamos a tener
problemas graves de multicolinealidad. Existen reglas heursticas como que un nmero de condicin
mayor que 20 25, ya sugiere la presencia de alta colinealidad.

Factor de inflacin de varianza (VIF): Este indicador evala el nivel en que la varianza del coeficiente
estimado para la variable ha sido inflada, como consecuencia de que esta variable no es ortogonal
(no es independiente) del resto de variables del modelo.
=

1
(1 2 )

Donde 2 representa la bondad de ajuste (coeficiente de determinacin) de la regresin entre la


variable explicativa y el resto de variables explicativas del modelo. Si 2 es grande significa que el
comportamiento de la variable independiente se puede explicar en gran medida por el
comportamiento de las restantes variables del modelo. Ello implica que la variable no entrega
informacin diferente a la que estn entregando las restantes variables del modelo. La regla sobre
este factor, es que existe multicolinealidad si el promedio de todos los VIF es mayor a 10 o el mayor
de todos los factores VI es superior a 10.

Procedimiento de Frisch:
El mtodo consiste en el siguiente procedimiento:
1) Se regresiona la variable dependiente con cada una de las variables explicativas por separado; y
se examina sus resultados en base a un criterio a priori y estadstico (v.gr. altos R2 cuadrados, signos
esperados, comportamiento de los residuos, mejor forecast).
2) Se elige la regresin elemental que parece dar el mejor resultado plausible, con ambos criterios a
priori y estadsticos.
3) Luego, se inserta gradualmente variables explicativas adicionales y se examina sus efectos sobre
los coeficientes individuales, sobre sus errores estndar y sobre el R2
Una nueva variable ser til, superflua o detrimental, de acuerdo a:
a) Si la nueva variable mejora el R2, sin producir coeficientes individuales inaceptables
(equivocados) en base a las consideraciones a priori, entonces la variable es considerada UTIL, y
es retenida como variable explicativa.
b) Si la nueva variable no mejora el R2, y no afecta en grado considerable los valores de los
coeficientes individuales, entonces esta variable es considerada como SUPERFLUA, es decir, no se
considera dentro de las variables explicativas del modelo, dado que no agrega informacin adicional.

Econ. Paulo Roberto Chahuara Vargas

LAMBDA

c) Si la nueva variable afecta considerablemente los signos o los valores de los coeficientes, es
considerada como DETRIMENTAL. Si los coeficientes individuales son afectados de tal manera que
se vuelven inaceptables en base a las consideraciones tericas a priori, entonces ello es una
advertencia que la multicolinealidad es un serio problema.
OJO: La nueva variable es importante, pero debido a su intercorrelacin con las otras variables
explicativas su influencia no puede ser asegurada estadsticamente por los MCO. Esto no significa
que debamos rechazar la variable detrimental, pues si lo hacemos se ignorara informacin valiosa
en el intento de especificar la verdadera relacin. Si se omite la variable detrimental, se debe tener
en mente que haciendo eso se deja que su influencia sea absorvida por los otros coeficientes y por el
trmino aleatorio, el cual puede volverse correlacionado con las variables dejadas en la funcin,
violando en consecuencia el supuesto de (|) = 0.

Test de Farrar & Glauber


Los autores emplean un conjunto de 3 test estadsticos para verificar multicolinealidad.
- Primero: Un test Chi-cuadrado para detectar la existencia y la severidad de la multicolinealidad en
una funcin que incluye varias variables explicativas.
Ho: Las variables Xi son ortogonales entre si (no son combinaciones lineales)
H1: Las variables Xi no son ortogonales entre si.
El estadstico
(2 + 5)
2
2 = [( 1)
] ||~(1)
6
2
Donde : N de variables regresoras (no incluye la constante)
: Tamao de la muestra
: Matriz de correlacines entre las variables regresoras
1
= [23
24

23
1
34

24
34 ]
1

Si el resultado de la evaluacin arroja que se rechaza la hiptesis de existencia de ortogonalidad,


entonces se aceptar la existencia de multicolonealidad. En otras palabras si la probabilidad resultante
del test 2 es menor que 0.05, entonces se sospecha la presencia de multicolonealidad en alto grado.
- Segundo: Un test F para localizar qu variable son multicolineales con los dems, mediante la
estimacin de regresiones auxiliares de cada variable versus el resto de variables independientes.
2
2
0 :
= 0 1 :
0

1, =

2
( 1)

2
(1 )( )

Conociendo el F ms alto y contrastndolo contra el valor en tablas, se sabr cul es la relacin


dominante entre las variables explicativas. Si la probabilidad resultante del test es menor que 0.05,
entonces se sospecha la presencia de multicolonealidad en alto grado.

Econ. Paulo Roberto Chahuara Vargas

LAMBDA

- Tercero: El objetivo de esta etapa es determinar qu variables son responsables que aparezca la
multicolonealidad. As, de la regresin escogida en la etapa anterior, se calcula la matriz de coeficientes
de correlacin parcial entre las variables explicativas y se escoger el ms alto de ellos. Luego se hace
un test t.
0 : = 0 1 : 0 . EL estadstico:
=


2
1

~()

Si se rechaza H0 a favor de H1 entonces existe un problema de multicolonealidad.


6. SOLUCIONES

Aumentar n (incorporar ms datos).


Formalizar la relacin entre las variables explicativas (ecuaciones simultaneas).
Omitir la variable colineal. Cuando la multicolinealidad es exacta, esta solucin es perfecta. Cuando
la multicolinealidad es de grado, se incurre en un riesgo al usar esta solucin.
Transformar las variables. Si las variables explicativas tienen una tendencia comn en el tiempo y
por ello estn altamente correlacionadas, existen transformaciones en los datos que eliminan esta
tendencia comn. Una transformacin habitual es trabajar con tasas de variacin en lugar de con
datos en nivel.
Regresin por crestas o uso de componentes principales.
Dejar las cosas como estn (recomendacin de Klein)

Nota:
= 0 + 1 1 + 2 2 + + + con = 1, ,

( 0 1 1 )2
=1

=0

( 0 1 1 ) = 0
=1

1 ( 0 1 1 ) = 0
=1

2 ( 0 1 1 ) = 0
=1

( 0 1 1 ) = 0
=1

Econ. Paulo Roberto Chahuara Vargas

LAMBDA

Regresin Parcializada
1 = 0 + 1 2 + + + 1 = 1 + 1 con = 1, ,

(1 0 1 2 )2
=1

1
=0

(1 0 1 2 ) = 0
=1

2 (1 0 1 2 ) = 0
=1

( 0 1 2 ) = 0
=1

Ahora;

1 ( 0 1 1 ) = 0

=1

(1 + 1 )( 0 1 1 ) = 0
=1

Pero =1 1 = =1(0 + 1 2 ) = 0 =1 + 1 =1 2 = 0

1 ( 0 1 1 ) = 0
=1

Pero

0 1 = 0
=1

2 =1 1 2 =0

=1 1 =0

1 ( 1 1 ) = 0
=1

Pero 1 = 1 + 1 =1 1 1 =1(0 + 1 2 )1 = 0 =1 1 + 1 =1 2 1 = 0

Econ. Paulo Roberto Chahuara Vargas

LAMBDA

1 ( 1 1 ) = 0
=1

1 =

=1 1
=1 1 2

Los residuos 1 son la parte de 1 que no se correlaciona con 2 . Otra forma de decirlo es que 1 es
1 cuando se ha parcializado o extrado el efecto de 2 . As, 1 mide la relacin muestral entre y 1
despus de parcializar 2 .
Pero
= 0 + 1 1 + 2 2 + + +
Con lo que
1 = 1 +
(1 ) =

=1 1

=1 1

=1 1 2
( )
2
2
=
=
2
=1 1 2 1 (1 12 )
1 2 ]

[=1

( ) =

2
[(1 2 ) ]

En donde 12 es el 2 de regresar 1 en todas las restantes variables explicativas, y 1 = =


2
=1( )

Das könnte Ihnen auch gefallen