Sie sind auf Seite 1von 7

Clase 10 de abril del 2017

Multicolinealidad
Tipos:
Perfecta Cuando las variables tienen un coeficiente de correlacin
igual a 1, entonces no sirven porque es como trabajar con la misma
variable.
Casi perfecta:
Preguntas importantes:
Cul es la naturaleza de la multicolinealidad
Cul es el problema que genera
Qu consecuencias tiene
Como detectar que existe
Debera eliminarse?
Cuando hay multicolinealidad perfecta no podemos separar el efecto de las
variables.

Que ocurre cuando existe multicolinealidad (Teora)


o La media delas medias sigue existiendo, pero ya no tienen una
varianza mnima.
o Cuando existen errores estndares altos, los intervalos de confianza
se vuelven amplios y pierde confiabilidad. (porque ya no tienen
varianza mnima)
o Puede generar signos equivocados.
o No podemos valorar los efectos individuales de las variables que
construyen el modelo.

Como detectar la multicolinealidad


o Anlisis de regresin:
R cuadrado
Si tengo un F alto pero tengo variables no significativas.
Tambin analizar los signos, si tienen cambiados con respecto
a la teora.
o Obteniendo los coeficientes de correlacin
Obtengo la matriz.
o Anlisis de regresiones parciales y subsidiarias(auxiliar).
Regresiones subsidiarias: Hacer una regresin de cada variable
independiente contra cada el resto de variables
independientes.
Y fijarnos en cada uno de los R2 y F.
Adems se debe chequear si los valores de F son
significativos. Nos conviene si F es menor que 2,
para decir no existe relacin entre las variables.
(Queremos aceptar la H0). Para probar que no estn
correlacionadas.
Nos interesa el valor de R2 de cada una de estas
regresiones. Si R2 fuera 0, significara que tales
variables independientes no explican a la otra,
entonces no existe multicolinealidad.

o VIF Factor de inflacin de la Varianza


El error estndar de cada variable y el efecto del R2 en
este.
(Se ve dentro de cada una de las variables)
1
VIF= 2
1R

Mientras ms pequeo es el R2 nos convendra para el


factor de inflacin de la varianza (VIF) (No en el modelo)
Cunto va a crecer la varianza.
Regla emprica:
Cuando Vif >10 Hay multicolinealidad
Cuando Vif <10 No hay multicolinealidad
Si es cercano a 1 estamos ms seguros con las variables
que estamos ingresando al modelo.
Como corregir la multicolinealidad.
o Eliminar la Variable: NO nos conviene! Solo si la teora lo
permite.
o Aumentando el tamao de la muestra. (En la vida real no es
muy aplicable)
o Cambiar el modelo. (A uno logartmico)
Errores que pueden ocurrir al eliminar las variables
Error especificacin del modelo
Estimaciones con sesgo
Si es un modelo viable econmicamente no tiene sentido eliminar una
variable significativa.
Clase 25 de abril
Heterocedasticidad
Qu es la heteroscedasticidad?
La heteroscedasticidad es la violacin del supuesto de homoscedasticidad
de los estimadores de los MCO. Es un problema que provoca que la varianza
no sea mnima y se vuelva sesgada, a pesar de que los estimadores MCO
sean insesgados. Debido a las dificultades que provoca, no permite
contrastar hiptesis.

En qu tipos de datos normalmente surge el problema de


heteroscedasticidad?
Existen dos tipos de datos:
Longitudinales: Hace referencia a datos que han sido obtenidos a
travs del tiempo, por ejemplo el PIB.
Transversales: Hace referencia a los datos que han sido obtenidos en
un momento determinado del tiempo, como por ejemplo un censo.
Normalmente aqu se dan problemas de heteroscedasticidad.
Causas de la heteroscedasticidad
Por la naturaleza de los datos.
Por errores tcnicos, como por ejemplo: usar trminos nominales y no
reales.
Qu factor es el que provoca la heteroscedasticidad?
Bsicamente, la heteroscedasticidad ocurre por 3 razones:
2 2
1. i= x i
2 2 2
2. i= x i

2 2
3. =x i

A partir de ello, podemos identificar que el factor que provoca la


heteroscedasticidad es x i . Por tanto, al eliminarla, solucionaramos el
problema de heteroscedasticidad.

Como interpretar los grficos:


Se ve que tiene heterocedasticidad porque es creciente y dispersa.
Como se ve entre las lneas negras de la siguiente grafica.
Si fuera homocedstica, la dispersin variara de forma horizontal.

Clase 27 de abril
Heterocedasticidad
Mtodos matemticos para determinar la heterocedasticidad.
Mtodo de Goldfeld y Quandt
Se divide en 3 partes
2 2
Ho: La varianza es homocedstica (constante) i =

Hi: No hay homocedasticidad. 2i =h( x i)


La variable que sospechamos que tiene heterocedasticidad, ordeno en
forma ascendente.
Dividimos en 3 partes y dejamos un igual numero de datos en la parte 1 y 3.
Enla mitad se puede dejar o 1/5 de los datos.
Ejemplo en este ejercicio: Ponemos en 1= 19 datos en 2=12 datos, y en
3=19 datos.

Prueba F:
2
Se 1
F =
[( )NP
2 ]
K 1 gl
2
Se 2

La varianza ms grande para la ms pequea. La funcin F no puede


ser menor que 1.

grados de libertad= ([ N P
2 ) ] 2 11)=17
K1 =(
5012
Me debera dar 1 cuando es homocedstica. Aqu la varianza 1 sera
igual a la 2.

Dividimos el SE ms grande para el ms chico para obtener el F.


Comparamos con el valor crtico que se ve en la tabla F. Si es mayor al
valor crtico se rechaza la Ho, entonces no hay homocedasticidad.

Interpretacin: Las evidencias utilizadas sugieren que la distribucin de


los errores no es homocedstica.
No se puede decir que hay heterocedasticidad, porque estamos probando
que no hay homocedasticidad.
Mtodo de WHITE
Ho: Hay homocedasticidad
Hi: No se verifica homocedasticidad.
Vemos que el valor del Chi cuadrado

Mtodo del Glejser


Se ve el valor chi cuadrado del R cuadrado.
Mantiene las hiptesis de White.
Clase 2 de mayo
Como resolver heterocedasticidad.
Cuando divido para X puedo eliminar la heterocedasticidad. Se divide
la regresin que incluye el error, para la variable que me da
heterocedasticidad. Cuando hago esto la varianza del error se vuelve
constante.
y=bo +bi+ ui var ui=C xi2
y bo bix ui
= + +
x x x x

La varianza es un peso de cada Xi


Ejemplo grafico de residuos con heterocedasticidad y corregidos.
Otra forma de corregir
Es cambiar la forma del modelo a logaritmos
Clase 4 de Mayo
Autocorrelacin
Los ui estn correlacionados y eso afecta a la regresin.
Entonces no solo las X afectan en el modelo, sino los errores con una
ponderacin y eso afecta al modelo.
Si los ui siguen alguna tendencia significa que estn correlacionados, como
en el grfico a continuacin:

Esto ocurre por:


Inercia: Por el ambiente macroeconmico, pues en las regresiones
que incluyen series temporales es probable que existe
autocorrelacin
Error de especificacin del modelo:
Fenmeno de la telaraa: La produccin se basa en el precio
inmediato anterior
Manipulacin de los datos:
Tipos de correlacin:
Correlacin positiva: Cuando los datos van siguiendo los valores anteriores.
(Rachas)

Correlacin negativa: +++--+-+---

Consecuencias de la autocorrelacin:
Estimadores siguen siendo lineales e insesgados
No son eficientes, no tienen varianza mnima, ya no son meli.
Varianzas de los estimadores sesgadas.
F y t no son confiables
La frmula habitual de calcular la varianza del error es sesgada.
R2 poco confiable
Varianzas calculadas
Durbin-Watson:

d=
(et e t 1 )2
e 2t

El durbin se mueve entre o y 4


Mientras mas nos acercamos al valor 2, decimos que no hay
autocorrelacin.
Si tengo valores lejanos debo ver los valores crticos en la tabla para
ver en que rea me encuentro.

Como corregir la autocorrelacin:


Existe una relacin entre el ut y el ut-1. Hay un factor que pondera el
movimiento de los ut (rho).
Debo descubrir cunto vale el rho, y luego quitar, entones ya no hay
autocorrelacin.
rho=
ut =f ut 1
ut = ut1 +ut aleatorio
Ecuaciones en Excel:

Y =bo ( 1 ) + Y t1 +b 1 xt + b 1 X t 1+V t
Yt ^ Y t1=bo ( 1 ^ )+ b 1 ( Xt ^ x t 1 ) + Et

Y bo ( 1^ ) +b x+ Et
Test de Breucsch y Godfrey
Ho: No hay autocorrelacin
Hi: Si hay autocorrelacin

Das könnte Ihnen auch gefallen