Beruflich Dokumente
Kultur Dokumente
1. Introduccin.
La heterocedasticidad es solo una de las formas en que se puede levantar el supuesto de
E(uu) = 2I. La segunda manera es suponer que los errores presentes estn correlacionados
entre s. Es decir, E(uiuj) 0 para i j.
Esto procvocar que la matriz de varianzas y covarianzas de los errores presentar
trminos distintos de 0 fuera de la diagonal principal.
0 1 2 n 1
1 0
En donde s = E(uiui-s)
E (uu ' ) 2
0
n 1
0
A este fenmeno se le denomina autocorrelacin y est presente fundamentalmente en los
estudios de serie de tiempo, donde un shock en el perodo i genera errores en los prximos
perodos.
En la matriz anterior, se est suponiendo que la covarianza entre dos errores
depende slo de la distancia temporal entre las observaciones. Es decir, que un error de
hace un perodo afecta el error actual, o que el error actual afectar al error futuro, pero no
que un error de hace dos perodos afecta el error actual. Se trata de una autocorrelacin de
primer orden.
A su vez, como podemos apreciar, todos los trminos de la diagonal principal tienen
el mismo valor, por lo que se est suponiendo homocedasticidad. Es decir, 0 = E(uiui-0) =
E(ui2) = 2. En trminos grficos:
Pgina 1
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Pgina 2
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Mala especificacin 3.
iii) Quiebre o cambio estructural. Si se produjo un cambio estructural en la muestra, los
residuos pueden presentar patrones sistemticos antes y despus del cambio estructural.
Forma Verdadera
Forma Estimada
3. Algunas definiciones.
Autocovarianza. Definimos autocovarianza entre ui y ui-s como E(ui,ui-s) = s para s=0, 1,
2...
Si s=0, E(ui,ui-s) = E(ui2) = o = 2
Entonces, E(uu) se puede expresar como:
0
1
E (uu ' ) 2
n 1
1
0
n 1
Cov( i , i s )
E ( i ) 2 E ( is ) 2
E ( i is )
o o
E ( i i s ) s
o
o
s
s o rs s u2 rs
o
Si s 0, 0 u2
Pgina 3
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
0
1
E (uu ' ) 2
n 1
1
r
1
E (uu ' ) u2 r2
rn
1 2 n1 u2
u2 r1 u2 r2 u2 rn
2
0
u2
u r1
u2 r2
0
u2
2
2
0 u rn
u
r1 r2 rn
E (uu ' ) u2
1
i i i 1 2 i 2 3 i 3
Pgina 4
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
E ( i ) E ( i i1 2 i2 3 i3 ) 0
E ( i2 ) E ( i i1 2 i2 3 i3 )( i i1 2 i2 3 i3 )
i2 i i1 i 2 i2
E ( ) E i1 i i1 i1 i1 i2
2 2 2 2
i2 i i2 i1 i2 i2
2
i
Recordando adems que la Cov (i, i-1) = 0 pues ste error s es bien comportado tenemos
que:
E ( i2 ) 2 2 2 4 2 6 2 2 (1 2 4 6 )
El segundo trmino es la suma de una progresin geomtrica e igual a (1/1- 2)1, por lo que
entonces:
2
E ( i2 )
1 2
Clculo de 1 (s=1)
1 = E(ui,ui-1)
Pero como:
Y
Como observamos, el proceso es largo, pero por induccin podemos deducir de la serie:
Esto desde luego si <1. Las propiedades de convergencia de las ecuaciones diferenciales sern discutidas
posteriormente.
Pgina 5
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
2
2
1 2
2
2
1 2
s 2
s 2
2
1
Pgina 6
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Entonces,
1 2 1
0
0
1
2
1
E (uu ' ) 2
1 0
1 2
0
2
2
E (uu ' )
1 2
Recordar que: rs
2
1 2
2
1 2
2
2
1 2
2
1
1 2
1 2
2
1 2
2
2
1
2
1
2
2
1
1
2
1 2
2
1
2
2
1
2
1
2
s
s
s
2
2
ut = 1ut-1 + 2ut-2 + t
ut = t + t-1
B ( X ' X ) 1 X 'Y
Pgina 7
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
^
e' e
subestima a la verdadera varianza 2 y esto hace que la varianza
nk
estimada para una muestra, sea menor que la verdadera varianza. Por lo
tanto, los test t no son adecuados.
El R2 est sobreestimado.
B B (X ' X )1 X '
^
V (B) E[(B B)(B B)'] E[(X ' X )1 X ' ' X (X ' X )1] 2 (X ' X )1 X 'X (X ' X )1
Si utilizamos sta varianza el estimador obtenido tampoco ser un estimador eficiente.
3. Mtodo de Mnimos Cuadrados Generalizados:
Como vimos antes (cuando revisamos heterocedasticidad), cuando no se cumple el
supuesto clsico de E(uu) = 2I, el estimador eficiente es MCG.
ste mtodo consiste en transformar los datos de manera tal que consigamos un error
bien comportado.
^
MCG
( X ' 1 X ) 1 X ' 1Y
V (B
MCG
) 2 ( X ' 1 X ) 1
En donde : 1 T ' T
Para el caso de AR(1), donde ut = 1ut-1 + t
2
1 2
0
0
(1 )
(1 )
0
1
E (uu ' )
2
2
1 2
Para AR(1)
Pgina 8
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
(e
i 1
ei 1 ) 2
e
i 1
2
i
Este estadstico es calculado con los residuos de la regresin MICO y es usado para
detectar autocorrelacin de primer orden.
El test es vlido bajo las siguientes condiciones:
1. En la regresin hay constante
2. La matriz X es no estocstica
3. Solo sirve para testear procesos AR(l)
4. No es vlido cuando la variable dependiente est rezagada
Derivacin.
n
(ei ei1 ) 2
i 1
e
i 1
Cmo:
i 1
i 1
ei2 ei21 ei ei 1
i 1
2
i
i 1
i 1
i 1
2
i
2 e 2 ei ei 1
i 1
2
i
i 1
ei2
i 1
e
i 1
n
2
i
ei2
i 1
e
i 1
ei 1
ei2
i 1
ei ei 1
i 1
2 1 n
2
e
i
i 1
Pgina 9
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
n
El trmino:
e
i 1
ei 1
e
i 1
2
i
(X
X )(Yi Y )
1
0
^
(ei e)(ei1 e)
( ei e) 2
e e
e
i
i 1
2
i
ei ei 1
^
2(1 )
d 2 1 i1 n
i1 ei
Entonces,
ei ei 1
^
2(1 )
d 2 1 i 1 n
2
ei
i 1
dl
Autocorrelacin
du
El criterio no decide
No hay Autocorrelacin
4-du
4-dl
Autocorrelacin
Pgina 10
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Positiva
Negativa
Pgina 11
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
AR(1)
H0: = 0
H1: 0
Slo es vlido para muestras grandes.
n
^
(1 n)(Var [2 )
Por lo que si h calculado (utilizando algn estimador de , algn gorro) es mayor en valor
absoluto que 1.96, rechazo H0 al 5% de significancia.
Caractersticas de la prueba:
1. No importa cuantas veces est rezagada Yt, slo necesito la varianza del coeficiente
asociado a Yt-1.
2. La prueba no es vlida si (n Var(B2 gorro)) > 1
3. La prueba slo es vlida si la muestra es grande.
(# 4) Prueba de Breusch-Godfrey (1978)
Esta prueba permite verificar por autocorrelacin de orden mayor a uno.
El modelo general al que se aplica el test es:
(*)
Pgina 12
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
En E-views podemos realizar fcilmente alguna de las pruebas anteriores. Con la siguiente
informacin:
Observacin
1
2
3
4
5
6
7
8
9
10
Producto Horas de
Y
Trabajo
X
11
10
10
7
12
10
6
5
10
8
7
8
9
6
10
7
11
9
10
10
Pgina 13
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Std. Error
t-Statistic
2.090177
1.722342
0.255738
2.932692
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Prob.
0.1233
0.0189
9.600000
1.837873
3.619732
3.680249
8.600683
0.018920
Corresponde al valor calculado del estadstico DW. ste valor hay que contrastarlo con los
valores du y dl de la tabla.
En este caso: k=2, (k'=1), n=10 du=1.32, dl=0.879
El criterio no decide
0.879
Autocorrelacin
Positiva
1.32
El criterio no decide
No hay Autocorrelacin
2.68
3.121
Autocorrelacin
Negativa
2.34
Por lo tanto, por DW no rechazo H0 (no rechazamos que sea cero) No hay
Autocorrelacin.
Por otra parte, en lo que se refiere a la Prueba de Breusch-Godfrey, E-Views nos arroja la
siguiente salida:
Pgina 14
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
0.789711
0.684959
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 10/21/02 Time: 23:42
Variable
Coefficient
C
-0.572430
TRABAJO
0.076530
RESID(-1)
-0.301095
RESID(-2)
-0.148734
R-squared
0.075679
Adjusted R-squared
-0.386481
S.E. of regression
1.502293
Sum squared resid
13.54130
Log likelihood
-15.70518
Durbin-Watson stat
2.006501
Prob.
0.8239
0.8099
0.5268
0.7406
-4.22E-16
1.275844
3.941036
4.062070
0.163751
0.916964
Std. Error
t-Statistic
2.461777 -0.232527
0.304399
0.251415
0.448296 -0.671642
0.428825 -0.346841
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Pgina 15
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
2
2
E (uu ' )
1 2
0
0
1
(1 )
1 0
(1 )
0
1
2
2
1 2
Sabemos que la regresin debe ser con los datos transformados, de forma que el residuo sea
bien comportado.
Y = XB +
t = t-1 + t
TY = TXB + T
TY = TXB + v
Para que v sea bien comportado, se debe cumplir que T'T=-1
Entonces, T debe de ser igual a:
0
1
0
1
Pgina 16
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Por tanto...
1 2 Y1
Y2 Y1
T Y Y3 Y2
Y Y
n 1
n
TX
1 2 1
Y2 1
T Y3 2
Y
n 1
n
1 2
2
3
1 2 X 12
1 2 X 1k
X 22 X 12
X 2 k X 1k
X nk X n 1,k
1 2
X n 2 X n 1, 2
Observacin:
Si partimos de:
(1)
Donde:
i = i-1 + i AR(1)
Entonces, el rezago de (1) es:
(2) Yi-1 = B1 + B2Xi-1,2 + ... + BkXi-1,k + ui-1
Y multiplicando (2) por :
(3) Yi-1 = B1 + B2Xi-1,2 + ... + BkXi-1,k + ui-1
Y restando (1) (3) tenemos que:
(4) Yi - Yi-1 = B1(1 - ) + B2(Xi2 - Xi-1,2) + ... + Bk(Xik - Xi-1,k) + ui - ui-1
Correr la regresin (4) es muy parecido a aplicar el procedimiento anterior, con la
diferencia de la primera observacin.
ste ltimo mtodo es ms utilizado, pero menos eficiente para corregir autocorrelacin.
Pgina 17
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
ut = 1ut-1 + 2ut-2 + t
Pgina 18
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
(4) Yi - Yi-1 = B1(1 - ) + B2(Xi2 - Xi-1,2) + ... + Bk(Xik - Xi-1,k) + ui - ui-1 =-1
X i 2 X i 1, 2
2
(4`) Yi Yi 1 B1 B2
X i 3 X i 1, 3
2
B3
Es decir, tenemos que calcular el modelo original en con los datos expresados en
promedios.
El problema de este mtodo es que si 1 -1, la transformacin de los datos puede
ocasionar un sesgo tan grande que sea peor que la propia autocorrelacin inicial.
b) Mtodo basado en el estadstico d de Durbin y Watson.
^ ^
d 2(1 ) 1 d
ii.
iii.
iv.
ei ei1 vi
Pgina 19
Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
v.
Estimamos: *
^
^
ei ei*1 wi
A partir de esta ecuacin y regresando Yt en Xt, Xt-1, Xt-2, ... , Yt, y utilizar el
valor estimado del coeficiente Yt-1 como estimacin del 2
Luego de tener el estimado, transformar los datos y correr de nuevo la
regresin (4).