Sie sind auf Seite 1von 20

Apuntes de autocorrelacin

Prof. Carlos Ral Pitta Arcos

1. Introduccin.
La heterocedasticidad es solo una de las formas en que se puede levantar el supuesto de
E(uu) = 2I. La segunda manera es suponer que los errores presentes estn correlacionados
entre s. Es decir, E(uiuj) 0 para i j.
Esto procvocar que la matriz de varianzas y covarianzas de los errores presentar
trminos distintos de 0 fuera de la diagonal principal.
0 1 2 n 1

1 0

En donde s = E(uiui-s)
E (uu ' ) 2
0

n 1
0
A este fenmeno se le denomina autocorrelacin y est presente fundamentalmente en los
estudios de serie de tiempo, donde un shock en el perodo i genera errores en los prximos
perodos.
En la matriz anterior, se est suponiendo que la covarianza entre dos errores
depende slo de la distancia temporal entre las observaciones. Es decir, que un error de
hace un perodo afecta el error actual, o que el error actual afectar al error futuro, pero no
que un error de hace dos perodos afecta el error actual. Se trata de una autocorrelacin de
primer orden.
A su vez, como podemos apreciar, todos los trminos de la diagonal principal tienen
el mismo valor, por lo que se est suponiendo homocedasticidad. Es decir, 0 = E(uiui-0) =
E(ui2) = 2. En trminos grficos:

Pgina 1

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

2. Causas ms frecuentes de Autocorrelacin.


Ciclos o tendencia en las variables. Es decir, rachas de valores altos o bajos por shocks o
innovaciones no esperados que son difcilmente captados por las variables explicativa.
Tambin puede deberse a la falta de una variable explicativa.
Autocorrelacin espacial. En datos de Cross-Section (Seccin cruzada, cuando se toma,
por ejemplo, una muestra en un solo ao pero en diferentes pases) un shock aleatorio que
afecta la actividad de una regin puede causar actividad econmica en regiones
subyacentes. Por ejemplo, el mal tiempo en Brasil puede ocasionar la prdida de cultivos de
caf en Brasil, pero tambin en Colombia y en el Ecuador.
Influencia prolongada de shocks. En las series de tiempo, los shocks en general persisten
por ms de un perodo.
Inercia. Debido a la inercia o a fenmenos psicolgicos,las acciones pasadas muchas veces
tienen efectos en el presente. Si al modelo le falta incorporar dinmica presente en la
realidad, a travpes de rezagos, los residuos tendrn patrones autocorrelacionados.
Mala especificacin 1.
i) Omisin de una variable relevante. La omisin de una variable relevante que es
autocorrelacionada provocar un residuo autocorrelacionado.
Por ejemplo, si:
El modelo es:
Yi = B1 + B2X2 + B3X3 + ui
Pero estimamos:
Yi = B1 + B2X2 + vi
Entonces:
vi = ui + B3X3
Si X3 presenta autocorrelacin, entonces vi la presentar aunque ui no est
autocorrelacionado en principio.
Si esta fuera la causa de que exista autocorrelacin, lo correcto sera entonces corregir la
mala especificacin, incorporando X3 al modelo. Recordar que uno de los 10 supuestos de
Gauss Markov es que el modelo est correctamente especificado.
Mala especificacin 2.
ii) Forma funcional inadecuada.

Pgina 2

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Mala especificacin 3.
iii) Quiebre o cambio estructural. Si se produjo un cambio estructural en la muestra, los
residuos pueden presentar patrones sistemticos antes y despus del cambio estructural.
Forma Verdadera

Entonces, es muy importante detectar la razn


de patrones de comportamiento
autocorrelacionados en los residuos, porque ello
determinar la mejor forma de corregir este
problema.
En adelante, supondremos que la
autocorrelacin no est ocasionada por errores
de especificacin, ni de quiebre estructural, sino
por alguna razn distinta.

Forma Estimada

3. Algunas definiciones.
Autocovarianza. Definimos autocovarianza entre ui y ui-s como E(ui,ui-s) = s para s=0, 1,
2...
Si s=0, E(ui,ui-s) = E(ui2) = o = 2
Entonces, E(uu) se puede expresar como:
0

1
E (uu ' ) 2


n 1

1
0

n 1

Coeficiente de Autocorrelacin. Lo definimos como:


rs
rs

Cov( i , i s )
E ( i ) 2 E ( is ) 2

E ( i is )

o o

E ( i i s ) s

o
o

s
s o rs s u2 rs
o

Si s 0, 0 u2

Pgina 3

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Luego, tambin podemos expresar E(uu) como:

0

1
E (uu ' ) 2


n 1
1
r
1
E (uu ' ) u2 r2


rn

1 2 n1 u2
u2 r1 u2 r2 u2 rn

2
0
u2

u r1

u2 r2
0
u2

2
2

0 u rn

u
r1 r2 rn

E (uu ' ) u2
1

sta es la forma genrica de la matriz. Para distintos casos de autocorrelacin tendremos


distintas matrices de E(uu). Para calcular cada forma particular, debemos calcular los i
APLICACIN PARA UN PROCESO AUTORREGRESIVO DE ORDEN 1 [AR(1)]
Encontremos E(uu) para el caso ms comn de autocorrelacin, que es autocorrelacin de
primer orden [AR(1)]. sta ocurre cuando el residuo de un perodo es proporcional al
residuo en el perodo anterior ms un residuo bien comportado:
i = i-1 + i donde i ~ N(0, 2I)
Clculo de 0 (s=0)
0 = E(ui2) = 2
i i 1 i
i ( i 2 i 1 ) i 2 i 2 i 1 i
i 2 ( i 3 i 2 ) i 1 i 3 i 3 2 i 2 i 1 i

i i i 1 2 i 2 3 i 3

Adems, sabemos que:

Pgina 4

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

E ( i ) E ( i i1 2 i2 3 i3 ) 0

E ( i2 ) E ( i i1 2 i2 3 i3 )( i i1 2 i2 3 i3 )
i2 i i1 i 2 i2

E ( ) E i1 i i1 i1 i1 i2

2 2 2 2
i2 i i2 i1 i2 i2

2
i

Recordando adems que la Cov (i, i-1) = 0 pues ste error s es bien comportado tenemos
que:
E ( i2 ) 2 2 2 4 2 6 2 2 (1 2 4 6 )
El segundo trmino es la suma de una progresin geomtrica e igual a (1/1- 2)1, por lo que
entonces:
2
E ( i2 )
1 2
Clculo de 1 (s=1)
1 = E(ui,ui-1)
Pero como:
Y

ui = i + i-1 + 2i-2 + 3i-3 ...


ui-1 = i-1 + i-2 + 2i-3 + 3i-4 ...
1 = E(ui,ui-1) = E[(i + i-1 + 2i-2 + 3i-3 ...)( i-1 + i-2 + 2i-3 + 3i-4 ...)]
1 = E(ii-1 + ii-2 + 2ii-3 + ... + 2i-2 + 2i-1i-2 + + 2i-1i-2 + 32i-2 + )
1 = E(ii-1) + E(ii-2) + ... + E(2i-1) + 3E(2i-2) + 5E(2i-3) + +
1 = 0 + 0 + ... + 2 + 32 + 52 + 72 +...
1 = 2 (1 + 2 + 4 + 6 + ... )
2
1
1 2

Como observamos, el proceso es largo, pero por induccin podemos deducir de la serie:

Esto desde luego si <1. Las propiedades de convergencia de las ecuaciones diferenciales sern discutidas
posteriormente.
Pgina 5

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

2
2
1 2

2
2
1 2

s 2
s 2
2
1

Pgina 6

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Entonces,

1 2 1
0

0
1
2
1

E (uu ' ) 2
1 0

1 2
0

2
2

E (uu ' )
1 2

Recordar que: rs

2
1 2
2

1 2
2
2
1 2

2
1

1 2

1 2
2
1 2
2
2
1

2
1


2
2
1
1
2

1 2
2

1
2

2
1

2
1

2
s
s

s
2
2

Con autocorrelacin, el supuesto de E(uu) = 2I se cambia por E(uu) = 2. En el caso de


AR(1), toma la forma que acabamos de derivar.
En otros casos particulares de autocorrelacin, se debe investigar que forma toma .
Otros casos usuales de autocorrelacin son:
AR(2)
MA(1)

ut = 1ut-1 + 2ut-2 + t
ut = t + t-1

4. Propiedades de la estimacin MICO bajo autocorrelacin.


1. Estimando por MICO una regresin que presente autocorrelacin en el residuo,
obtendremos un estimador cercano a la verdadera lnea poblacional. Estimando en
repetidas muestras, el promedio del valor esperado estar sobre el verdadero valor,
pero la alta varianza de las distintas estimaciones llevar a que la varianza del
estimador sea mayor que la que obtendramos con errores no correlacionados.

B ( X ' X ) 1 X 'Y

seguir siendo insesgado, pero la varianza estimada ser mayor

que la que podramos obtener si ponderamos las observaciones, es decir,


mayor que si aplicamos MCG.

Pgina 7

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
^

e' e
subestima a la verdadera varianza 2 y esto hace que la varianza
nk

estimada para una muestra, sea menor que la verdadera varianza. Por lo
tanto, los test t no son adecuados.
El R2 est sobreestimado.

2. Si se estima por MICO, pero se corrige la varianza asumiendo autocorrelacin:

B B (X ' X )1 X '
^

V (B) E[(B B)(B B)'] E[(X ' X )1 X ' ' X (X ' X )1] 2 (X ' X )1 X 'X (X ' X )1
Si utilizamos sta varianza el estimador obtenido tampoco ser un estimador eficiente.
3. Mtodo de Mnimos Cuadrados Generalizados:
Como vimos antes (cuando revisamos heterocedasticidad), cuando no se cumple el
supuesto clsico de E(uu) = 2I, el estimador eficiente es MCG.
ste mtodo consiste en transformar los datos de manera tal que consigamos un error
bien comportado.
^

MCG

( X ' 1 X ) 1 X ' 1Y

V (B

MCG

) 2 ( X ' 1 X ) 1

En donde : 1 T ' T
Para el caso de AR(1), donde ut = 1ut-1 + t

2
1 2

0
0
(1 )

(1 )

0
1

E (uu ' )

2
2
1 2

Para AR(1)

Pgina 8

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

5. Cmo detectar Autocorrelacin?


(# 1) Mtodo grfico:
El simple anlisis de los residuos obtenidos puede confirmar la presencia de errores mal
comportados.
(# 2) Estadstico de Durbin-Watson (1951)
n

(e

Consiste en el clculo del coeficiente: d

i 1

ei 1 ) 2

e
i 1

2
i

Este estadstico es calculado con los residuos de la regresin MICO y es usado para
detectar autocorrelacin de primer orden.
El test es vlido bajo las siguientes condiciones:
1. En la regresin hay constante
2. La matriz X es no estocstica
3. Solo sirve para testear procesos AR(l)
4. No es vlido cuando la variable dependiente est rezagada
Derivacin.
n

(ei ei1 ) 2
i 1

e
i 1

Cmo:

i 1

i 1

ei2 ei21 ei ei 1
i 1

2
i

i 1

i 1

i 1

2
i

ei2 ei21 Supuesto Requerido.


n

2 e 2 ei ei 1
i 1

2
i

i 1

ei2
i 1

e
i 1
n

2
i

ei2
i 1

e
i 1

ei 1

ei2
i 1

ei ei 1

i 1

2 1 n

2
e

i
i 1

Pgina 9

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
n

El trmino:

e
i 1

ei 1

e
i 1

es algo que se parece a una covarianza

2
i

(X

X )(Yi Y )

y corresponde a la estimacin de en un proceso AR(1).


Esto porque en AR(1)
rs = s r =

1
0
^

(ei e)(ei1 e)

( ei e) 2

e e

e
i

i 1

2
i

ei ei 1
^
2(1 )
d 2 1 i1 n

i1 ei

Entonces,

ei ei 1

^
2(1 )
d 2 1 i 1 n

2
ei

i 1

La hiptesis nula de la prueba es que no existe autocorrelacin.


H0: No Autocorrelacin = 0 d 2
H1: Hay Autocorrelacin.
El estadstico d no tiene una distribucin conocida. Por eso Durbin y Watson tabularon la
distribucin para sta prueba. Para cada valor de k (parmetros) y n, al 5% y al 1%. Se
obtienen dos valores crticos: du y dl que permiten establecer zonas en que se rechaza la
hiptesis nula, zonas en que se acepta, y zonas de indecisin.
El criterio no decide

dl

Autocorrelacin

du

El criterio no decide

No hay Autocorrelacin

4-du

4-dl

Autocorrelacin

Pgina 10

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos
Positiva

Negativa

Pgina 11

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Supongamos que DW indica errores de autocorrelacin. Qu debemos hacer? Estimar por


MCG? Depende. La autocorrelacin puede deberse a una variable omitida, a una forma
funcional incorrecta o a falta de dinmica en la especificacin. Slo si se ha determinado
que el error no corresponde a ninguna de estas causas es necesario aplicar MCG.
(# 3) Prueba H de Durbin.
Sirve para probar autocorrelacin cuando la variable dependiente rezagada se incluye
dentro de las variables explicativas:
Yi = B1 + B2Yi-1 + B3Yi-2 + ... + Br Yi-r + Br+1X1 + Br+2X2 + + ui
En donde ui = u-1 + t

AR(1)

H0: = 0
H1: 0
Slo es vlido para muestras grandes.

En donde: n es el tamao de la muestra, gorro es la estimacin del


, Var(B2 gorro) es la varianza del coeficiente asociado a Yt-1

n
^

(1 n)(Var [2 )

Bajo la hiptesis nula, h N(0,1) por lo que:


P[-1.96 < h < 1.96] = 0.95

Por lo que si h calculado (utilizando algn estimador de , algn gorro) es mayor en valor
absoluto que 1.96, rechazo H0 al 5% de significancia.
Caractersticas de la prueba:
1. No importa cuantas veces est rezagada Yt, slo necesito la varianza del coeficiente
asociado a Yt-1.
2. La prueba no es vlida si (n Var(B2 gorro)) > 1
3. La prueba slo es vlida si la muestra es grande.
(# 4) Prueba de Breusch-Godfrey (1978)
Esta prueba permite verificar por autocorrelacin de orden mayor a uno.
El modelo general al que se aplica el test es:
(*)

Yi = B1 + B2Yi-1 + B3Yi-2 + ... + Br Yi-r + Br+1X1 + Br+2X2 + + ui

Pgina 12

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Donde r son los rezagos de la variable dependiente.


La hiptesis nula es que no hay autocorrelacin.
H0: ui N(0,2I)
H1: ui son errores mal comportados.
Pasos para efectuar la prueba:
i.
ii.
iii.

Se realiza la regresin (*) por MICO y se extraen los residuos.


Usando los residuos calculados en i), se realiza la siguiente regresin:
ei = f(ei-1, ei-2,..., ei-p; Yi-1, Yi-2, ..., Yi-r ; X1, X2, , Xk)
El estimador (n-p)R2 bajo la hiptesis nula se distribuye 2p, con lo que si:
(n-p)R2 > 2p se rechaza la hiptesis nula. Donde n es el tamao de la muestra en
la regresin original.
EJEMPLO DE UTILIZACIN DE LOS TEST EN EVIEWS.

En E-views podemos realizar fcilmente alguna de las pruebas anteriores. Con la siguiente
informacin:
Observacin

1
2
3
4
5
6
7
8
9
10

Producto Horas de
Y
Trabajo
X
11
10
10
7
12
10
6
5
10
8
7
8
9
6
10
7
11
9
10
10

Obtenemos la siguiente salida de Eviews:

Pgina 13

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Dependent Variable: PRODUCTO


Method: Least Squares
Date: 10/21/02 Time: 23:25
Sample: 1 10
Included observations: 10
Variable
Coefficient
C
3.600000
TRABAJO
0.750000
R-squared
0.518092
Adjusted R-squared
0.457854
S.E. of regression
1.353237
Sum squared resid
14.65000
Log likelihood
-16.09866
Durbin-Watson stat
2.346416

Std. Error
t-Statistic
2.090177
1.722342
0.255738
2.932692
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Prob.
0.1233
0.0189
9.600000
1.837873
3.619732
3.680249
8.600683
0.018920

Corresponde al valor calculado del estadstico DW. ste valor hay que contrastarlo con los
valores du y dl de la tabla.
En este caso: k=2, (k'=1), n=10 du=1.32, dl=0.879
El criterio no decide

0.879

Autocorrelacin
Positiva

1.32

El criterio no decide

No hay Autocorrelacin

2.68

3.121

Autocorrelacin
Negativa

2.34
Por lo tanto, por DW no rechazo H0 (no rechazamos que sea cero) No hay
Autocorrelacin.
Por otra parte, en lo que se refiere a la Prueba de Breusch-Godfrey, E-Views nos arroja la
siguiente salida:

Pgina 14

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Breusch-Godfrey Serial Correlation LM Test:


F-statistic
0.245626 Probability
Obs*R-squared
0.756792 Probability

0.789711
0.684959

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 10/21/02 Time: 23:42
Variable
Coefficient
C
-0.572430
TRABAJO
0.076530
RESID(-1)
-0.301095
RESID(-2)
-0.148734
R-squared
0.075679
Adjusted R-squared
-0.386481
S.E. of regression
1.502293
Sum squared resid
13.54130
Log likelihood
-15.70518
Durbin-Watson stat
2.006501

Prob.
0.8239
0.8099
0.5268
0.7406
-4.22E-16
1.275844
3.941036
4.062070
0.163751
0.916964

Std. Error
t-Statistic
2.461777 -0.232527
0.304399
0.251415
0.448296 -0.671642
0.428825 -0.346841
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

En este caso, p=2 (rezagos), n=10.


El estimador nR2 bajo la nula se distribuye 2p, con lo que si:
nR2 > 2p () se rechaza la H0
Aqu, 22 (0.05) = 5.9, nR2 = 0.75
nR2 < 2p () no se rechaza la H0
(Podamos intuir este resultado por la falta de significancia de los coeficientes asociados a
los residuos)

Pgina 15

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

FORMAS DE CORREGIR AUTOCORRELACIN


(#1) Conozco la forma de la autocorrelacin y conozco
La solucin depende de la forma del proceso autorregresivo.
Solucin para AR(1)
Sabemos que i = i-1 + i y supongamos que conocemos , entonces:

2
2
E (uu ' )
1 2

0
0
1
(1 )

1 0

(1 )

0
1

2
2
1 2

Sabemos que la regresin debe ser con los datos transformados, de forma que el residuo sea
bien comportado.
Y = XB +
t = t-1 + t
TY = TXB + T
TY = TXB + v
Para que v sea bien comportado, se debe cumplir que T'T=-1
Entonces, T debe de ser igual a:

0
1

0
1

Pgina 16

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Por tanto...

1 2 Y1

Y2 Y1
T Y Y3 Y2

Y Y
n 1
n

TX

1 2 1


Y2 1
T Y3 2


Y
n 1
n

1 2

2
3

1 2 X 12

1 2 X 1k

X 22 X 12

X 2 k X 1k

X nk X n 1,k

1 2

X n 2 X n 1, 2

Observacin:
Si partimos de:
(1)

Yi = B1 + B2Xi2 + ... + BkXik + ui

Donde:
i = i-1 + i AR(1)
Entonces, el rezago de (1) es:
(2) Yi-1 = B1 + B2Xi-1,2 + ... + BkXi-1,k + ui-1
Y multiplicando (2) por :
(3) Yi-1 = B1 + B2Xi-1,2 + ... + BkXi-1,k + ui-1
Y restando (1) (3) tenemos que:
(4) Yi - Yi-1 = B1(1 - ) + B2(Xi2 - Xi-1,2) + ... + Bk(Xik - Xi-1,k) + ui - ui-1
Correr la regresin (4) es muy parecido a aplicar el procedimiento anterior, con la
diferencia de la primera observacin.
ste ltimo mtodo es ms utilizado, pero menos eficiente para corregir autocorrelacin.

Pgina 17

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Solucin para AR(2)


AR(2)

ut = 1ut-1 + 2ut-2 + t

Una alternativa es definir , -1, T y multiplicar TY = TXB + T


Otra forma es proceder como sigue:
(5) Yi = B1 + B2Xi2 + ... + BkXik + ui
Entonces, el rezago de (5) es:
(6) Yi-1 = B1 + B2Xi-1,2 + ... + BkXi-1,k + ui-1
Rezago de (6)
(7) Yi-2 = B1 + B2Xi-2,2 + ... + BkXi-2,k + ui-2
Multiplica (6) por 1 y (7) por 2
(8) 1Yi-1 = 1B1 + B2 1Xi-1,2 + ... + Bk 1Xi-1,k + 1ui-1
(9) 2Yi-2 = 2B1 + B2 2Xi-2,2 + ... + Bk 2Xi-2,k + 2ui-2
Resto (5) (8) (9) y nos queda:
(10) Yi 1Yi-1 = B1(1 1 2) + B2(Xi2 1Xi-1,2 2Xi-2,2) + ... + Bk(Xik 1Xi-1,k 2Xi2,k) + ui 1ui-1 2 ui-2
En dnde el ltimo trmino es i.
Correr la regresin (10) nos dar un resultado aproximadamente igual.
Es decir que si conocemos la forma de la autocorrelacin y los , es fcil aplicar MCG y
obtener los parmetros, pero generalmente no conocemos , entonces primero hay que
estimarlo y luego aplicar los mtodos tradicionales para calcular MCG.

Pgina 18

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

Qu hacer si no conocemos ? Existen mtodos para calcularlo.


a) Mtodo de posiciones extremas.
Como no conocemos , podramos partir de alguno de estos casos extremos. Esto es
suponer que =1 que =-1

Si =1, la ecuacin (4) nos queda:

Yi - Yi-1 = B2(Xi2 - Xi-1,2) + ... + Bk(Xik - Xi-1,k) + i


Yi= B2Xi2+ ... + BkXik + i
Es decir, hay que estimar los datos expresados en primeras diferencias.

Si =-1, la ecuacin (4) nos queda:

(4) Yi - Yi-1 = B1(1 - ) + B2(Xi2 - Xi-1,2) + ... + Bk(Xik - Xi-1,k) + ui - ui-1 =-1
X i 2 X i 1, 2
2

(4`) Yi Yi 1 B1 B2

X i 3 X i 1, 3
2

B3

Es decir, tenemos que calcular el modelo original en con los datos expresados en
promedios.
El problema de este mtodo es que si 1 -1, la transformacin de los datos puede
ocasionar un sesgo tan grande que sea peor que la propia autocorrelacin inicial.
b) Mtodo basado en el estadstico d de Durbin y Watson.

^ ^

d 2(1 ) 1 d

Esto es vlido para muestras grandes.

c) Procedimiento iterativo de Cochrane-Orcutt


i.

Se estima el modelo por MICO y se obtienen los residuos ei.

ii.

Se estima por MICO la siguiente regresin:

iii.

Con estimado, corregir los datos y correr la ecuacin (4)


Yi - Yi-1 = B1(1 - ) + B2(Xi2 - Xi-1,2) + ... + Bk(Xik - Xi-1,k) + ui - ui-1
Como no sabemos si estimado es una buena estimacin de , volvemos a la
regresin original utilizando los coeficientes obtenidos en (iii) y obtenemos ei*

iv.

ei ei1 vi

Pgina 19

Apuntes de autocorrelacin
Prof. Carlos Ral Pitta Arcos

v.

Estimamos: *

^
^

ei ei*1 wi

Con sta estimacin del estimado estimado, se

vuelve a repetir el proceso desde la etapa (iii)


Este Mtodo es iterativo y nos detenemos para cuando en dos corridas sucesivas los
estimados difieren un poco (cuando convergen a un nmero)
d) Mtodo de Durbin
La ecuacin (4) se puede rescribir como:
Yt = B1(1- ) + B2X2t B2Xt-1 + Yt-1 + ... + t
i)
ii)

A partir de esta ecuacin y regresando Yt en Xt, Xt-1, Xt-2, ... , Yt, y utilizar el
valor estimado del coeficiente Yt-1 como estimacin del 2
Luego de tener el estimado, transformar los datos y correr de nuevo la
regresin (4).

e) Mtodo de la malla Hildreth y Lu.


Se define un conjunto de valores posibles para tales que E [-1,1], donde los intervalos
entre los distintos valores de son de 0.1
Luego, para cada estimado se corre la regresin (4) y se computa la suma de los
cuadrados residuales (ee). Se elige el valor del estimado que minimice la suma de los
cuadrados residuales, lo que significa tambin que maximice el R2.

NOTA: ste estimador ser sesgado, pero consistente asintticamente.


Pgina 20

Das könnte Ihnen auch gefallen