Beruflich Dokumente
Kultur Dokumente
1. Introducción 1
1.1. Ecuaciones en diferencia . . . . . . . . . . . . . . . . . . . . . 1
1.2. Operadores de Rezago . . . . . . . . . . . . . . . . . . . . . . 4
2. Modelos ARIMA 7
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Modelos AR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3. Modelos MA(q) . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4. Modelos ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . 12
2.5. El teorema de representación de Wold . . . . . . . . . . . . . 13
5. Estimación 29
5.1. La función de verosimilitud . . . . . . . . . . . . . . . . . . . 30
5.2. Algoritmos numéricos de optimización1 . . . . . . . . . . . . . 33
5.2.1. Métodos libres de derivadas . . . . . . . . . . . . . . . 34
1
Este capítulo se basa en el Libro .A pplied Computational Economics and Finance"de
Mario J. Miranda y Paul L. Fackler
v
vi ÍNDICE GENERAL
6. Aplicaciones de Laboratorio 37
6.1. Identi…cación de los procesos ARIMA . . . . . . . . . . . . . 37
6.1.1. AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.1.2. MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.1.3. AR(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.1.4. MA(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.1.5. Comandos usuales en Eviews . . . . . . . . . . . . . . 41
6.1.6. Apéndice: Simulación de procesos ARMA en MATLAB 42
6.1.7. AR(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.1.8. MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.1.9. Asignación . . . . . . . . . . . . . . . . . . . . . . . . 48
6.2. Predicción y Experimentos Computacionales . . . . . . . . . 49
6.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . 49
6.2.2. Lineamientos básicos . . . . . . . . . . . . . . . . . . . 50
6.2.3. Predicción y bandas de con…anza en un ARM A (p; q) 51
6.2.4. Encontrando el mejor predictor lineal en un AR(p) . . 53
6.2.5. Predicción en Eviews . . . . . . . . . . . . . . . . . . . 57
6.2.6. Análisis de indicadores . . . . . . . . . . . . . . . . . . 60
6.2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.3. Estimación por Máxima Verosimilitud . . . . . . . . . . . . . 61
6.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . 61
6.3.2. Algoritmos de Optimización y Máxima Verosimilitud . 62
6.3.3. Estimación por Máxima Verosimilitud en Eviews . . . 64
6.3.4. Análisis de la e…ciencia del estimador . . . . . . . . . 66
6.3.5. Test de signi…cancia . . . . . . . . . . . . . . . . . . . 67
6.3.6. Estimación por Máxima Verosimilitud en Matlab . . . 67
6.3.7. Asignación . . . . . . . . . . . . . . . . . . . . . . . . 70
6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7. Vectores Autorregresivos2 75
7.1. Estacionariedad y momentos . . . . . . . . . . . . . . . . . . 77
7.2. Causalidad en el sentido de Granger . . . . . . . . . . . . . . 81
7.3. La representación en medias móviles . . . . . . . . . . . . . . 81
7.4. Función impulso respuesta . . . . . . . . . . . . . . . . . . . . 83
7.5. Descomposición de Varianza . . . . . . . . . . . . . . . . . . . 83
2
La mayoría del material discutido en estas notas es un resumen de los capítulos 10
y 11 de Hamilton (1994) y del libro de Amisano y Giannini "Topics in Structural VAR
Econometrics"
ÍNDICE GENERAL vii
8. VAR Estructurales 89
8.1. Descomposición de Choleski . . . . . . . . . . . . . . . . . . . 90
8.2. Restricciones contemporáneas . . . . . . . . . . . . . . . . . . 92
8.2.1. Bernanke y Mihov . . . . . . . . . . . . . . . . . . . . 92
8.2.2. Cushman y Zha . . . . . . . . . . . . . . . . . . . . . . 95
8.3. Variables no estacionarias . . . . . . . . . . . . . . . . . . . . 96
8.3.1. Restricciones de Largo Plazo . . . . . . . . . . . . . . 97
Series de tiempo
estacionarias
1
Capítulo 1
Introducción
y t = yt 1 + !t (1.1)
La ecuación anterior puede interpretarse de la siguiente manera: el pro-
ducto bruto interno depende de su valor pasado y de la productivdad del
periodo corriente. Nótese que la expressión (1.1) es una ecuación puesto que
relaciona dos variables, una endógena y otra exógena. En este caso yt es la
variable endógena, la variable para la cuál se busca una solución , mientras
que ! t es la variable exógena. La solución de esta ecuación en diferencias de
primer orden consiste en expresar yt como función únicamente de valores
1
2 CAPíTULO 1 INTRODUCCIÓN
yt 1 = yt 2 + !t 1
yt 2 = yt 3 + !t 2
..
.
y1 = y 1 + !0
t+1 t t 1
yt = y 1 + !0 + ! 1 + ::: + ! t 1 + !t (1.2)
@yt+j t
= (1.3)
@! t
Dependiendo del valor de , se pueden observar diferentes dinámicas en
la respuesta de yt . Si 0 < < 1 el multiplicador dinámico decae geométri-
camente hacia cero. Mientras que si j j > 1 el sistema es explosivo. Cuando
= 1, la variable endógena se convierte en la suma histórica de la variable
exógena.
yt = y 1 + ! 0 + ! 1 + ::: + ! t 1 + !t (1.4)
@yt+j
en este caso, @! t
= 1, y se interpreta generalmente como que la serie
tiene memoria in…nita puesto que los valores pasados de ! , independi-
entemente de que tan distantes en el pasado se encuentren, mantienen su
importancia en la determinación de yt .Este multiplicador dinámico es tam-
bién conocido como función impulso respuesta. La ecuación en diferencias
de orden 1 puede generalizarse al caso de una ecuación de orden p :
yt = 1 yt 1 + 2 yt 2 + 3 yt 3 ::: p yt p + !t (1.5)
1.1 ECUACIONES EN DIFERENCIA 3
Xt = F Xt 1 + t (1.6)
Xt = F t+1 X 1 + Ft 0 + F1t 1
1 + ::: + F t 1 + t
Zt = Zt 1 + Vt
1
F =T T
y
1
Zt = T Xt
1
Vt = T t
p p 1 p 2
+ 1 + 2 ::: + p 1 + p =0
4 CAPíTULO 1 INTRODUCCIÓN
yt = Lxt ! yt = xt 1
yt = Lk xt ! yt = xt k
yt = bLk xt ! yt = bxt k
k
yt = bL xt ! yt = bxt+k
yt = b1 L1 + b2 L2 xt ! yt = b1 xt 1 + b2 xt 2
(1 L) yt = ! t
mientras que la ecuación en diferencias de orden p como:
2 p
1 1L 2 L :: p L yt = ! t
Se puede simpli…car notación de…niendo el polinomio de rezago de orden
p (L), como:
2 p
(L) = 1 1L 2 L :: p L
1.2 OPERADORES DE REZAGO 5
(L)yt = ! t
Para resolver ecuaciones en diferencia utilizando el operador de rezagos
la siguiente identidad resulta de mucha utilidad:
1 2 2 3 3
=1+ L+ L + L ::::::::::
1 L
para todo j j < 1. En el caso de la ecuación en diferencias de orden 1, la
solución seria la siguiente:
(1 L) yt = ! t
!t 2 2 3 3
yt = = 1+ L+ L + L :::: ! t
(1 L)
Con ello, la solución para la variable yt se puede escribir como sigue,
después de aplicar las propiedades del operador de rezagos:
k=1
X
k
yt = !t k
k=0
2 p
1 1L 2 L :: p L yt = ! t
Notese, sin embargo que el polinomio de rezagos 1 2 p
1L 2 L :: p L
puede factorizarse convenientemente de la siguiente manera:
2 p 2 p
1 1L 2 L :: p L = (1 1 L) 1 2L ::: (1 pL )
1 c1 c2 cp
2
= + +:::
(1 1 L) (1 2 L ) ::: (1 2 L2 ) (1 1 L) (1 2 L2 ) (1 p
pL )
6 CAPíTULO 1 INTRODUCCIÓN
@yt+j j j j j
= c1 1 + c2 2 + c3 3 + :: + cp p
@! t
Capítulo 2
Modelos ARIMA
2.1. Introducción
En este caṕitulo presentamos un conjunto de modelos b́asicos de series
de tiempo estacionarias que serviŕan de base para el desarrollo de modelos
ḿas complejos en la segunda parte del curso. Una proceso estocastico,fyt g
se dice que es estacionario en el śentido d́ebil si sus primeros momentos
centrales son independientes del tiempo.
E (yt ) =
E (yt )2 = 2
E ((yt ) (yt j )) = j
E ("t ) = 0
E "2t = 2
E ("t "t+j ) = 0
Dos funciones de mucha utilidad para caracterizar procesos estoćasticos
estacionarios son las funciones de autocorrelacíon parcial ( FAP) y simple
7
8 CAPíTULO 2 MODELOS ARIMA
j
j =
0
yt = 11 yt 1 + 22 yt 1 + :: ss yt s + t
yt = 1 yt 1 + 2 yt 2 + 3 yt 3 ::: p yt p + !t
donde ! t es un ruido blanco. El mismo modelo puede representarse uti-
lizando el operador de rezago de la siguiente forma:
(L)yt = ! t
donde el polinomino de rezagos (L) esta dado:
2 3 p
(L) = (1 1L 2L 3 L ::: pL )
(L) = (1 1 L) (1 2 L) :: (1 p L)
k=1
X
yt = + k !t k
k=0
E (yt ) =
k=1
X
2 2 2
E (yt ) = ! k
k=0
k=1
X
2
E ((yt ) (yt s )) = ! k k+s
k=0
s
s = 1 0
yt = 1 yt 1 + 2 yt 2 + !t
Multiplicando la ecuacíon anterior por yt ; aplicando el operador esper-
anza, bajo la condicíon de estacionariedad tenemos:
10 CAPíTULO 2 MODELOS ARIMA
2
0 = 1 1 + 2 2 + !
1 = 1 0 + 2 1
2 = 1 1 + 2 0
s = 1 s 1 + 2 s 2
2 3 p 2
(1 1L 2L 3 L ::: p L )(1 + 1L 2 L ::::) =1
2 2
(1 1L 2 L )(1 + 1L + 2 L ::::) =1
Multiplicando y agrupando ordenadamente este polinomio tenemos el
siguiente sistema recursivo de ecuaciones:
2
(1 + ( 1 1 )L +( 2 1 1 2 ) L ::: =1
de donde se obtiene que:
1 = 1
2 = 1 1 + 2,
3 = 2 1 + 1 2,
en general tenemos:
s = s 1 1+ 2 s 2
yt = + !t + 1!t 1 + 2 ! t 2 :: q ! t q
2.3 MODELOS MA(Q) 11
yt = + (L) ! t
donde, el polinomio de rezago, (L) se de…ne como:
2 q
(L) = 1 + 1L + 2 L :: q L
donde j 1 j < 1:
Los primeros y segundos de momentos pueden calcularse directamente
aplicando el operador esperanza a yt , (yt )2 y (yt ) (yt s ) de la
siguiente manera.
E (yt ) =
k=q
X
2 2 2
E (yt ) = ! k
k=0
k=q
X
2
E ((yt ) (yt s )) = ! k k+s
k=0
E (yt ) =
E (yt )2 = 2
! 1+ 2
1
12 CAPíTULO 2 MODELOS ARIMA
2
E ((yt ) (yt 1 )) = ! (1 + 1)
(L)yt = c + (L) ! t
este proceso es estacionario si es que todas las raíces del polinomio de
rezagos (L) se encuentran fuera del círculo unitario. En este caso, se puede
encontrar la representación de medias móviles de este proceso, y expresar
yt como:
yt = + (L)! t
en donde,
1+ 2 q
1L+ 2 L :: q L
(L) = 2 3 p
(1 1L 2L 3 L ::: pL )
k=1
X
c
tal que: j kj <1y = 1 1 2 3 ::: p
k=0
Dado, los k , los momentos del proceso ARMA(p,q) pueden determi-
narse de la misma forma que para el caso de un AR(p).
En caso que la serie que se este analizando no sea estacionario, posea
algunas de las raíces del polinomio de rezagos de la parte autorregresiva
dentro del círculo unitario, se puede modelar dicha serie utilizando un mod-
elo ARMA(p,q) luego de transformar dicha serie en estacionaria.
Para transformar una serie que posee d raíces unitarias en una seria
estacionaria, hay que diferenciarla d veces. En donde, el operador diferencias
se de…ne como:
2.5 EL TEOREMA DE REPRESENTACIÓN DE WOLD 13
= (1 L)
Supongamos el siguiente proceso AR(3), tal que:
(1 1 L) (1 2 L) (1 3 L) yt = !t
en donde 2 = 3 = 1, entonces se puede decir que yt posee dos raíces
unitarias.
(1 1 L) (1 L)2 yt = ! t
De…niendo como zt = (1 L)2 yt = 2 yt , es claro que luego de tomar 2
diferencias el proceso que queda, zt ; puede modelarse como un ARMA(1,0).
Entonces se dice que yt sigue un proceso ARIMA (1,2,0). En general, un
proceso ARIMA (p,d,q) es aquél que admite una representación ARMA(p,q)
luego de tomarle d diferencias.
P
1
2
donde: 0 =1y k < 1. El término ! t es un ruido blanco y repre-
k=0
senta el error de la predicción lineal de yt sobre sus valores rezagados
! t = yt Et (yt =yt 1 ; yt 2 :::yt p )
Capítulo 3
Predicción en modelos
ARMA
1
X
yt = c + k "t k (3.1)
yt = c + " t + 1 "t 1 + 2 "t 2 ::::
E (yt ) = c
1
X
2 2
var(yt ) = k
k=0
La predicción de y ; h periodos en el futuro, yt+h ;condicional en la informa-
ción It se de…ne como yt+h=t , mientras que el error de predicción asociado
como:
15
16 CAPíTULO 3 PREDICCIÓN EN MODELOS ARMA
h i
2 2
M SE( t+h=t ) = E t+h=t =E yt+h yt+h=t
yt+h=t = E yt+h=It
2 2 2
M SE( t+h=t ) = 1+ 1 + :: + h 1
Algunos comentarios:
E( t+h=t ) =0
l mh!1 yt+h=t = c
2 2 2
yt+h=It N (yt+h=t ; 1+ 1 + :: + h 1 )
En este caso un intervalo de con…anza de 95 por ciento para la predicción
h periodos hacia adelante tiene la forma siguiente:
q
:yt+h=It 1;96 2 1 + 2 + :: + 2
1 h 1
ybt+h=t = c + b hb
"t + b h+1b
"t 1 ::
Dado que b j son variables aleatorias, el error cuadrático medio del error de
predicción con parámetros estimados no coincide con el error de predicción
del modelo teórico.
2 2 2
M SE(bt+h=t ) 6= M SE( t+h=t ) = 1+ 1 + :: + h 1
0
M SE(bt+h=t ) = M SE( t+h=t ) + Yt E b b Yt0
18 CAPíTULO 3 PREDICCIÓN EN MODELOS ARMA
yt c = (yt 1 c) + t
yt+1=t c = (yt c)
2
yt+2=t c= yt+1=t c = (yt c)
h
yt+h=t c = (yt+h 1 c) = (yt c)
El correspondiente error de predicción esta dado por:
2
var( t+1=t ) =
2 2
var( t+2=t ) = 1+
2(h 1)
2 2 4 2(h 1) 1
var( t+h=t ) = 1+ + :: = 2
1
Tomando limites cuando h se aproxima a in…nito:
l m yt+h=t = c
h!1
3.4 CALCULANDO EL MEJOR PREDICTOR LINEAL 19
2
l m var( t+h=t ) = 2 = var(yt )
h!1 1
El caso de AR(p)
(L) (yt c) = t
donde:
2 p
(L) = 1 1L 2 L :::: pL
t =F t 1 + wt
var(wt ) = w
t+1=t =F t
2
t+2=t =F t
t+h=t = Fh t
var(wt+1=t ) = w
0
var(wt+2=t ) = w +F wF
h 1
X
var(wt+h=t ) = Fj wF
j0
j=0
Notese que:
var(wt+h=t ) = w + F var(wt+h=t )F 0
TX
+n
j(b
yt yt )j
M AE =
n
t=T +1
TX
+n
j(b
yt yt ) =yt j
M AP E = 100
n
t=T +1
s
TP
+n
yt yt ) 2
(b
n
t=T +1
U T HEIL = s s
TP
+n TP
+n
yt )2
(b (yt )2
n n
t=T +1 t=T +1
v
u T +h
u X (b yt yt )2 X 2
t = ybt =n y + syb sy
2
+ 2(1 )sybsy
n
t=T +1
P
donde, ybt =n, y,syb , sy representan la media y la desviación estándar
de ybt y yt y es la correlación entre estas dos variables. . Se pueden de…nir
las siguientes proporciones
La proporción del sesgo:
P
( yb =n y)2
s t
TP
+n
yt yt ) 2
(b
n
t=T +1
La proporción de varianza
2
syb sy
s
TP
+n
yt yt ) 2
(b
n
t=T +1
La proporción de covarianza
2(1 )sybsy
s
TP
+n
yt yt ) 2
(b
n
t=T +1
22 CAPíTULO 3 PREDICCIÓN EN MODELOS ARMA
1 1
t+1=t = yt+1 yt+1=t
2 2
t+1=t = yt+1 yt+1=t
Para determinar que model predice mejor que otro, podemos realizar la
siguiente prueba de hipótesis:
1 2
Ho : E(L t+1=t ) = E(L t+2=t )
1 2
H1 : E(L t+1=t ) 6= E(L t+2=t )
donde,
2
i i
L t+1=t = t+1=t
1 1
dt = L t+1=t L t+2=t
donde:
3.6 EL ESTADíSTICO DE DIEBOLD-MARIANO 23
P
db = 1
dt
T0
P
1
LRV = 0 + 2 j
j=1
25
26CAPíTULO 4 IDENTIFICACIÒN DE LOS MODELOS ARIMA
L k
AIC = 2 +2
T T
El criterio de Schwarz (SC)
L log(T )
SC = +k2
T T
Y el criterio de Hanna-Quinn ( HQ)
L log(log(T ))
HQ = 2 + 2k
T T
4.1 LA METODOLOGíA DE BOX Y JENKINS 27
Estimación
yt = 1 yt 1 + "t
donde, "t N (0; 2" )
El estimador de MV de 1 y 2" es aquel que maximiza la probabilidad
conjunta L, a la que denominaremos función de verosimilitud, dada por:
L = fYT YT 2
1 ::Y1 (y1 ;y2 ;::yT ; 1 ; " )
29
30 CAPíTULO 5 ESTIMACIÓN
T
Y
L(Y; ) = Lt (yt ; )
k=0
T
Y
L(Y; ) = Lt (yt =yt 1 ; yt 2 ::; y1 ; )
t=0
T
X
log L(Y; ) = log Lt (yt =yt 1 ; yt 2 ::; y1 ; )
t
Yt = c + Yt 1 + "t
5.1 LA FUNCIÓN DE VEROSIMILITUD 31
donde, "t N (0; 2" ). De la sección anterior sabemos que los momentos
no condicionales de Yt son:
2
E (Yt ) = = 1 c y E (Yt )2 = 1 " 2
Sabemos de la de…nición de la función de verosimilitud que esta se puede
obtener a partir de la función condicional de los T-1 variables y de la dis-
tribución marginal de Y1. Puesto que "t se distribuye N (0; 2" ) tiene que ser el
2
caso que Y1 N ( ; 1 " 2 ), por lo que el logaritmo de su función de densidad
esta dado por:
1 1 2
" 1 (y1 )2
log L1 (y1 ; ) = log(2 ) log 2 2
2 2 1 2 "
2
1
2
L1 (y2 =y1 ; ) N (c + Y1 ; ")
1 1 2 1 (y2 c Y1 )2
log L1 (y2 =y1 ; ) = log(2 ) log " 2
2 2 2 "
1 1 2
1 (y1 )2
log L(Y; ) = 2 log(2 ) 2 log 1 "
2 2 2
"
1 2
T
X1 2
(T 1) (T 1) 2 1 (yt c Yt 1)
2 log(2 ) 2 log " 2 2
"
t
T 1
1 X (yt c Yt 1)
2
2 t 2
"
32 CAPíTULO 5 ESTIMACIÓN
Yt = + "t + " t 1
2
Yt ="t 1 N ( + "t 1; ")
"1 = Y1
"t = Yt "t 1
T 1
(T 1) (T 1) 2 1 X "2t
log L(Y; ) = log(2 ) log " 2
2 2 2 t "
asumimos que:
T 1
(T 1) (T 1) 2 1 X "2t
log L(Y; ) = log(2 ) log " 2
2 2 2 t "
max f (x)
x X
bs+1 = bs + s As gs
Método s As
@2f
Newton Raphson 1 Hs = @ 2
0
@f @f
BHHH 1 HHH = @ @
gs0 gs
Ascenso rápido gs0 Hs gs Iq
Aplicaciones de Laboratorio
.
Función de autocorrelacion simple y parcial (resp.) para un AR(1) cuando
0 < < 1.
37
38 CAPíTULO 6 APLICACIONES DE LABORATORIO
6.1.2. MA(1)
Viene dado por
yt = y + "t "t 1
,j j<1
E (yt ) = y;
2 2 2 2
E yt = y = 0 = 1+ "
8
< ;k = 1
k 2
= = 1+
k
0 : 0; k > 1
Los procesos MA(1) se reconocen por una FAP in…nita y una FAS que se
desvanece tras el primer rezago. Es necesario especi…car un término con-
stante en los datos tengan media distinta de cero.
6.1.3. AR(2)
Viene dado por
yt = + '1 y t 1 + '2 y t 2 + "t
; '1 + '2 < 1, '2 '1 < 1, j'2 j < 1
E (yt ) = y = ;
1 '1 '2
k
k = = '1 k 1 + '2 k 2; k 1;
0
donde:
'1 '21
1 = ; 2 = '2 +
1 '2 1 '2
Los procesos AR(2) se reconocen por una FAS in…nita y una FAP que
se desvanece tras el segundo rezago. Es necesario especi…car un término
constante en tanto los datos tengan media distinta de cero.
6.1.4. MA(2)
Viene dado por
Los procesos MA(2) se reconocen por una FAP in…nita y una FAS que se
desvanece tras el primer rezago. Es necesario especi…car un término con-
stante en tanto los datos tengan media distinta de cero.
AR(1)
Viene dado por yt = + yt 1 + "t :
ar1.m:
f unction [y FAS]=ar1(c,rho,T,sigma)
% c: Término constante.
% rho: Parámetro de persistencia.
% T: Número de observaciones del experimento.
% sigma: Desviación estándar del término de error.
y0=randn(1,1); % Especi…camos la condición inicial, proveniente de una dis-
tribución normal.
y(1,1)=c+rho*y0(1,1)+sigma*randn(1,1); % Generamos la primera observación.
for i=2:T
y(i,1)=c+rho*y(i-1,1)+sigma*randn(1,1); % A partir de la primera generamos
las T-1 restantes.
end
Mu=c/(1-rho); % valor esperado del proceso generado.
g0=(sigma^2)/(1-rho^2); %Varianza del proceso generado.
L=25;
for j=1:L
end
Una vez creada la función que genera el proceso, realizamos un exper-
imento para distintos valores de persistencia. La función anterior calcula
también la función de autocorrelación simple (FAS) y para el cálculo de la
Función de impulso respuesta utilizamos la función …lter, que será detal-
lada con el desarrollo del curso. Este nuevo archivo no es función, sino un
procedimiento. Es decir, es un conjunto de comando que se realizan en una
secuencia determinada, pero que no dependen de ningún argumento para
poder funcionar. Ello no quita la posibilidad de que este tipo de archivos
pueda incluir el llamado de cualquier otra función generada anteriormente.
Tomando ventaja de ello tenemos:
exp_ar1.m:
% Experimentos con AR(1)
T=100;
c=0;
sigma=1;
m=zeros(25,1);
m(1,1)=1;
44 CAPíTULO 6 APLICACIONES DE LABORATORIO
b=1;
rho=0;
[y(:,1) FAS(:,1)]=ar1(c,rho,T,sigma);
a=[1 -rho];
f(:,1)=…lter(b,a,m);
rho=0.5;
[y(:,2) FAS(:,2)]=ar1(c,rho,T,sigma);
a=[1 -rho];
f(:,2)=…lter(b,a,m);
rho=0.9;
[y(:,3) FAS(:,3)]=ar1(c,rho,T,sigma);
a=[1 -rho];
f(:,3)=…lter(b,a,m);
…gure(1)
subplot(3,1,2);plot(y(:,2),’b’);xlabel(’AR(1) (rho=0.5)’);
subplot(3,1,3);plot(y(:,3),’b’);xlabel(’AR(1) (rho=0.9)’);
…gure(2)
subplot(3,1,2);BAR(FAS(:,2));xlabel(’FAS-AR(1) (rho=0.5)’);
subplot(3,1,3);BAR(FAS(:,3));xlabel(’FAS-AR(1) (rho=0.9)’);
…gure(3)
6.1.7. AR(2)
Viene dado por yt = + '1 y t 1 + '2 y t 2 + "t ;
'1 + '2 < 1, '2 '1 < 1, j'2 j < 1
46 CAPíTULO 6 APLICACIONES DE LABORATORIO
y(i,1)=c+rho1*y(i-1,1)+rho2*y(i-2,1)+sigma*randn(1,1);
end
Mu=c/(1-rho1-rho2);
L=25;
g0=(sigma^2)/(1-rho1^2-rho2^2);
g(1,1)=(rho1*g0)/(1-rho2);
g(2,1)=rho1*g(1,1)+rho2*g0;
FAS(1,1)=g(1,1)/g0;
FAS(2,1)=g(2,1)/g0;
for j=3:L
g(j,1)=rho1*g(j-1,1)+rho2*g(j-2,1);
FAS(j,1)=g(j,1)/g0;
end
Un experimento con distintos valores es similar al anterior, haciendo pequeños
cambios en el código.
6.1.8. MA(1)
y(i,1)=c+e(i,1)-theta*e(i-1,1);
6.1 IDENTIFICACIÓN DE LOS PROCESOS ARIMA 47
end
Mu=c;
g0=(1+theta^2)*sigma^2;
g(1,1)=-(theta/(1+theta^2))*sigma^2;
FAS(1,1)=g(1,1)/g0;
L=25;
for j=2:L
g(j,1)=0;
FAS(j,1)=g(j,1)/g0;
end
De igual forma, un experimento con distintos valores es similar al ante-
rior, haciendo pequeños cambios en el código.
6.1.9. Asignación
1
X
yt = c + k "t k (6.2)
k=0
1
X
2 2
var(yt ) = k
k=0
I=ones(k,1);
Var_y=(sigma^2)*(I*phi);
Error cuadrático medio:
2 2 2
M SE( t+h=t ) = 1+ 1 + :: + h 1
6.2 PREDICCIÓN Y EXPERIMENTOS COMPUTACIONALES51
phi2=phi.^2;
phi2=phi2(1:k-1);
I=ones(k-1,1);
MSE=(sigma^2)*(phi2*I);
Bandas de con…anza:
q
2 2 2
:yt+h=It 1;96 1+ 1 + :: + h 1
I=ones(T,1);
yhtb1=yht + 1.96*sqrt(MSE);
yhtb2=yht - 1.96*sqrt(MSE);
(L) (yt c) = t
donde:
2 p
(L) = 1 1L 2 L :::: pL
t =F t 1 + wt
var(wt ) = w
% Representación de Estado-Espacio
F=[AR];
F=[F;eye(p-1),zeros(p-1,1)];
for i=3:T
E(:,i)=[y(i,1);y(i-1,1);y(i-2,1)];
w(:,i)=[e(i,1);zeros(p-1,1)];
end
Comenzando en el periodo t, y iterando hacia adelante h periodos, ten-
emos:
% h=1
for i=4:T
Eh1(:,i)=(F^1)*E(:,i-1)+w(:,i)+(F^1)*w(:,i-1);
end
% h=2
for i=5:T
Eh2(:,i)=(F^2)*E(:,i-2)+w(:,i)+(F^1)*w(:,i-1)+(F^2)*w(:,i-2);
end
Entonces el mejor predictor lineal basado en información hasta It
t+1=t =F t
t+2=t = F2 t
t+h=t = Fh t
for i=4:T
Eh1t(:,i)=F*E(:,i-1);
end
% h=2
for i=5:T
Eh2t(:,i)=(F^2)*E(:,i-2);
end
El error de predicción asociado están dados por:
% Error de predicción
err1=Eh1- Eh1t;
err2=Eh2- Eh2t;
y el correspondiente matrices de varianza-covarianza del error de predic-
ción.
var(wt+1=t ) = w
0
var(wt+2=t ) = w +F wF
h 1
X
var(wt+h=t ) = Fj wF
j0
j=0
Notese que:
var(wt+h=t ) = w + F var(wt+h=t )F 0
Para una mejor compresion del ejemplo presentamos el ejercicio completo
a continuación:
% Predicción de un AR(P)
%
% Fernando Pérez Forero
% 11/12/05
%
clear
% Generamos un Proceso AR(P) P=3
c=0; % Intercepto
A=[1 -0.6 0.2 -0.5]; % Componente AR
B=[1]; % Componente MA
T=1000; % Número de Obs.
sigma=1; % Desv. Estándar del término de perturbación
[y e]=armapq(A,B,T,sigma);
y=c+y;
% Capturamos los parametros asociados a los rezagos
n=length(A);
AR=A(2:n);
AR=-1*AR;
p=n-1;
% Representación de Estado-Espacio
F=[AR];
F=[F;eye(p-1),zeros(p-1,1)];
for i=3:T
E(:,i)=[y(i,1);y(i-1,1);y(i-2,1)];
w(:,i)=[e(i,1);zeros(p-1,1)];
end
% Predicción h períodos hacia adelante
% h=1
for i=4:T
Eh1(:,i)=(F^1)*E(:,i-1)+w(:,i)+(F^1)*w(:,i-1);
6.2 PREDICCIÓN Y EXPERIMENTOS COMPUTACIONALES57
end
% h=2
for i=5:T
Eh2(:,i)=(F^2)*E(:,i-2)+w(:,i)+(F^1)*w(:,i-1)+(F^2)*w(:,i-2);
end
% Hallando el mejor predictor lineal
% h=1
for i=4:T
Eh1t(:,i)=F*E(:,i-1);
end
% h=2
for i=5:T
Eh2t(:,i)=(F^2)*E(:,i-2);
end
% Error de predicción
err1=Eh1- Eh1t;
err2=Eh2- Eh2t;
% Varianza del error de predicción
varw=w*w’;
H=20;
varwh=varw;
for i=1:H
for h=1:i
varwh(:,:,i)=varw;
varwh(:,:,i)=varwh(:,:,i)+(F^(h-1))*varw*(F^(h-1))’;
end
end
yt = y + yt 1 + "t
donde , t N (0; 2 )
En base a esto, la mejor predicción lineal es:
h
yt+hjt = y + (yt )
Donde el error de predicción correspondiente es:
1 2h
2
V ar "t+hjt = 2)
(1
Donde debe cumplirse que:
2
l{m V ar "t+hjt = 2)
= V ar (yt )
h!1 (1
Trabajando en Eviews primero generamos los parámetros del programa:
’Predicción de un AR(1) h pasos hacia adelante
’Fernando Pérez Forero
’01/07/05
’Número de observaciones
!Obs=100
’Parámetros
!mu=0.5
!rho=0.8
6.2 PREDICCIÓN Y EXPERIMENTOS COMPUTACIONALES59
!sigma2=1
’H-step ahead
!h=7
Luego, creamos un work…le y generamos la serie AR(1):
work…le u !Obs
series AR1=0
series z=nrnd
smpl @…rst+1 @last
series AR1=!mu+!rho*AR1(-1)+z
smpl @all
Luego, creamos las series que almacenarán tanto los valores predichos
como las respectivas varianzas:
series AR1f=AR1
series var_e=0
smpl @last-!h+1 @last
series AR1f=0
smpl @all
Con todo esto, comenzamos a construir los valores predichos para las h
últimas observaciones:
for !i=1 to !h
AR1f(!Obs-!h+!i)=!mu+(!rho^!i)*(AR1(!Obs-!h)-!mu)
var_e(!Obs-!h+!i)=!sigma2*(1-!rho^(2*!i))/(1-!rho^2)
next
Computamos los errores de predicción, dado que contamos con los valores
actuales:
series e_forecast_…nal=AR1f-AR1
smpl @last-!h+1 @last
Construimos los grá…cos para comprobar las hipótesis de convergencia y
comportamiento:
freeze(e_forecast) e_forecast_…nal.line
show e_forecast
freeze(var_error) var_e.line
show var_error
freeze(ar1_f) ar1f.line
show ar1_f
smpl @all
60 CAPíTULO 6 APLICACIONES DE LABORATORIO
6.2.7. Ejercicios
1. En grupos de 2 personas, construya las bandas de con…anza del error
de predicción al 95 % de con…abilidad utilizando el programa que se ha
construido en clase. Luego entregue el archivo al profesor.
Pistas:
El valor de la función de densidad de la distribución t es 1,96.
La construcción de la banda es :
yt+hjt = 1;96
2. Generalice el programa anterior a un proceso AR(2).
2 T 2
P
T y
(t y yt 1
2
)
L y; ; " = 2 log (2 ) + log " 2 2
"
t=1
2
P
T
2
L y; ; " = Lt y; ; "
t=1
6.3 ESTIMACIÓN POR MÁXIMA VEROSIMILITUD 65
2 (yt y yt 1 ) 1 2
donde: Lt y; ; " = log " 2 log " .
En Eviews vamos a buscar los parámetros iniciales para este ejercicio,
siendo los resultados de una regresión MCO los candidatos más adecuados.
Estimando la regresión:
LS y c AR(1)
Para identi…car mejor los parámetros recomendamos crear vectores de
coe…cientes distintos al tradicional. En este caso hacemos:
coef(1) mu
coef(1) rho
coef(1) sigma2
Asignamos los resultados de la regresión a los coe…cientes creados, toman-
do estos la forma de parámetros iniciales.
mu(1)=c(1)
rho(1)=c(2)
c(3)=mco.@se
sigma2=c(3)
Especi…camos la función de verosimilitud tal como fue discutida:
logl1.append @logl loglike
logl1.append @byeqn
logl1.append res=ar1-mu(1)-rho(1)*ar1(-1)
logl1.append var=sigma2(1)
logl1.append loglike=log(@dnorm(res/@sqrt(var)))-log(var)/2
Eliminamos la primera observación de la muestra, dado que al tomar un
rezago esta se pierde:
smpl @…rst+1 @last
Con estas especi…caciones el modelo está listo para ser estimado. Por
ello, ejecutamos dicha sentencia y observamos los resultados:
logl1.ML
show logl1
El programa ha hecho lo que le hemos pedido, es decir, una vez que
tuvo las especi…caciones sobre la función de verosimilitud no hubo proble-
mas para estimarla. Lo siguiente es evaluar la e…ciencia de este estimador,
para lo cual debemos analizar las propiedades estadísticas de los mismos.
Un experimento interesante sería generar aleatoriamente muchas series (n)
AR(1) que contengan los mismos parámetros, de tal forma que se obtengan
los valores MV para cada experimento y se evalúe la convergencia de ellos.
66 CAPíTULO 6 APLICACIONES DE LABORATORIO
matrix cramer_rao=cmatr-cmatr_info
En caso de cumplir la condición, esta matriz debe ser cercana a cero en
todos sus elementos. Se recomienda borrar los objetos temporales para un
mayor orden en el work…le:
d g1 g2 info gradiente gmu grho gsigma2
P
T
yt 1 yt 1 2 yt 2 + 1 "t 1
L ( 1; 2; 1; ") = Log "
, donde y0 ; y 1 ; "0
t 1
son dados.
function L=LogL(y,e,theta,p)
% Se requiere de preferencia p>q
% p: Términos AR
n=length(theta);
T=length(y); % T+p en este caso
AR=theta(1:p);
for i=1:p
ARi(i)=AR(p-i+1);
end
MA=theta(p+1:n-1);
q=length(MA);
for i=1:q
MAi(i)=MA(q-i+1);
end
sigma=theta(n);
L=0;
for i=p+1:T
lagsy=y(i-p:i-1);
lagse=e(i-p:i-p+q-1);
L=L+log(normpdf(y(i,1),ARi*lagsy+MAi*lagse,sigma));
end
L=-L;
Como podemos apreciar, estamos tomando el negativo de la funcion de
verosimilitud. Esto es desde que la herramienta de Matlab permite minimizar
funciones de varias variables. En este caso, al tomar el negativo, estaríamos
maximizando la misma.
Creamos una función adicional para que solamente quede como argu-
mento:
function Lf=LogL_F(theta)
global y e p
Lf=LogL(y,e,theta,p);
Con la función de verosimilitud correctamente construida pasamos a re-
alizar el experimento:
6.3 ESTIMACIÓN POR MÁXIMA VEROSIMILITUD 69
exit‡ag
^
Como resultado obtenemos el vector que maximiza la función de log-
verosimilitud:
theta_…n = [0.5726, -0.3259, -0.0181, 0.9512]
La agenda pendiente se centra en la obtención de las varianzas de estos
estimadores, así como el realizar experimentos múltiples para veri…car la
consistencia de los mismos.
6.3.7. Asignación
Primera parte
En la seeción II se estimaron los parámetros especi…cando una función
de verosimilitud. Ahora, se sabe bien que en el caso de los AR(1) la primera
observación tiene una regla de correspondencia distinta, lo cual hace que
la especi…cación y estimación sea condicional a qué observación se está uti-
lizando. La regla
8 de correspondencia
( completa ) sería:
2
>
> y t
y
>
< p 1 2 exp
1
2 ,t=1
2 (1 ) 2 2
f (y; ) = 1
>
> (yt y yt 1 )
2
>
: p1 exp 2 ,t>1
2 2( )
En base al código anterior, modi…que la especi…cación para satisfacer
esta restricción.
Pistas:
Utilice una variable dummy que distinga los dos intervalos de la
regla de correspondencia.
La función recode ejecuta sentencias en base a una condición inicial,
de no cumplirse ejecuta otra sentencia indicada.
Segunda parte
Evalúe la consistencia de las muestras grandes generando 500 experi-
mentos (!Repl) tanto para un ejercicio de 35 como de 1000 observaciones,
utilizando de preferencia el resultado de la pregunta anterior. Almacene los
resultados de cada replicación en un vector columna, de forma que se pueda
evaluar la distribución asintótica de cada estimador. Si es posible, haga lo
mismo con las desviaciones estándar.
Pistas:
Para generar un AR(1) ejecute los siguientes comandos:
work…le u 1 !Obs
6.3 ESTIMACIÓN POR MÁXIMA VEROSIMILITUD 71
!Obs=500
!mu_pobl=0.5
!rho_pobl=0.8
series AR1=0
smpl @all
6.4. Ejercicios
1. Bajo que restricciones sobre los parámetros del siguiente modelo, este
es estacionario en media y varianza
yt = 1 yt 1 + 2 yt 2 + t
donde , N (0; 2 ):
t
2. Asumiendo que los parámetros del modelo anterior cumplen con las
restricciones para garantizar estacionariedad, calcular el la respuesta
de yt h periodos hacia adelante ante un choque en t , esto es calcular
@yt+h
=
@ t
(1 1 L) (1 2 L) yt = t
yt = 1 yt 1 + 2 yt 2 + t
Yt = (1 + 2;4L + 0;8L2 ) t
8
< 1 para s = 0
donde, E( t t+s ) =
: 0 en otro caso
si este es el caso, calcule sus autocovarianzas
6.4 EJERCICIOS 73
yt = 1 yt 1 + 2 yt 2 + t
donde , t N (0; 2 ):
yt = 1 yt 1 + 2 yt 2 :::: p yt p + t
donde , t N (0; 2 )
Escríbalo en forma de estado espacio, y especi…que bajo qué condiciones
es estacionario. :
yt = y t 1 + t
donde , t N (0; 2 )
Escriba la seudo función de verosimilitud, encuentre el estimador de MV
de y de 2 , asi como de sus respectivas varianzas.
yt = 1 yt 1 + 2 yt 2 + t
1
la respuesta de largo plazo de yt ante un choque en t es 1 1 2
Capítulo 7
Vectores Autorregresivos1
yt = 11 yt 1 + 12 t 1 + v1;t
75
76 CAPíTULO 7 VECTORES AUTORREGRESIVOS2
2 3
11 12
E(Vt Vt0 ) = 4 5
12 22
yt = 1 yt 1 2 (it ( t )) + gt
=t t 1+ yt + t
it = ' t + 'y y t + t
B0 Zt = B1 Zt 1 + t
donde2 3 2 3
yt 1 a2 a2
6 7 6 7
6 7 6 7
Zt = 6 t 7; B0 = 6 1 0 7;
4 5 4 5
it 'y ' 1
2 3 2 3
0 0 gt
6 1 7 6 7
6 7 6 7
B1 = 6 0 0 7; t =6 t 7
4 5 4 5
0 0 0 t
Multiplicando ambos lados de esta ecuación por B0 1 tenemos que:
7.1 ESTACIONARIEDAD Y MOMENTOS 77
Zt = B0 1 B1 Zt 1 + B0 1 t
E(Vt Vt0 ) = B0 1 E( 0
t t )B0
10
t = B0 Vt
Yt = o + 1 Yt 1 + 2 Yt 2 :::: + p Yt p + t
78 CAPíTULO 7 VECTORES AUTORREGRESIVOS3
1
E (Yt ) = (I 1 2 :: p) o
(L)Yt = t
2 p
(L) = I 1L 2L :: pL
2 3
t
6 7
6 7
6 0 7
Vt(kp 1) =6
6 ..
7
7
6 . 7
4 5
0
donde la matriz de varianza covarianza de este nuevo vector de errores
esta dado por: 8
< Q para t = s
E( t 0t+s ) =
: 0 en otro caso
donde 2 3
0 0
6 7
6 7
6 0 0 07
6 7
6 7
Qkp kp =6 0 0 07
6 7
6 .. .. .. 7
6 . . .7
4 5
0 0 0
Las condiciones de estacionariedad del modelo AR(p) pueden encontrarse
de manera sencilla, a partir de la matriz F. Se dice un modelo VAR(p)
es estacionario si sus primeros y segundos momentos son independientes
del tiempo. Esta condición se satisface si la matriz F , correspondiente a
la representación estado espacio del VAR tiene todos los valores propios i
tales que j i j < 1:
Los segundos momentos del VAR(p), entonces pueden calcularse a partir
de: 2 3
0 1 p 1
6 7
6 0 0 7
6 1 0 p 2 7
=6 7
0
E Zt Zt = 6 .. 7
6 0 . 7
4 5
0 0 ..
p 1 p 2 .
donde, j representa la autocovarianza de orden j de Yt . Para calcular,
procedemos como el caso de un ar(1).
0 = E (F Zt 1 + Vt ) (F Zt 1 + Vt )0 = F 0F
0
+Q (7.1)
0 0
E Zt Zt 1 = E (F Zt 1 + Vt ) (Zt 1) = 1
Notese, que las formulas que estamos derivando, son exactamente las
mismas que las derivadas en clases anteriores para el caso de un AR(1), si
asumimos que F ,Q y 0 son escalares.
Para obtener una forma cerrada de la solución de 0 debemos hacer uso
de dos operadores adicionales, el operador vec y el producto Kronecker. El
operador vec convierte, una matriz de n por m, en un vector nm por 1, apila
las columnas de la matriz una debajo de otra en el vector. Por ejemplo.
dada la matriz,
2 3
a11 a12
A=4 5
a21 a22
2 3
a11
6 7
6 7
6 a21 7
6
el vec(A) = 6 7
7
6 a12 7
4 5
a22
0
vec( 0) = vec(F 0F ) + vec(Q)
1
vec( 0) = [Ir F F] vec(Q)
donde r = (kp)2 si la matriz F tiene todos sus valores propios estacionar-
ios, este también sera el caso de la matriz F F entonces se puede garantizar
que existe 0 .
7.2 CAUSALIDAD EN EL SENTIDO DE GRANGER 81
Yt = o + 1 Yt 1 + 2 Yt 2 :::: + p Yt p + t
Yt = 0 + t + 1 t 1 + 2 t 2 + :::::
Para invertir el modelo AR(p), tenemos que encontrar las matrices j
como función de las matrices j . Para ello, expresamos ambos modelos uti-
lizando el operador de rezagos:
(L)Yt = t
82 CAPíTULO 7 VECTORES AUTORREGRESIVOS5
Yt = (L) t
1
(L) = (L)
entonces:
(L) (L) = I
2 p 2
I 1L 2 L :::: pL I+ 1L + 2L + ::: = I
1 = 1
2 = 1 1 + 2
s = 1 s 1 + 2 s 2 ::: p s p
Notese, que una vez obtenida la version de medias móviles del VAR(p)
en forma reducida, se puede obtener la version de medias móviles en la forma
structural, notando que:
t = B0 1 Vt
Yt = (L)B0 1 Vt
Yt = c + t + 1 t 1 + 2 t 2 + :::
La representación de medias móviles de la forma estructural esta dada
por:
Yt = c + B0 1 Vt + 1 B0
1
Vt 1 + 2 B0
1
Vt 1 + :::
Entonces, la función impulso respuesta describe la respuesta de todo el
vector de variables Yt+s a un impulso de una sola vez en yj;t , manteniendo
todas las demás variables constantes. Analíticamente, el impulso respuesta
se mide como:
@Yt+s j
= sb
@vj:t
Donde:
h i
B0 1 = b1 b2 : : : bk
Yt = c + B0 1 Vt + 1 B0
1
Vt 1 + 2 B0
1
Vt 1 + :::
84 CAPíTULO 7 VECTORES AUTORREGRESIVOS6
E (Yt+s Yt+s=t )2 = + 1
0
1 + ::: s 1
0
s 1
donde
E(Vt Vt0 ) =
E( 0
t t) = = B0 1 B0 10
Puesto que
j=k
X
= var(vj;t ) bj bj0 + 1b
j j0
b 0
1 + ::: s 1b
j j0
b 0
s 1
j=1
Yt = o + 1 Yt 1 + 2 Yt 2 :::: + p Yt p + t
con t N (0; )
tenemos que:
0
Yt = Xt + t
1X h i
T
Tk T 1 0 1 0 0
L( ) = log(2 ) + log Yt Xt Yt Xt
2 2 2
t=1
" T
#" T
# 1
j0
X X
1 (kp+1) = yj;t Xt0 Xt Xt0
t=1 t=1 t
2. b p!
3. b p!
p d
4. T bT ! ! N (0; Q)
R =r
Que dado el supuesto de normalidad de implica que:
p d
T RbT !r ! N (0; R ( Q) R0 )
0 0 " # 1
1 1 1
T
X
W = RbT ! r @R @ Xt Xt0 AR 0A
RbT !r
t=1 t
7.7 IDENTIFICACIÓN DE MODELOS VAR(P) 87
1 1
RV = 2(L1 L0 ) = T log 0 log 1
1 2pk 2
AIC(p) = log +
T
1 ln(T )pk 2
BIC(p) = ln +
T
1 2 ln(ln(T ))pk 2
HQ(p) = ln +
T
El criterio de AIC sobreestima el verdadero valor de p asintóticamente,
mientras que los BIC y HQ son asintóticamente consistentes, si es que el
p < p max.
Para realizar la prueba de normalidad de los residuos se puede utilizar
un extension al caso multivariante de la prueba de Jarque Bera, esta prueba
88 CAPíTULO 7 VECTORES AUTORREGRESIVOS8
T m03 m3 2
3 = (k)
6
VAR Estructurales
Vt = B0 t
0
Donde Et t t = y Et (Vt Vt0 )
=
Sin embargo, en la practica se estima de la representación de forma re-
ducida del VAR, y en general las matrices B0 y no están identi…cadas, esto
es no es posible determinar de manera única estas dos matrices utilizando
la información contenida en la estimación de la forma reducida.
Puesto que es una matriz simétrica semide…nida positiva, solo con-
k(k+1)
tiene 2 condiciones independientes que se pueden utilizar para estimar
los k 2 parámetros de B0 , se requieren entonces con k(k2 1) restricciones adi-
cionales para poder identi…car los coe…cientes de la matriz de relaciones
contemporáneas de las variables. Estas restricciones adicionales se pueden
imponer de varias maneras, en lo que sigue vamos a analizar tres formas
alternativas de alcanzar la identi…cación de los parámetros de la forma es-
tructural.
Cuando el modelo estructural esta identi…cado se puede obtener de man-
era sencilla los parámetros de la forma estructural a partir de los parámetros
de la forma reducida. Para que un conjunto de parámetros estructurales este
identi…cado debe satisfacer dos tipos de condiciones simultáneamente, las
condiciones de orden y de rango. La condición de orden se re…ere al numero
de restricciones adicionales que se deben imponer en el modelo para alcanzar
su identi…cación, esto es se requiere por lo menos k(k2 1) restricciones adi-
89
90 CAPíTULO 8 VAR ESTRUCTURALES
cionales. Sin embargo, aun si se cumple con esta condición, es posible que
los parámetros de la forma estructural no puedan identi…carse, se requiere
además que se satisfaga la condición de rango.
Para entender las implicancias de la condición de rango, veamos co-
mo se obtienen los parámetros estructurales del modelo VAR utilizando el
estimador de maxima verosimilitud. La función de verosimilitud del VAR
estructural esta dada por:
L = T2k log(2 ) T2 log B0 1 B0 1
T h i
1P 0X ) B 1 B 1 1 0 X )0
2 (Yt t 0 0 (Yt t
t=1
Dada la estimación de , la función de verosimilitud anterior, puede
expresarse de manera compacta como :
Tk T T T h i
1 b
L= log(2 ) + log jB0 j2 log j j2 traza B0 1 B0 1
2 2 2 2
Uno puede demostrar, que la función de verosimilitud anterior alcanza
su máximo respecto a las matrices , B0 , si existen matrices únicas que
satisfacen el siguiente sistema de ecuaciones no lineales:
B0 1 B0 1 = b
Utilizando el operador vech al sistema de ecuaciones, tenemos que:
V ech( b ) = vech B0 1 B0 1
Para que exista una solución única de este sistema se requiere que matriz
hessiana de V ech( b ) respecto a los parámetros que se buscan, tengan el nu-
mero de columnas linealmente independientes igual al numero de parámetros
que se buscan estimar. Para veri…car esta condición en la practica, el proced-
imiento mas sencillo es calcular numéricamente el rango de la matriz hessiana
de V ech( b ) utilizando un supuesto sobre los parámetros a estimar, y com-
pararlo con el numero de parámetros que se están estimando. Si la condición
se satisface se ha encontrado una potencial solución de lo contrario se tienen
que modi…car las restricciones de identi…cación apropiadamente hasta lograr
la identi…cación de los parámetros .
= PP0
Donde P es una matriz triangular inferior. Entonces dado P , y el vector
de residuos de la forma reducida, el vector de residuos estructurales esta
dado por:
1
Vt = P t
21
p21 = p
11
s
21
p22 = 22 p
11
k
X k
X
Yt = Bi Yt i+ Ci Pt i + Ay Vt
i=0 i=0
k
X k
X
Pt = Di Yt i + G i Pt i + AP VtP
i=0 i=0
8.2 RESTRICCIONES CONTEMPORÁNEAS 93
Yt = [GDPt ; t ; W P It ]
Pt = [F F R; N BR; T R]
El nivel de reservas prestadas corresponde a las reservas generadas a
través de la ventanilla de descuento del banco central, mientras que las no
prestadas, a las generadas por operaciones de mercado abierto realizadas
por el banco central.
Para indenti…car los parámetros de la forma estructural se tienen que
estimar k 2 = 36 parámetros de la matriz B0 1 . k(k+1)
2 = 21 condiciones se
obtienen de la matriz de varianza covarianza de los residuos
b= B 1 B 1
0 0
"T R = "F F R + v d
d d B B
"N BR = v + v + vS
La matriz B0 1 se determina resolviendo este sistema de ecuaciones lin-
eales:
2 3 2 32 3
d b d
"T R 1 + + 1 1 + v
6 7 6 + + + 76 7
6 7 6 d b 76 s 7
6 "N BR 7 = 6 1 76 v 7
4 5 4 54 5
1 d 1 1 b B
"F F R + 1 + + 1+ v
Para identi…car completamente el modelo, se requiere, de restricciones
adicionales al modelo. Estas restricciones estan dadas por el supuesto de
como el banco central implementa su política monetaria. Bernanke y Mihov
consideran los siguientes casos:
h i h i
d = vec b B0 1 B0 1 vec b B0 1 B0 1
A(L)Yt = "t
2 3 2 3
Y1;t A (L) A12 (L)
donde Yt = 4 5 , A(L) = 4 11 5
Y2;t 0 A22 (L)
Esto es, Y1;t corresponden a las variables externas, y Y2;t a las variables
domésticas. El supuesto de matriz triangular superior de A(L) implica que
las variables externas son exógenas, esto es choques a la economía Cana-
diense no tienen efectos en la economía de los EE.UU. Notese que estas
restricciones no se usan para identi…car el modelo.
Para identi…car los parámetros de la forma estructural se imponen una
estructura recursiva sobre la matriz de relaciones contemporáneas entre vari-
ables externas y domésticas. Estos es, se asume que las variables externas no
reaccionan a choques en variables domésticas, y tambien que el producto,
la in‡ación, las exportaciones e importaciones estan relacionadas contempo-
raneamente de forma recursiva.
96 CAPíTULO 8 VAR ESTRUCTURALES
3. Un sector de información
(L) Yt = o + t
(L) Yt = o + Vt
Donde:
o = B0 1 o
(L) = B0 1 (L)
= B0 1 B0 1
´Donde, es una matriz diagonal
En este caso, la representación de medias móviles para la transformación
estacionaria esta dado :
Yt = o + (L) t
Yt = o + (L)Vt
Donde:
(L) = (L)B0 1
8.3 VARIABLES NO ESTACIONARIAS 97
Sin embargo, dado que las series de tiempo son no estacionarias, tam-
bién existe una representación de medias móviles para las series en niveles.
Beverdge y Nelson (1981) demuestran que cualquier serie de tiempo no esta-
cionaria puede escribirse como la suma de dos componentes no observables,
un componente que representa la tendencia estocástica y el otro el compo-
nente transitorio Yt = YtP + YtT : Stock and Watson (1988) and King Ploser
Stock and Watson (1991) generalizan este resultado al caso multivariante.
En este caso, Yt puede representarse como:
rt = + rt 1 + t
y el componente transitorio esta dado por YtT = D (L) "t . KPSW (1991)
muestran que la representación de tendencias comunes puede derivarse de
la representación de medias móviles del vector Yt : Si Yt tiene un repre-
sentación de Wold dada por
Yt = + (L)"t ;
Yt = Y0 + ot + (1) t + t 0 (8.2)
P
donde t y t se de…nen como: t = ("1 + "2 + "3 :: + "t ) y t = s
"t+s donde s = ( s+1 + s+2 + s+3 ) es una secuencia …nita.
Note que (1) mide el impacto de largo plazo de los diferentes choques
, cuando las series son estacionarias, (1) = 0, por tanto todos los choques
solo tienen efectos transitorios sobre el nivel de la serie.
2 3 12 3 2 3
b11 b12 Yt 1
4 5 4 5=4 o 5+
b21 b22 ut 1
o
2 32 3 2 3
1 1 Yt v1;t
11 12 1
4 545+4 5
1 1 ut 1 v2;t
21 22
Para identi…car el modelo requerimos estimar los cuatro parámetros bij
Para ello podemos utilizar la información de la estimación de la versión en
forma reducida del VAR. En particular sabemos que:
b = B 1 bB 1
0 0
b = B 1B 1
0 0
yt = 1 + 11 (L)v1;t + 12 (L)v2;t
ut = 1 + 21 (L)v1;t + 22 (L)v2;t
1
X
s
12 (1) = 12 =0
s=0
La restricción que los choques "1;t y "2;t no tienen efectos de largo plazo
en ut equivale a:
@ut+s s
lm = lm 2j =0
s!1 @vj;t s!1
(1) B0 1 = (1)
Escribiendo esta 3última
2 2 ecuación
3 2en forma extensiva
3 tenemos:
(1) (1) b b (1) 0
4 11 12 5 4 11 12 5 = 4 11 5
21 (1) 22 (1) b21 b22 21 (1) 22 (1)
De donde obtenemos la restricción adicional que permite identi…car todos
los parámetros del modelo estructural.
11 (1)b11 + 12 (1)b12 =0
Resumiendo, el modelo contiene cuatro condiciones para determinar cu-
atro parámetros del modelo estructural en función de los parámetros del
modelo en forma reducida.
p
b11 = 11
21
b21 = p
11
100 CAPíTULO 8 VAR ESTRUCTURALES
s
21
b22 = 22 p
11
11 (1)b11 + 12 (1)b12 =0
Una vez identi…cado estos parámetros, la matriz B0 se utiliza para re-
cuperar todos los parámetros estructurales, y la secuencia de choques de
oferta y demanda. Conociendo la secuencia de choques de oferta y demanda
se puede estimar el componente permanente del producto, y el componente
transitorio, la tendencia y la brecha producto.
Evaluando Neutralidad en el Largo plazo
King y Watson (1997) resumen varios trabajos sobre VAR estructurales
bivariados que buscan probar la hipótesis de neutralidad en el largo pla-
zo. La neutralidad establece que cambios en variables nominales no tienen
efectos reales en el largo plazo sobre variables reales. Algunas de las proposi-
ciones de neutralidad en el largo plazo pueden son:
yt = 1 + 11 (L)"1;t + 12 (L)"2;t
mt = 1 + 21 (L)"1;t + 22 (L)"2;t
2 3 2 32 X 3
1;t 11 (1) 12 (1) "1;t
4 5=4 54 X 5
2;t 21 (L) 22 (1) "2;t
donde, 1;t y 2;t representa las tendencias estocásticas que afectan al
producto y la cantidad de dinero. La hipótesis de nuestralidad equivale a
probar que: 12 (1) = 0, esto es los choques monetarios solo tienen efec-
tos transitorios en el producto. La tendencia del producto esta únicamente
determinada por choques reales, por ejemplo choques de productividad, "1;t
Para realizar esta prueba de hipótesis primero tenemos estimar los parámet-
ros de la representación de medias móviles. Para ello debemos seguir los
siguientes pasos:
9.1. Introducción
En este apartado desarrollaremos en forma empírica la estimación de un
sistema de Vectores autorregresivos (VAR), enfatizando el análisis intuitivo
de los resultados y la rigurosidad de la construcción de los procedimientos.
Para ello utilizaremos el entorno Eviews 5.1., que nos permitirá trabajar el
tema con suma facilidad. Al …nal del capitulo se expone la estimación de
estos modelos en MATLAB.
9.2. Motivación
Muchas veces cuando queremos realizar un análisis riguroso de Politica
Económica de tipo macro llegamos a la conclusión de que es necesario un
modelo estructural que permita especi…car relaciones dinámicas entre varias
variables. La implementación de dicho modelo nos debe proporcionar in-
formación sobre como reaccionaría una variable macroeconómica (exógena)
ante un choque de politica macroeconómica (endógena). El interés deberá
radicar más que nada en cuál es la dirección del efecto de este choque ó
respuesta, de modo que se encuentre acorde con la teoría, es decir, que los
resultados numéricos repliquen la intuición derivada de la teoría y no los
contradigan. De otra forma, será necesario revisar la especi…cación del mod-
elo.
A lo largo del siglo XX el desarrollo de la macroeconomía presentó di-
versas variantes, donde una de las más importantes fue la Crítica de Lucas
(1976), donde se señalaba principalmente la invalidez de los modelos macro-
económicos utilizados hasta ese entonces, dado que no re‡ejaban las rela-
103
104 CAPíTULO 9 MODELOS VAR EN LA PRÁCTICA
9.3.1. Estimación
Comunmente el sistema VAR se expresa de la siguiente forma:
1
Sims (1980): "Macroeconomics and Reality", Econometrica, Vol. 48, No. 1 (Jan., 1980)
, pp. 1-48
9.3 EL SISTEMA DE VECTORES AUTORREGRESIVOS: UNA RECAPITULACIÓN105
2 3 2 3 2 3 2 3
y1t 2 3 y1t C1 "1t
6 7 6 7 6 7 6 7
6 7 6 A11 (l) ::: A1n (l) 7 6 7 6 7 6 7
6 y2t7 6 7 6 y 2t 7 6 C2 7 6 " 2t 7
6 7 = 6 ::: ::: ::: 7 6 7+6 7+6 7
6 7 4 5 6 ::: 7 6 ::: 7 6 ::: 7
6 7 6 7 6
6 :::7 7
4 5 An1 (l) ::: Ann (l) 4 5 4 5 4 5
ynt ynt Cn "nt
Xp
donde Aij (l) toma la forma de aijk lk , donde l es el operador de rezago
k=1
y p es el número de rezagos …jado por el modelador. Este sistema expresa
un set de relaciones entre los valores presentes de cada variable con los
valores pasados de si misma y de las restantes. Estos modelos son atractivo
porque permiten expresar en forma sencilla relaciones intertemporales entre
variales macroeconómicas y en base a ello analizar la secuencialidad de los
mecanismos de transmisión de política, así como la causalidad entre variables
(causalidad à la Granger ).
En forma matricial el modelo se expresa como:
Yt = o + 1 Yt 1 + 2 Yt 2 :::: + p Yt p + t
con t N (0; )
Luego el modelo anterior se expresa en forma compacta apilando las
variables exógenas, en este caso predeterminadas en un vector de variables
Xt tal que:
2 3
1
6 7
6 7
6 Yt 1 7
Xt = 6 7
6 .. 7 y = [ o 1 ::: p ]
6 . 7
4 5
Yt p
entonces, el VAR(p) puede escribirse como:
0
Yt = Xt + t
" T
#" T
# 1
X X
0
k (kp+1) = Yt Xt0 Xt Xt0
t=1 t=1 t
Yt = 0 + t + 1 t 1 + 2 t 2 + :::::
Sea entonces B0 la matriz que pre-multiplica a Yt en la forma estructural
y Vt los errores de la misma, la representac‘ón en medias móviles se convierte
en:
Yt = c + B0 1 Vt + 1 B0
1
Vt 1 + 2 B0
1
Vt 1 + :::
@Yt+s j
= sb
@vj:t
Donde:
h i
B0 1 = b1 b2 : : : bk
j=k
X
= var(vj;t ) bj bj0 + 1b
j j0
b 0
1 + ::: s 1b
j j0
b 0
s 1
j=1
t: Tasa de Desempleo
Yt = A0 + A1 Yt 1 + A2 Yt 2 + ::: + Ap Yt p + t
9.5.1. Estimación
Contando con el archivo de datos (.wf1) es posible crear un programa
que lo llame directamente y opere la estimación del VAR. A continuación
ejecutaremos esta tarea:
’Especi…camos la ruta del work…le
cd c:n
’Llamamos al work…le
load stock_watson_v2
Con el work…le abierto es posible estimar el VAR reducido, no olvidando
que es necesario encontrar el número óptimo de rezagos antes de llevar a
cabo esta tarea. El criterio que utilizaremos será el de Schwarz, que entre
varios más penaliza la inclusión de un rezago adicional en el VAR, siendo
posible identi…car un modelo parsimonioso.
En la práctica estimamos varios modelos VAR en forma consecutiva, de
modo que aquel que tenga un Schwarz mayor al aumentar un rezago deberá
ser eliminado, quedándonos con el inmediato anterior.
’Estimamos un VAR no restringido
9.5 VAR EN EVIEWS 109
!lagmax=6
vector(!lagmax) schw
var var1.ls 1 1 in‡ation un_rate fed_funds @ c
schw(1)=var1.@sc
!i=2
var var1.ls 1 !i in‡ation un_rate fed_funds @ c
schw(!i)=var1.@sc
while schw(!i)>schw(!i-1)
var var1.ls 1 !i in‡ation un_rate fed_funds @ c
schw(!i)=var1.@sc
!i=!i+1
wend
d schw
scalar lagopt=!i
Luego de estos comandos Eviews ha encontrado el número óptimo de
rezagos y posteriormente lo ha almacenado en el objeto escalar (scalar) lla-
mado lagopt.
A continuación, dado el número de rezagos efectuamos el test de causal-
idad à la Granger. El resultado se muestra al …nal.
’Análisis de Causalidad à la Granger
group g1 in‡ation un_rate fed_funds
freeze(granger_test) g1.cause(!i)
show granger_test
110 CAPíTULO 9 MODELOS VAR EN LA PRÁCTICA
A priori podemos asumir que las tres variables son efectivas para prede-
cirse entre sí mismas, por lo que recurrimos al esquema teórico del mecan-
ismo de transmisión monetario para tomar una decisión …nal.
!j=!i+1
freeze(lag_choice) var1.laglen(!j)
show lag_choice
freeze(var_chol) var1.results
show var_chol
9.5 VAR EN EVIEWS 111
1
100 E (Yt+s Yt+s=t )(Yt+s Yt+s=t ) var(vj;t ) bj bj0 + 1b
j j0
b 0
1 + ::: s 1b
j j0
b 0
s 1
show chol_decvar
El resultado nos muestra evolución de la contribución de cada variable
a lo largo del horizonte de predicción.
La primera …la nos muestra la contribución de cada una de las tres vari-
ables (según el orden señalado antes) al error de predicción de la in‡ación.
La segunda es para la predicción de la tasa de desempleo y la tercera para
la tasa de interés.
Observamos claramente que en los primero períodos solo es relevante el
choque de la misma variable, lo que va yendo en detrimento a medida que
el horizonte se hace más amplio. Es decir, en un primer momento funciona
el modelo adaptativo y a medida que avanza el tiempo la construcción del
modelo (estructura) comienza a tomar mayor ponderación.
Yt = A0 + A1 Yt 1 + A2 Yt 2 + ::: + Ap Yt p + t
vector(3) _Yf{!s}
_Yf{!s}=mu+pi1*_Y1+pi2*_Y2
Yt = A0 + A1 Yt 1 + A2 Yt 2 + ::: + Ap Yt p + t
y=data;
En resumidas cuentas necesitamos una función que muestre los resulta-
dos de la estimación del sistema V AR, contando como argumentos princi-
pales a los datos yt , el número de rezagos p y si es necesario un grupo de
variables exógenas, tema que se verá más adelante. Por simplicidad asumire-
mos que para este caso no existen variables exógenas, dejando abierta la
posibilidad para temas futuros de análisis.
7
La base de estos programas puede ser encontrada en "Econometric Toolbox for MAT-
LAB"en http://www.spatial-econometrics.com
116 CAPíTULO 9 MODELOS VAR EN LA PRÁCTICA
Como hemos podido apreciar, los resultados son similares a los reporta-
dos por Eviews 5.1., lo cual valida la rutina utilizada anteriormente. Debe
recordarse que lo importante es …jar el ordenamiento de las variables en el
archivo de datos adjunto, dado que esto afecta la estimación e identi…cacion
del V AR.
Capítulo 10
10.1. Introducción
En este capítulo replicaremos dos de los ejemplos más populares en ma-
teria de Vectores autorregresivos estructurales. Ambos fueron presentados
en el capítulo anterior, por lo que en este apartado entraremos directamente
a la aplicacón. El primer modelo lo presentan Stock y Watson (2001), es
decir, haremos la especi…cación estructural del modelo del capítulo anteri-
or. El segundo modelo es un Var simple bi-variado que utiliza restricciones
de largo plazo para la identi…cacion de modelos estructurales, que se desar-
rolla con …nes didácticos. Finalmente veremos a Bernanke y Mihov (1998),
quienes plantean un modelo del mercado interbancario, con el objetivo de
identi…car choques de política monetaria.La mayor parte de este apartado
se encuentra basada en el capitulo 6 de Favero (2001).1 En el desarrollo del
capítulo se ofrecen rutinas de Eviews 5.1. para la estimacion de estos mode-
los. Asimismo, al …nal de cada modelo se presenta la estimación del mismo
ejercicio por medio de rutinas de MATLAB.
123
124CAPíTULO 10 MODELOS VAR ESTRUCTURALES EN LA PRÁCTICA
otros más.
.4 .4 .4
.3 .3 .3
.2 .2 .2
.1 .1 .1
.0 .0 .0
Variance Decomposition
Percent INFLATION variance due to Shock1 Percent INFLATION variance due to Shock2 Percent INFLATION variance due to Shock3
100 100 100
80 80 80
60 60 60
40 40 40
20 20 20
0 0 0
2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24
Percent UN_RATE variance due to Shock1 Percent UN_RATE variance due to Shock2 Percent UN_RATE variance due to Shock3
100 100 100
80 80 80
60 60 60
40 40 40
20 20 20
0 0 0
2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24
Percent FED_FUNDS variance due to Shock1 Percent FED_FUNDS variance due to Shock2 Percent FED_FUNDS variance due to Shock3
90 90 90
80 80 80
70 70 70
60 60 60
50 50 50
40 40 40
30 30 30
20 20 20
10 10 10
0 0 0
2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24
Yt = A0 + A1 Yt 1 + A2 Yt 2 + ::: + Ap Yt p + t
0 1
yt
donde: Yt = @ A,yt es el producto real en diferencias y ut es la
ut
tasa de desempleo. Lo que queremos demostrar es que ‡uctuaciones de corto
plazo en el desempleo (pequeñas desviaciones) no afectan al crecimiento del
producto en el largo plazo.
Estimamos un Var reducido similar al modelo de Stock y Watson:
’ Programa que aplica la metodología de Restricciones de Largo Plazo en un
Var Estructural
’Fernando Pérez Forero
’11/01/06
’=====================================================
’Especi…camos la ruta del work…le
cd e:n
’Llamamos al work…le
load blanquah
’Estimamos un Var no restringido
!lagmax=6
vector(!lagmax) schw
smpl 1948:1 1987:4
var var1.ls 1 1 dy u @ c
schw(1)=var1.@sc
scalar _N=var1.@regobs
!n=_N
!i=2
var var1.ls 1 !i dy u @ c
schw(!i)=var1.@sc
while schw(!i)>schw(!i-1)
var var1.ls 1 !i dy u @ c
schw(!i)=var1.@sc
!i=!i+1
wend
10.3 EL MODELO CON RESTRICCIONES DE LARGO PLAZO129
d schw
scalar lagopt=!i
’Análisis de Causalidad à la Granger
group g1 dy u
freeze(granger_test) g1.cause(!i)
’show granger_test
!j=!i+1
freeze(lag_choice) var1.laglen(!j)
’show lag_choice
freeze(chol_imp) var1.impulse(24, se=a)
show chol_imp
freeze(chol_decvar) var1.decomp(24,se=a) dy u
’show chol_decvar
var1.makeresids res_dy res_u
group residuos res_dy res_u
freeze(chol_resid) var1.resids
’show chol_resid
freeze(var_chol) var1.results
’show var_chol
freeze(var_chol_eq) var1.representations
Recogemos los residuos de la forma reducida para utilizarlos como condi-
ciones iniciales. Luego, especi…camos la forma estructural con restricciones
de largo plazo y estimamos el modelo:
’Especi…cación estructural
var1.cleartext(svar)
var1.append(svar) @lr2(@u1)=0
freeze(results) var1.svar(rtype=text,conv=1e-4,F0=residuos)
show results
freeze(svar_imp) var1.impulse(24,se=a,imp=struct,a) dy u
show svar_imp
freeze(svar1_decvar) var1.decomp(24,se=a,imp=struct) dy u
show svar1_decvar
var1.makeresids sres_dy sres_u
group sresiduos sres_dy sres_u
freeze(struct_resid) var1.resids
’show struct_resid
Los resultados del modelo se presentan a continuación:
130CAPíTULO 10 MODELOS VAR ESTRUCTURALES EN LA PRÁCTICA
10.4 MIDIENDO LOS CHOQUES DE POLíTICA MONETARIA: BERNANKE Y MIHOV (19
.004 .004
.000 .000
-.004 -.004
-.008 -.008
-.012 -.012
2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24
3 3
2 2
1 1
0 0
-1 -1
2 4 6 8 10 12 14 16 18 20 22 24 2 4 6 8 10 12 14 16 18 20 22 24
k
X k
X
Yt = Bi Yt i + Ci Pt i + Ay V t
i=0 i=0
132CAPíTULO 10 MODELOS VAR ESTRUCTURALES EN LA PRÁCTICA
k
X k
X
Pt = Di Yt i+ G i Pt i + AP VtP
i=0 i=0
El conjunto de variables Yt esta dado por, el producto bruto interno, el
de‡actor implícito del GDP, y un índice de precios de comodities:
Yt = [GDPt ; t ; W P It ]
Pt = [F F; N BR; T R]
El nivel de reservas prestadas corresponde a las reservas generadas a través
de la ventanilla de descuento del banco central, mientras que las no prestadas,
a las generadas por operaciones de mercado abierto realizadas por el banco
central.
En forma simpli…cada, el modelo puede escribirse como:
0 1 0 1 0 1
Yt Yt 1 v Y
A @ A = C (L) @ A+B@ t A
Pt Pt 1 vtP
1
ut = A Bvt
De esta última expresión se deriva la relación entre matrices de covari-
anzas:
0 0 0 0
1 1
E ut ut = A BE vt vt B A
Descomposicion de Choleski
La tradicional descomposición triangular será de la siguiente forma:
0 1 0 1
1 0 0 ::: 0 b11 0 ::: 0
B C B C
B C B C
B a21 1 0 ::: 0 C B 0 b22 ::: 0 C
A=B
B
C,
C
B
B=B C
C
B ::: ::: ::: ::: ::: C B ::: ::: ::: ::: C
@ A @ A
an1 ::: ::: ann 1 1 0 0 ::: bnn
Yt = [GDPt ; t ; W P It ]
137
10.5 INTRODUCCIÓN 139
10.5. Introducción
Capítulo 11
Raíces Unitarias y
Cointegración
11.1. Introducción
El análisis de Series Económicas hoy en día es un tema de alta rele-
vancia, en especial si se desea emitir juicios de valor relacionados con el
comportamiento de las mismas. Es por esta razón que estudiamos la pres-
encia de raíces unitarias en las series con las que trabajamos, en vista de
tomar acciones correctivas en caso estas se presenten.
La presencia de una raíz unitaria en una serie de tiempo económica
revela directamente inestabilidad en la misma, siendo necesario el aplicar
una transformación a la misma en vista de que sea posible trabajar con
ella mediante los métodos estudiados anteriormente. En estricto, una serie
integrada o no estacionaria es per se inestable en el tiempo, lo cual implicaría
que si sufre una perturbación temporal el efecto en ella será permanente. Por
tal motivo, el efectuar regresiones ó predicciones con una serie integrada
puede llevarnos a emitir conclusiones erradas, situación que puede evitarse
en la medida en que se lleve a cabo un proceso adecuado de identi…cación
de este fenómeno.
De acuerdo a la descripción anterior podemos entender que una serie
económica es susceptible de ser integrada y es más, dicha característica debe
tener algún signi…cado económico. En términos del análisis económico, lo
que se busca es determinar si una variable reacciona de forma temporal ó
permanente frente a los choques que se dan normalmente en la economía
nacional e internacional. Variables, por ejemplo, como el producto bruto
(en niveles) ó la Tasa de In‡ación anualizada (en porcentajes) se dice que
141
142 CAPíTULO 11 RAíCES UNITARIAS Y COINTEGRACIÓN
pueden ser integradas en la medida en que son afectadas tanto por choques
de oferta ó demanda y que no necesariamente pueden regresar a la tendencia
que presentaban antes de la ocurrencia de dicha perturbación.
smpl 1 1
series y=!ci
smpl @…rst+1 @last
series y=!rho*y(-1)+e
smpl @all
genr ar1=y
dy
’Random walk
!rho=1
smpl 1 1
series y=!ci
smpl @…rst+1 @last
series y=!rho*y(-1)+e
smpl @all
genr rw=y
dy
group rvsar ar1 rw
show rvsar.line
’trend
!beta=0.05
smpl @all
series e=0.01*nrnd
!ci=0.000
series y=!beta*@trend+e
genr trend=y
dy
’Random walk + drift
!alpha=0.05
!rho=1
smpl 1 1
series y=!ci
smpl @…rst+1 @last
series y=!alpha+!rho*y(-1)+e
smpl @all
genr rwd=y
dy
group rw_trend rwd trend
show rw_trend.line
144 CAPíTULO 11 RAíCES UNITARIAS Y COINTEGRACIÓN
.08
5
4
.04
3
.00 2
1
-.04
0
-.08 -1
10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100
p
X
yt = + t + yt 1 + i yt i + "t
i=1
donde denota el número de rezagos necesario para que "t sea ruido
blanco. La ecuación anterior es estimada por MCO con el objetivo de con-
trastar la Hipótesis H0 : = 1 (yt tiene una raíz unitaria) mediante el
^
estadístico t del estimador . Tal como es documentado por Dickey y Fuller
(1979)3 , la distribución asintótica de este estimador no es estándar y por
tal razón, si se utilizan los métodos tradicionales de contraste de hipótesis
se producirá un error de Tipo I, Chumacero (2001)4 detalla este problema
grá…camente.Considere el siguiente proceso estocástico:
3
Dickey y Fuller (1979): Distributions of the estimates for autorregressive time series
with a unit root. JASA, 74, 427-431.
4
Chumacero, R. (2001): "Testing for unit roots using economics", Documentos de Tra-
bajo del Banco Central de Chine 102, Banco Central de Chile.
11.3 EL TEST DE DICKEY –FULLER AUMENTADO (ADF)145
Suponga que esta serie es generada 1000 veces bajo las mismas condi-
ciones, donde cada muestra es también de 1000 observaciones. Nos interesa
comparar la distribución del estadístico t para el test de Dickey –Fuller au-
mentado contra la de una normal, para lo que estimamos este valor en cada
réplica del experimento. Luego gra…camos los histogramas para cada una de
las distribuciones.El código en Eviews para este experimento se presenta a
continuación:
’Ejemplo 2 Chumacero(2001)
’Fernando Pérez Forero
’19/01/05
’=======================================
!T=1000
work…le u !T
!exp=1000
vector(!exp) td
’Random walk + drift
for !i=1 to !exp
smpl @all
series e=nrnd
!ci=0.0001
!alpha=0.05
!rho=1
smpl 1 1
series y=!ci
smpl @…rst+1 @last
series y=!alpha+!rho*y(-1)+e
smpl @all
genr rwd=y
dy
freeze(temp) rwd.uroot(adf,const,lag=3,save=mout)
td(!i)=temp(7,4)
d temp
d mout
next
smpl @all
mtos(td,tds)
freeze(hist_norm) e.hist
freeze(hist_tds) tds.hist
146 CAPíTULO 11 RAíCES UNITARIAS Y COINTEGRACIÓN
140
120
100
80
60
40
B
20
C
A
0
-4,0 -3,4 -2,8 -2,2 -1,6 -1,0 -0,4 0,1 0,7 1,3 1,9 2,5 3,1 4,0
norm t
Las líneas verticales corresponden a los valores críticos para cada una
de las observaciones. El área denotada por “A” corresponde a la región de
rechazo para un test asintóticamente normal. Asimismo, el área denotada
por “C” corresponde a la región de rechazo para el test ADF. Por tanto, el
área “A+B” representa la distorsión que genera el utilizar un valor crítico
estándar para este tipo de test. Dado este problema, es bastante frecuente
declarar una serie como estacionaria cuando en realidad es integrada. En par-
ticular, es importante señalar que el ejemplo anterior se hizo con la …nalidad
de ilustrar los posibles problemas que se pueden encontrar al utilizar el test
ADF, tales como utilizar los valores críticos incorrectos, así como identi…car
una serie como integrada cuando en realidad es estacionaria, pero cercana
a la raíz unitaria. No obstante, el test descrito es llevado a la práctica en el
apartado siguiente.
!MKt=@val(trend_adf(9,4))
!Bt=@val(trend_adf(24+!lag+2,5))
vector(1) tend
if abs(!tstat)<abs(!MKt) then
if !Bt>0.05 then
tend(1)=0
’Intercepto
freeze(inter_adf) y.uroot(adf,c)
!tstat=@val(inter_adf(7,4))
!MKt=@val(inter_adf(9,4))
!Ct=@val(inter_adf(24+!lag+1,5))
vector(1) inter
if abs(!tstat)<abs(!MKt) then
if !Ct>0.05 then
inter(1)=0
’Ninguno
freeze(nin_adf) y.uroot(adf,n)
!tstat=@val(nin_adf(7,4))
!MKt=@val(nin_adf(9,4))
vector(1) nin
if abs(!tstat)<abs(!MKt) then
nin(1)=1
else
nin(1)=2
endif
else
inter(1)=1
endif
else
inter(1)=2
endif
else
tend(1)=1
endif
else
tend(1)=2
endif
Replicaremos este procedimiento para la tasa de crecimiento del PBI
Peruano, tomando datos mensuales y desde enero de 2002. Intuitivamente
esta serie debería ser estacionaria, debido a que los choques en la economía
11.4 EL TEST DE DICKEY –FULLER AUMENTADO (ADF) EN EVIEWS149
10
0
2002 2003 2004 2005
VPBI
Una simple inspección nos lleva a a…rmar que esta serie es estacionaria,
con una ligera inclinación positiva, lo cual implicaría la posible presencia de
un componente tendencial.
De acuerdo al programa descrito anteriormente, los resultados indican
que esta serie es estacionaria y que efectivamente, cuenta con un componente
tendencial (signi…cativo al 10 %). Adicionalmente, no fue necesario utilizar
primeras diferencias rezagadas en la estimación.
150 CAPíTULO 11 RAíCES UNITARIAS Y COINTEGRACIÓN
Cadenas de Markov y
Modelos de Cambios de
Régimen
153
154CAPíTULO 12 CADENAS DE MARKOV Y MODELOS DE CAMBIOS DE RÉGI
Pr (xt+2 = xj jxt = xi )
Xn
= Pr (xt+2 = xj jxt+1 = xh ) Pr (xt+1 = xh jxt = xi )
h=1
n
X
Pr (xt+2 = xj jxt = xi ) = pih phj = p2ij
h=1
0 0
2 = Pr (x2 ) = 1 P = 0 P2
:::
0 0
k = Pr (xk ) = k 1 P = 0 Pk
0
de…nición anterior se cumple que IM P = 0M . . Tenemos entonces:
2 3 2 3 2 3
0 0
I P 0 I P
4 M 5 = 4 M 5.Sea A = 4 M 5 una matrix (M + 1) xM .
0 0
iM 1 iM
Dado que A no es cuadrada, es imposible despejar a menos que tomemos
el producto interno
2 y 3pre-multipliquemos por la inversa, tal como sigue:
0 1 0M
= AA A0 4 5.
1
0 1
Sea entonces Z = A A A0 , será igual a la última columna de Z.
La rutina de Matlab R que genera este proceso se llama markov_ss.m.
2
yt = St y t 1 + "t ; t = 1; 2; :::; T; donde "t N (0; St )
St = 0 (1 St ) + 1 St ) Si St = 1 ) 1
Si St = 0 ) 0
2 = 2 (1 St ) + 2S ) Si St = 1 ) 21
St 0 1 t
Si St = 0 ) 20
St = f0; 1g, Régimen 0 o 1.
Nótese que si St es conocido a priori, entonces hace las veces de una vari-
able dummy tradicional. Bajo este contexto, la función de Log-Verosimilitud
viene dada por :
T 2
!
X 1 yt St y t 1
Ln (L) = Ln (f (yt jSt )) ; dondef (yt jSt ) = q exp 2
t=2 2 2 2 St
St
imiza el negativo de esta función, que para …nes prácticos nos brinda el
mismo resultado.
12.5. Referencias
Aoki, M.(?): “Not More So: Some Concepts Outside the DSGE Frame-
work”. Department of Economics, University of California, Los Ange-
les.
phi2=log((1/P(2,2))-1);
beta0=0.99;
beta1=0.65;
sigma0=1;
sigma1=0.5;
T=15;
rho=0.8;
mu=0;
y(1)=randn(1);
for i=2:T
y(i)=mu+rho*y(i-1)+randn(1);
end
y=y’;
global y;
theta(1)=beta0;
theta(2)=beta1;
theta(3)=sigma0;
theta(4)=sigma1;
theta(5)=phi1;
theta(6)=phi2;
Loglike_ar1(theta);
% Seleccionando el vector de opciones default
options = optimset(’fminsearch’);
Pest=[P1est,(1-P1est);(1-Q1est),Q1est]
LogF=-LogF
exit‡ag
%======================================================
% Filtering
[Filt_pr,Filt_act]=Filter(theta_…n);
…gure(1)
subplot(2,2,1);plot(Filt_pr(:,1),’b’);title(’Pr(St=0jt-1)’);xlabel(’t’);ylabel(’Pr(St=0)’);
subplot(2,2,2);plot(Filt_pr(:,2),’r’);title(’Pr(St=1jt-1)’);xlabel(’t’);ylabel(’Pr(St=1)’);
%======================================================
% Smoothing
% Tenemos Pr(ST=0jphi(T)) y Pr(ST=1jphi(T))
% Iterando hacia atrás:
Smooth_m=Smooth(Filt_pr,Filt_act,theta_…n);
subplot(2,2,3);plot(Smooth_m(:,1),’b’);title(’Pr(St=0jT)’);xlabel(’t’);ylabel(’Pr(St=0)’);
subplot(2,2,4);plot(Smooth_m(:,2),’r’);title(’Pr(St=1jT)’);xlabel(’t’);ylabel(’Pr(St=1)’);
%======================================================
% Simulación de Cadenas de Markov
% Simulación sobre la muestra
% En este caso la distribución inicial será la del estado estacionario.
pi0=markov_ss(Pest);
pi0=pi0’;
x=[0;1];
[simul,estado1]=simulate_markov(x,Pest,pi0,T);
…gure(2)
subplot(2,2,1:2);plot(simul,’bo-’);title(’Cadena Simulada sobre la muestra’);xlabel(’t’);ylabel(’S(t)’);
% Simulación hacia adelante
% En este caso la distribución inicial será formada por las probabilidades
% …ltradas para t=T (actualizadas).
pi0_s=[Smooth_m(T,1),Smooth_m(T,2)];
h=20;
[simul,estado2]=simulate_markov(x,Pest,pi0_s,h);
subplot(2,2,3:4);plot(simul,’bo-’);title(’Cadena Simulada h períodos hacia ade-
lante’);xlabel(’h’);ylabel(’S(T+h)’);
12.6.2. Loglike_ar1.m
function LogL=Loglike_ar1(theta)
12.6 APÉNDICE: PROGRAMAS DE MATLAB 171
phi=normpdf(y(1),y0*theta(1),theta(3))*alpha+normpdf(y(1),y0*theta(2),theta(4))*beta;
alpha_pr=(normpdf(y(1),y0*theta(1),theta(3))*alpha)/phi;
beta_pr=(normpdf(y(1),y0*theta(2),theta(4))*beta)/phi;
LogL= LogL+log(phi);
%======================================================
for i=2:T
% Predicción
% Pr(S(t+1)=0jphi(t))
alpha = p1*alpha_pr+(1-p1)*beta_pr;
% Pr(S(t+1)=1jphi(t))
beta = (1-q1)*alpha_pr+q1*beta_pr;
%======================================================
% Actualización
phi=normpdf(y(i),y(i-1)*theta(1),theta(3))*alpha + normpdf(y(i),y(i-1)*theta(2),theta(4))*beta;
alpha_pr=(normpdf(y(i),y(i-1)*theta(1),theta(3))*alpha)/phi;
beta_pr=(normpdf(y(i),y(i-1)*theta(2),theta(4))*beta)/phi;
LogL=LogL+log(phi);
end
LogL=-LogL;
172CAPíTULO 12 CADENAS DE MARKOV Y MODELOS DE CAMBIOS DE RÉGI
end
12.6.3. Filter.m
function [Filt_pr,Filt_act]=Filter(theta)
% Filtrado de probabilidades no observadas (predicción y actualización).
% Se asume una matriz de transición invariante en el tiempo.
% Los parámetros theta deben ser previamente estimados (ML).
% alpha: Pr(St=0jphi(t-1))
% beta: Pr(St=1jphi(t-1))
% alpha_pr: Pr(St=0jphi(t))
% beta_pr: Pr(St=1jphi(t))
% Fernando Pérez Forero
% 02/10/05
global y;
y0=randn(1);
p1=1/(1+exp(theta(5)));
q1=1/(1+exp(theta(6)));
P=[p1,(1-p1);(1-q1),q1];
Pi=markov_ss(P);
T=length(y);
Filt_pr=zeros(T,2);
Filt_act=zeros(T,2);
%t=1
alpha = p1*Pi(1,1)+(1-p1)*Pi(2,1);
beta = (1-q1)*Pi(1,1)+q1*Pi(2,1);
Filt_pr(1,1)=alpha;
Filt_pr(1,2)=beta;
phi=normpdf(y(1),y0*theta(1),theta(3))*alpha+normpdf(y(1),y0*theta(2),theta(4))*beta;
alpha_pr=(normpdf(y(1),y0*theta(1),theta(3))*alpha)/phi;
beta_pr=(normpdf(y(1),y0*theta(2),theta(4))*beta)/phi;
Filt_act(1,1)=alpha_pr;
Filt_act(1,2)=beta_pr;
%======================================================
12.6 APÉNDICE: PROGRAMAS DE MATLAB 173
for i=2:T
% Predicción
% Pr(S(t+1)=0jphi(t))
alpha = p1*alpha_pr+(1-p1)*beta_pr;
% Pr(S(t+1)=1jphi(t))
beta = (1-q1)*alpha_pr+q1*beta_pr;
Filt_pr(i,1)=alpha;
Filt_pr(i,2)=beta;
%======================================================
% Actualización
phi=normpdf(y(i),y(i-1)*theta(1),theta(3))*alpha+ normpdf(y(i),y(i-1)*theta(2),theta(4))*beta;
alpha_pr=(normpdf(y(i),y(i-1)*theta(1),theta(3))*alpha)/phi;
beta_pr=(normpdf(y(i),y(i-1)*theta(2),theta(4))*beta)/phi;
Filt_act(i,1)=alpha_pr;
Filt_act(i,2)=beta_pr;
end
end
12.6.4. Smooth.m
function Smooth_m=Smooth(Filt_pr,Filt_act,theta)
% Corrección de probabilidades con información de toda la muestra.
% La iteración es hacia atrás.
% Las probabilidades condicionales al pasado deben ser estimadas
% anteriormente (Filter).
% alpha_pr: Pr(St=0jphi(T))
% beta_pr: Pr(St=1jphi(T))
% Fernando Pérez Forero
% 02/10/05
global y;
y0=randn(1);
p1=1/(1+exp(theta(5)));
q1=1/(1+exp(theta(6)));
P=[p1,(1-p1);(1-q1),q1];
T=length(y);
Smooth_m=zeros(T,2);
174CAPíTULO 12 CADENAS DE MARKOV Y MODELOS DE CAMBIOS DE RÉGI
%t=T
alpha = Filt_act(T,1);
beta = Filt_act(T,2);
Smooth_m(T,1)=alpha;
Smooth_m(T,2)=beta;
for i=T:-1:2
alpha = Smooth_m(i,1);
beta = Smooth_m(i,2);
alpha_pr=(alpha*p1*Filt_act(i-1,1))/Filt_pr(i,1)+(beta*(1-p1)*Filt_act(i-1,1))/Filt_pr(i,2);
beta_pr=(alpha*(1-q1)*Filt_act(i-1,2))/Filt_pr(i,1)+(beta*q1*Filt_act(i-1,2))/Filt_pr(i,2);
Smooth_m(i-1,1)=alpha_pr;
Smooth_m(i-1,2)=beta_pr;
end
end
12.6.5. markov_ss.m
function [Pi,V,Val]=markov_ss(P)
% Cálculo de la distribución estacionaria de probabilidades del estado.
% El argumento es la matriz de transición P.
% Pi : Distribución estacionaria.
% V : Vectores propios de P.
% Val: Vector columna con los valores propios de P.
% Fernando Pérez Forero
% 02/10/05
[V,D]=eig(P);
m=length(P);
T=eye(m);
A=T-P’;
clear T;
y=ones(1,m);
A=[A;y];
clear y;
Tr=((A’*A)^(-1))*A’;
Pi=Tr(:,m+1);
Val=diag(D);
12.6 APÉNDICE: PROGRAMAS DE MATLAB 175
12.6.6. simulate_markov.m1
function [chain,state] = simulate_markov(x,P,pi0,T);
% % x = the quantity corresponding to each state, typical element x(i)
% % P = Markov transition matrix, typical element p(i,j) i,j=1,...n
% % pi0 = probability distribution over initial state
% % T = number of periods to simulate
%%
% % chain = sequence of realizations from the simulation
% % Modi…cation of progam by L&S.
n = length(x); % % what is the size of the state vector?
E = rand(T,1); % % T-vector of draws from independent uniform [0,1]
cumsumP = P*triu(ones(size(P)));
% % creates a matrix whose rows are the cumulative sums of
% % the rows of P
12.6.7. ejemplo_markov.m
% Ejemplo de simulación de una Cadena de Markov
% Fernando Pérez Forero
% 02/10/05
P=[0.7,0.3;0.2,0.8]; % Matriz estocástica de Transición.
12.6.8. tauchen.m2
function [prob,eps,z]=tauchen(N,mu,ro,sig);
% Discretizes an AR(1) process into a Markov chain. Determines the optimal
grid
% and transition matrix. Based on Tauchen (1991).
%
% y(t)= mu(1-ro) + ro*y(t-1) + u(t) with V(u) = sig^2
%
% syntax:
%
% [prob,eps,z]=tauchen(N,mu,ro,sig)
%
% N is the number of points on the grid.
% prob is the transition matrix
% eps contains the cut-o¤ points from - infty to + infty
% z are the grid points, i.e. the conditional mean within [eps(i),eps(i+1)].
global mu_ ro_ sigEps_ sig_ eps_ jindx_
if N==1;prob=1; eps=mu;z=mu;
else;
if ro==0;
sigEps=sig;
eps=sigEps*norminv((0:N)/N)+mu;
eps(1)=-20*sigEps+mu;
eps(N+1)=20*sigEps+mu;
aux=(eps-mu)/sigEps;
aux1=aux(1:end-1);
aux2=aux(2:end);
2
Tomado de www.eco.utexas.edu/~cooper/dynprog/tauchen.m
12.6 APÉNDICE: PROGRAMAS DE MATLAB 177
z=N*sigEps*(normpdf(aux1)-normpdf(aux2))+mu;
prob=ones(N,N)/N;
else;
sigEps=sig/sqrt(1-ro^2);
eps=sigEps*norminv((0:N)/N)+mu;
eps(1)=-20*sigEps+mu;
eps(N+1)=20*sigEps+mu;
aux=(eps-mu)/sigEps;
aux1=aux(1:end-1);
aux2=aux(2:end);
z=N*sigEps*(normpdf(aux1)-normpdf(aux2))+mu;
mu_=mu;ro_=ro;sigEps_=sigEps;eps_=eps;sig_=sig;
prob=zeros(N,N);
for i=1:N
for jindx_=1:N
prob(i,jindx_)=quadl(@integ3,eps_(i),eps_(i+1),1e-6)*N;
end
end
end
z=z’;
eps=eps’;
end
function F=integ3(u);
global mu_ ro_ sigEps_ eps_ jindx_ sig_
aux1=(eps_(jindx_)-mu_*(1-ro_)-ro_*u)/sig_;
aux2=(eps_(jindx_+1)-mu_*(1-ro_)-ro_*u)/sig_;
F=(normcdf(aux2)-normcdf(aux1));
F=F.*exp(-0.5*(u-mu_).*(u-mu_)/sigEps_^2);
pi=4*atan(1);
F=F/sqrt(2*pi*sigEps_^2);
12.6.9. consumo.m
% Modelado de preferencias vía Cadenas de Markov
% Basado en L&S (2000), Ej 1.3
% Fernando Pérez Forero
% 02/10/05
c = [1;5];
178CAPíTULO 12 CADENAS DE MARKOV Y MODELOS DE CAMBIOS DE RÉGI
pi0 = [0.5,0.5];
beta = 0.95;
gamma = 2.5;
P1 = eye(2,2);
P2 = 0.5*ones(2,2);
u = (1/(1-gamma))*c.^(1-gamma);
v1 = inv(eye(2,2)-beta*P1)*u;
v2 = inv(eye(2,2)-beta*P2)*u;
V(1) = pi0*v1;
V(2) = pi0*v2;
V