Sie sind auf Seite 1von 41

Trabajos Dirigidos de Series de Tiempo Financieras

*
Universidad Nacional de Ingeniera
2013-II
Rafael Caparo - Pablo Garavito
Octubre 2013
*
La pretensi on de los Trabajos Dirigidos (TDs) para el curso es brindar apoyo a los estudiantes en el estudio
previo de cada sesi on, establecidas a lo largo de las dieciseis semanas academicas. El car acter de los ocho primeros
TDs ser a te orico, por su parte, los ocho restantes ser an aplicativos. El presente material est a basado en los textos
Time Series Analysis de J. Hamilton y Analysis of Financial Time Series de R. Tsay. Cualquier sugerencia
ser a bienvenida.
1

Indice
1. TD1: Ecuaciones en Diferencia y Operadores 4
1.1. Ecuaciones en Diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1. Eaciones en Diferencia de Primer Orden . . . . . . . . . . . . . . . . . . . 4
1.1.2. Ecuaciones en Diferencia de Orden-p . . . . . . . . . . . . . . . . . . . . . 6
1.1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Operadores de Rezago . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2. TD2: Procesos Estacionarios ARMA(p,q), prediccion 18
2.1. Procesos Estacionarios ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.1. Expectativas, Estacionariedad y Ergodicidad . . . . . . . . . . . . . . . . 18
2.1.2. Ruido blanco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.3. Procesos ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3. TD3: Teora Asintotica y Modelos de Regresion Lineal 24
3.1. Repaso de Teora Asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.1. Lmites de Secuencias Determinsticas . . . . . . . . . . . . . . . . . . . . 24
3.1.2. Convergencia en Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.3. Convergencia en Media Cuadratica y la Desigualdad de Chebyshev . . . . 25
3.1.4. Ley de Grandes N umeros para Variables i.i.d. . . . . . . . . . . . . . . . . 26
3.1.5. Convergencia en Distribucion . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.6. Teorema del Lmite Central . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4. TD4: Modelos de Series de Tiempo no Estacionarias: Procesos con Tendencia
Determinstica 28
5. TD5: Procesos con Raz Unitaria 29
6. TD6: SVAR 30
6.1. Series de Tiempo Multivariadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.2. Series de Tiempo Multivariadas Estacionarias y Ergodicas . . . . . . . . . . . . . 30
6.3. Matrices de Covarianza y Correlacion Cruzada . . . . . . . . . . . . . . . . . . . 31
6.4. Representacion de Wold Multivariada . . . . . . . . . . . . . . . . . . . . . . . . 32
6.5. Varianza de Largo Plazo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.6. Estimacion no parametrica de la varianza de largo plazo . . . . . . . . . . . . . . 34
6.7. Modelos de Vectores Autorregresivos . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.8. El Modelo VAR Estaciomario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.9. Representacion de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.10. Estimacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.11. Seleccion de la longitud del rezago . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.12. Causalidad a la Granger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2
7. TD7: Cointegracion, Series de Tiempo con Heteroscedasticidad, Filtro de Kal-
man y GMM 40
8. TD8: Bootstrapping y Simulaciones de Montecarlo, aplicaciones 41
3
1. TD1: Ecuaciones en Diferencia y Operadores
1.1. Ecuaciones en Diferencia
Las variables economicas y nancieras se miden en el tiempo, por ello, el manejo de herra-
mientas matematicas tales como las ecuaciones en diferencia, es de vital importancia antes de
ver los modelos que explican el comportamiento de tales variables.
1.1.1. Eaciones en Diferencia de Primer Orden
Una ecuacion en diferencia de primer orden es aquella que relaciona el valor de una variable
solo con su primer rezago. Imaginemos que dicha variable sea y
t
y supongamos la relacion
dinamica expresada en la siguiente ecuacion:
y
t
= y
t1
+w
t
(1)
Donde es un n umero real y w
t
es el valor de otra variable en el perodo t. La ecuacion 1
muestra una ecuacion en diferencias de primer orden. Notese que expresa el valor de y
t
como
funcion lineal de y
t1
y w
t
. El comportamiento de la variable y
t
a lo largo del tiempo esta expre-
sado por la ecuacion 1, por tanto, viene a ser la variable endogena de la ecuacion, mientras que
la variable w
t
es exogena. Tenemos para cada perodo una relacion entre el valor de la variable
y con su rezago y el valor presente de w:
y
0
= y
1
+w
0
(2)
y
1
= y
0
+w
1
(3)
y
2
= y
1
+w
2
(4)
...
y
t
= y
t1
+w
t
(5)
Conociendo el valor inicial y
1
y los valores de w
t
para t = 0, 1, ... podemos encontrar el
valor de y para cualquier perodo. Podemos calcular el valor de y
0
con el valor de y
1
y el valor
de w
0
, luego el valor de y
1
dado el valor calculado de y
0
y el valor dado de w
1
, de igual manera
podemos calcular el valor de y
2
con el valor previo de y
1
y el valor dado de w
2
. A este metodo
de solucion se le conoce como sustitucion recursiva:
y
0
= y
1
+w
0
y
1
= y
0
+w
1
= (y
1
+w
0
) +w
1
y
1
=
2
y
1
+w
0
+w
1
y
2
= y
1
+w
2
= (
2
y
1
+w
0
+w
1
) +w
2
y
2
=
3
y
1
+
2
w
0
+w
1
+w
2
...
y
t
=
t+1
y
1
+
t
w
0
+
t1
w
1
+...w
t1
+w
t
(6)
4
El Multiplicador Dinamico: La ecuacion 6 muestra a y
t
como funcion lineal de y
1
y la
serie de valores de w, lo cual permite calcular facilmente el efecto de w
0
sobre y
t
suponiendo que
y
1
, w
1
, w
2
, ... permanecen invariables:
y
t
w
0
=
t
(7)
Podemos haber empezado el calculo desde t dado el valor de y
t1
y la ecuacion 6 hubiera
sido:
y
t+j
=
j+1
y
t1
+
j
w
t
+
j1
w
t+1
+...w
t+j1
+w
t+j
(8)
Y el efecto de w
t
en y
t+j
, conocido como multiplicador dinamico sera:
y
t+j
w
t
=
j
(9)
Observamos que el multiplicador dinamico solo depende de la distancia en el tiempo j de
la variable y con la variable w. No depende del perodo o la fecha en s lo cual se cumple para
cualquier ecuacion en diferencias lineal.
Valores distintos de producen distintas respuestas dinamicas de y a w:
Comportamiento del multiplicador
0 < < 1 Decae geometricamente.
1 < < 0 Alterna valores (+) y (-).
> 1 Incrementa exponencialmente.
< 1 Oscila explosivamente.
Mientras que || < 1 el sistema sera estable, es decir, el efecto de cualquier cambio en w se
acabara en el tiempo. Si || > 1 el sistema sera inestable. El caso restante, cuando = 1 es un
caso interesante por analizar al cual se le dedicara un captulo exclusivamente. El multiplicador
dinamico en este caso sera:
y
t+j
w
t
= 1 (10)
El cual expresa un efecto permanente en y ante un cambio en w. No importa que tan lejos
en el tiempo haya ocurrido el cambio, valores muy distantes tienen importancia al explicar y.
Al multiplicador dinamico tambien se le conoce como funcion impulso-respuesta ya que
muestra el efecto de un cambio en w (impulso) en y (respuesta).
Hemos visto hasta ahora los efectos de cambios transitorios en la variable explicativa. Si
queremos cuanticar los efectos de cambios permanentes en 1 unidad de w la expresion sera:
y
t+j
w
t
+
y
t+j
w
t+1
+... +
y
t+j
w
t+j
=
j
+
j1
+... + + 1 (11)
5
Si || < 1, a el lmite de la expresi on anterior cuando j es:
lm
j
[
y
t+j
w
t
+
y
t+j
w
t+1
+... +
y
t+j
w
t+j
] = 1 + +
2
+...
=
1
1
1.1.2. Ecuaciones en Diferencia de Orden-p
Generalizando el caso visto anteriormente, hagamos que la variable y en el perodo t dependa
de sus p rezagos propios y de la variable contemporanea w
t
:
y
t
=
1
y
t1
+
2
y
t2
+... +
p
y
tp
+w
t
Resulta mas sencillo trabajar con un sistema de primer orden. Lo haremos en el vector
t
que se denira as:

t
=
_

_
y
t
y
t1
y
t2
.
.
.
y
tp+1
_

_
.
Asimismo, deniremos a la matriz F:
F =
_

1

2
. . .
p1

p
1 0 . . . 0 0
0 1 . . . 0 0
. . . . . . .
. . . . . . .
. . . . . . .
0 0 . . . 1 0
_

_
.
Finalmente, el vector v
t
:
v
t
=
_

_
w
t
0
0
.
.
.
0
_

_
.
As tenemos la ecuacion diferencial vectorial de primer orden:
6

t
= F
t1
+v
t
_

_
y
t
y
t1
y
t2
.
.
.
y
tp+1
_

_
=
_

1

2
. . .
p1

p
1 0 . . . 0 0
0 1 . . . 0 0
. . . . . . .
. . . . . . .
. . . . . . .
0 0 . . . 1 0
_

_
_

_
y
t1
y
t2
y
t3
.
.
.
y
tp
_

_
+
_

_
w
t
0
0
.
.
.
0
_

_
.
Notese que la primera ecuacion del sistema muestra el comportamiento que se asumio para
la variable y, las demas ecuaciones muestran las ecuaciones triviales y
tp+1
= y
tp+1
.
De la misma manera que para el sistema escalar de primer orden visto en la seccion anterior,
podemos encontrar el multiplicador dinamico conociendo el valor de para t = 1 y de v para
t = 0:

0
= F
1
+v
0

1
= F
0
+v
1
= F(F
1
+v
0
) +v
1
= F
2

1
+Fv
0
+v
1
Y procediendo recursivamente obtenemos:

t
= F
t+1

1
+F
t
v
0
+F
t1
v
1
+...Fv
t1
+v
t
En terminos de y v:
_

_
y
t
y
t1
y
t2
.
.
.
y
tp+1
_

_
= F
t+1
_

_
y
1
y
2
y
3
.
.
.
y
p
_

_
+F
t
_

_
w
0
0
0
.
.
.
0
_

_
+F
t1
_

_
w
1
0
0
.
.
.
0
_

_
+... +F
1
_

_
w
t1
0
0
.
.
.
0
_

_
+
_

_
w
t
0
0
.
.
.
0
_

_
.
Si denotamos por f
(t)
11
al elemento (1, 1) de la matriz F
t
, f
(t)
12
al elemento (1, 2) de la matriz
F
t
y as sucesivamente, entonces la primera ecuacion de la expresion matricial anterior establece:
y
t
= f
(t+1)
11
y
1
+f
(t+1)
12
y
2
+... +f
(t+1)
1p
y
p
+f
(t)
11
w
0
+f
(t1)
11
w
1
+... +f
(1)
11
w
t1
+w
t
Describiendose as el valor de y en el periodo t como funcion lineal de los p valores iniciales
de y: (y
1
, y
2
, ..., y
p
) y la historia de la variable w

para = 0, 1, ...t.
7
Mientras que en el caso de una ecuacion en diferencias de orden 1 se requera solo un va-
lor inicial y
1
, en el caso de una ecuacion en diferencias de orden p se requieren p valores iniciales.
Generalizando, tenemos:

t+j
= F
j+1

t1
+F
j
v
t
+F
j1
v
j+1
+...Fv
t+j1
+v
t+j
De donde:
y
t+j
= f
(j+1)
11
y
t1
+f
(j+1)
12
y
t2
+... +f
(j+1)
1p
y
tp
+f
(j)
11
w
t
+f
(j1)
11
w
t+1
+... +f
(1)
11
w
t+j1
+w
t+j
As, para una ecuacion en diferencias de primer orden, el multiplicador dinamico es:
y
t+j
w
t
= f
(j)
11
Donde f
(j+1)
11
denota el elemento (1, 1) de F
j
. Para j = 1 el multiplicador dinamico es
simplemente el coeciente que relaciona y
t
y y
t1
: 1:
y
t+1
w
t
=
1
Es util caracterizar al multiplicador dinamico
y
t+j
w
t
de manera sencilla, sabiendo que esta da-
do por el elemento (1, 1) de la matriz F
j
. Para dicha tarea usaremos los valores propios. Recor-
demos con el siguiente ejemplo. Supongamos que la ecuacion en diferencias que caracteriza el
comportamiento de y es de orden 2:
y
t
= 0,7y
t1
+ 0,4y
t2
+w
t
La matriz F en este caso sera:
F =
_
0,7 0,4
1 0
_
.
Los valores propios son los n umeros que cumplen:
|F I
2
| = 0
Para el ejemplo:
|
_
0,7 0,4
1 0
_

_
0
0
_
| = 0.
Resolviendo:
8
=

0,7 0,4
1

=
2
0,7 0,4 = 0.

1
=
0,7 +
_
(0,7)
2
4(1)(0,4)
2(1)

2
=
0,7
_
(0,7)
2
4(1)(0,4)
2(1)
Los valores propios o eigenvalores de la ecuacion en diferencias de orden dos son
1
= 1,073
y
2
= 0,373.
Para la matriz F denida en el caso de una ecuacion diferencial de orden p, los eigenvalores
satisfacen (dadas las caractersticas de la matriz):

p1

p2
...
p1

p
= 0
Solucion General de una Ecuacion en Diferencias de orden p con valores propios
distintos: Recordemos que si una matriz F de orden (pxp) tiene valores propios distintos,
entonces existe una matriz no singular T de orden (pxp) tal que se cumple:
F = TT
1
Donde es de orden (pxp):
=
_

1
0 0 . . . 0
0
2
0 . . . 0
. . . . . . .
. . . . . . .
. . . . . . .
0 0 0 . . .
p
_

_
.
De manera general, podemos caracterizar F
j
as:
F
j
= TT
1
xTT
1
x...xTT
1
F
j
= Txx(T
1
T)xx(T
1
T)x...xxT
1
F
j
= T
j
T
1
Donde:
9

j
=
_

j
1
0 0 . . . 0
0
j
2
0 . . . 0
. . . . . . .
. . . . . . .
. . . . . . .
0 0 0 . . .
j
p
_

_
.
Denotemos t
ij
al elemento ij esimo de la matriz T y t
ij
al elemento ij esimo de T
1
:
F
j
=
_

_
t
11
t
12
. . . t
1p
t
21
t
22
. . . t
2p
. . .
. . . . . .
. . .
t
p1
t
p2
. . . t
p
_

_
_

j
1
0 0 . . . 0
0
j
2
0 . . . 0
. . .
. . . . . .
. . .
0 0 0 . . .
j
p
_

_
_

_
t
11
t
12
. . . t
1p
t
21
t
22
. . . t
2p
. . .
. . . . . .
. . .
t
p1
t
p2
. . . t
p
_

_
.
El elemento (1, 1) de F
j
es:
f
(j)
11
= [t
11
t
11
]
j
1
+ [t
12
t
21
]
j
2
+... + [t
1p
t
p1
]
j
p
f
(j)
11
= c
1

j
1
+c
2

j
2
+... +c
p

j
p
Donde:
c
i
= [t
1i
t
i1
]
La suma de los c
i
tiene la siguiente interpretacion:
c
1
+c
2
+... +c
p
= [t
11
t
11
] + [t
12
t
21
] +... + [t
1p
t
p1
]
La expresion de la derecha es el elemento (1, 1) del resultado de T.T
1
. Como T.T
1
es la
identidad:
c
1
+c
2
+... +c
p
= 1
El multiplicador dinamico para una ecuacion en diferencias de orden p es:
y
t+j
w
t
= c
1

j
1
+c
2

j
2
+... +c
p

j
p
La ecuacion anterior muestra al multiplicador dinamico como una suma ponderada de todos
los eigenvalores a la potencia j. Podemos enunciar la siguiente proposicion: si los eigenvalores
de una matriz F son distintos, la magnitud c
i
puede calcularse:
10
c
i
=

p1
i

p
k=1,k=i
(
i

k
)
En resumen, si tenemos una ecuaci on en diferencias de orden p como la siguiente:
y
t+j
= f
(j+1)
11
y
t1
+f
(j+1)
12
y
t2
+...+f
(j+1)
1p
y
tp
+w
t+j
+
1
w
t+j1
+
2
w
t+j2
+...+
j1
w
t+1
+
j
w
t
El multiplicador dinamico:
y
t+j
w
t
=
j
Siendo
j
el elemento (1, 1) de la matriz F
j
:

j
= f
j
11
Una expresion para
j
se calcula con los eigenvalores de la matriz F. De ser distintos, el
multiplicador dinamico es:

j
= c
1

j
1
+c
2

j
2
+... +c
p

j
p
Solucion General de una Ecuacion en Diferencias de orden p con eigenvalores repe-
tidos: En el caso mas general para la ecuacion en diferencias, para el cual la matriz F tiene
eigenvalores repetidos y s < p vectores propios linealmente independientes, se trabaja con la
descomposicion de Jordan:
F = MJM
1
Siendo M una matriz de orden (pxp) y J:
J =
_

_
J
1
0 . . . 0
0 J
2
. . . 0
. . .
. . . . . .
. . .
0 0 . . . J
s
_

_
.
Con:
J
i
=
_

i
1 0 . . . 0 0
0
i
1 . . . 0 0
. . . . .
. . . . . . . .
. . . . .
0 0 0 . . .
i
1
0 0 0 . . . 0
i
_

_
.
11
Siendo
i
un eigenvalor de F. Reemplazando tenemos:
F
j
= MJ
j
M
1
Donde:
J =
_

_
J
j
1
0 . . . 0
0 J
j
2
. . . 0
. . .
. . . . . .
. . .
0 0 . . . J
j
s
_

_
.
Si J
i
es de dimension (n
i
xn
i
):
J
i
=
_

j
i
(
j
1
)
j1
i
(
j
2
)
j2
i
. . . (
j
n
i
1
)
jn
i
+1
i
0
j
i
(
j
1
)
j1
i
. . . (
j
n
i
2
)
jn
i
+2
i
. . . .
. . . . . . .
. . . .
0 0 0 . . .
j
i
_

_
.
Donde:
(
j
n
) =
_
j(j1)(j2)...(jn+1
n(n1)..,3,2,1
si j n
0 en otro caso
1.1.3. Ejercicios
Eigenvalores reales y menores que uno en valor absoluto: En este caso, el sistema es
estable. Consideremos la siguiente ecuacion en diferencias de segundo orden.
y
t
= 0,6y
t1
+ 0,2y
t2
+w
t
La matriz F en este caso sera:
F =
_
0,6 0,2
1 0
_
.
Los valores propios son los n umeros que cumplen:
|F I
2
| = 0
Para el ejemplo:
|
_
0,6 0,2
1 0
_

_
0
0
_
| = 0.
12
Resolviendo:
=

0,6 0,2
1

=
2
0,6 0,2 = 0.

1
=
0,6 +
_
(0,6)
2
+ 4(1)(0,2)
2(1)

2
=
0,6
_
(0,6)
2
4(1)(0,2)
2(1)
Los valores propios o eigenvalores de la ecuacion en diferencias de orden dos son
1
= 0,84
y
2
= 0,24.
c
1
=
1
/(
1

2
) = 0,778
c
2
=
2
/(
2

1
) = 0,222
El multiplicador dinamico es:
y
t+j
w
t
= c
1

j
1
+c
2

j
2
y
t+j
w
t
= 0,778 (0,84)
j
+ 0,222 (0,24)
j
Eigenvalores reales con al menos uno mayor que 1 en valor absoluto: En este caso,
el sistema es explosivo. Consideremos la siguiente ecuacion en diferencias de segundo orden.
y
t
= 0,7y
t1
+ 0,6y
t2
+w
t
La matriz F en este caso sera:
F =
_
0,7 0,6
1 0
_
.
Para el ejercicio:
|
_
0,7 0,6
1 0
_

_
0
0
_
| = 0.
Resolviendo:
=

0,7 0,6
1

=
2
0,7 0,6 = 0.
13

1
= 1,2

2
= 0,5
c
1
=
1
/(
1

2
) = 0,706
c
2
=
2
/(
2

1
) = 0,294
El multiplicador dinamico es:
y
t+j
w
t
= c
1

j
1
+c
2

j
2
y
t+j
w
t
= 0,706 (1,2)
j
+ 0,294 (0,5)
j
Eigenvalores complejos: Calcular el multiplicador dinamico para la siguiente ecuacion en
diferencias.
y
t
= 0,5y
t1
0,8y
t2
+w
t
Solucion de una ecuacion en diferencias de segundo orden: Realizar la solucion general
y expresarla gracamente en el plano con ejes
1
y
2
.
14
1.2. Operadores de Rezago
En la seccion precedente se trabajo con ecuaciones en diferencia lineales usando algebra li-
neal. Ahora se mostraran los mismos resultados usando la notacion propia de las series de tiempo.
Una serie de tiempo es un grupo de observaciones indexadas de acuerdo al perodo. Usual-
mente se denota que los datos comienzan en t = 1 y terminan en t = T. Asimismo, esta muestra
suele imaginarsele contenida en un segmento doblemente innito, de la siguiente manera:
{y
t
}

t=
= {..., y
1
, y
0
, y
1
, y
2
, ..., y
T
, y
T+1
, y
T+2
, ...}
Una serie de tiempo {y
t
}

t=
es identicada describiendo el elemento tesimo. Por ejemplo,
una tendencia en el tiempo asigna el valor del perodo a la serie de tiempo:
y
t
= t
Otro ejemplo es la serie que toma el valor de una constante independientemente del perodo:
y
t
= c
Quizas la mas importante en el desarrollo del curso es el ruido blanco Gaussiano:
y
t
=
t
{
t
}

t=
i.i.d.N(0,
2
)
Un operador, en el presente contexto, es aquel que transforma una o un grupo de series de
tiempo en una nueva serie de tiempo. La entrada o input para el operador sera una serie o un
grupo de las mismas y la salida u output sera una nueva secuencia {y
t
}

t=
. Como ejemplo
tenemos el operador multiplicacion:
y
t
= x
t
La expresion anterior expresa la multiplicacion de un escalar por un vector de innitos
elementos (para cada perodo t), con las reglas del algebra. Otro ejemplo es el operador adicion:
y
t
= x
t
+w
t
Otra vez, debemos ver la adicion como una suma de dos vectores, siguiendo las reglas del
algebra lineal. Recordemos el concepto de una transformacion lineal para expresar la propiedad
de linealidad de los dos operadores mencionados anteriormente:
Sean V y W espacios vectoriales reales, una transformacion lineal T : V W es una
funcion que asigna a cada vector vV un vector unico TvW que satisface, siendo u y v en V y
escalar:
15
T(u +v) = Tu +Tv
T(v) = Tv
Se muestra arriba la propiedad distributiva y conmutativa respectivamente. Las transforma-
ciones lineales con frecuencia se denominan operadores lineales.
Por ejemplo, el resultado de multiplicar dos series de tiempo por un escalar y luego sumarlas
es el mismo al resultado de sumarlas y luego multiplicarlas por el mismo escalar:
x
t
+w
t
= (x
t
+w
t
)
Un operador muy util para el tratamiento de las series de tiempo es el operador de rezagos
denotado por la letra L. Al aplicar dicho operador a una serie {x
t
}

t=
obtenemos:
Lx
t
= x
t1
Podemos aplicar el operador de rezagos a una serie de tiempo un n umero entero de veces:
L
k
x
t
= x
tk
El operador de rezagos es un operador lineal. Aterricemos un poco el asunto algebraico con
los siguientes ejemplos. Sea la serie {x
t
}

t=
:
i 0,5Lx
t
= L0,5x
t
= 0,5x
t1
ii (0,7L + 0,3L
2
)x
t
= 0,7Lx
t
+ 0,3L
2
x
t
= 0,7x
t1
+ 0,3x
t2
iii (1 0,2L)(1 0,4L)x
t
= (1 0,4L 0,2L + 0,08L
2
)x
t
= (1 0,6L + 0,08L
2
)x
t
= x
t
0,6x
t1
+ 0,08x
t2
A la expresion (
1
L +
2
L
2
+ ... +
k
L
k
) se le conoce como polinomio de rezagos que a
diferencia de un polinomio referido a un escalar cualquiera, se aplica a una serie {x
t
}

t=
para
obtener otra serie {y
t
}

t=
.
Imaginemos que una serie de tiempo y
t
se comporta de la siguiente manera:
y
t
=
1
y
t1
+
2
y
t2
+... +
p
y
tp
+w
t
Podemos expresarlo en terminos de operadores de rezagos:
(1
1
L
2
L
2
...
p
L
p
)y
t
= w
t
Factorizando la expresion de la izquierda:
(1
1
L
2
L
2
...
p
L
p
) = (1
1
L)(1
2
L)...(1
p
L)
16
Lo anterior es lo mismo que calcular los (
1
,
2
, ...,
p
) tal que la siguiente igualdad se cumpla:
(1 z
1
L z
2
L
2
... z
p
L
p
) = (1 z
1
L)(1 z
2
L)...(1 z
p
L)
Multiplicaremos lo anterior por z
p
y deniremos z
1
:
(z
p

1
z
p+1

2
z
p+2
...
p
) = z
1
(1
1
z) z
1
(1
2
z) ... z
1
(1
p
z)
(
1

p2
...
p
) = (
1
)(
2
)...(
p
)
Si =
i
para cualquier i = 1, 2, ..., p la parte derecha de la expresion anterior se hace cero.
Por tanto, los valores (
1
,
2
, ...,
p
) deben hacer cero a la parte izquierda de igual menara:

1

p2
...
p1

p
= 0
La ecuacion anterior es identica a la ecuacion del calculo de los eigenvalores de la matriz F
de la seccion anterior. Entonces, al factorizar un polinomio de rezagos de orden p:
(1
1
L
2
L
2
...
p
L
p
) = (1
1
L)(1
2
L)...(1
p
L)
El calculo resulta el mismo que hallar los eigenvalores de la matriz F de la ecuacion vectorial
en diferencias de primer orden. Los eigenvalores de dicha matriz (
1
,
2
, ...,
p
) dan la solucion
de la ecuacion de factorizacion del polinomio de rezagos.
La ecuacion en diferencias es estable si los valores propios caen dentro del crculo unitario o,
lo que es lo mismo, si las races de la siguiente ecuacion caen fuera del crculo unitario:
(1
1
z
2
z
2
...
p
z
p
) = 0
1.2.1. Ejercicios
17
2. TD2: Procesos Estacionarios ARMA(p,q), prediccion
2.1. Procesos Estacionarios ARMA(p,q)
2.1.1. Expectativas, Estacionariedad y Ergodicidad
Expectativas y Procesos Estocasticos Consideremos una coleccion de T variables inde-
pendientes e identicamente distribuidas
t
:
{
1
,
2
, ...,
T
}

t
N(0,
2
)
A lo anterior se le conoce como una muestra de tama no T de un proceso ruido blanco
Gaussiano.
La muestra anterior representa a T n umeros en particular, los cuales son solo una de las
posibles realizaciones del proceso que genera los datos.
A un as veamos el proceso como una secuencia innita de una variable y:
{y
t
}

t=
= {..., y
1
, y
0
, y
1
, y
2
, ..., y
T
, y
T+1
, ...}
Dicha secuencia innita {y
t
}

t=
es una unica realizacion de un proceso de series de
tiempo.
Para esclarecer esto, imaginemos un conjunto de I computadoras que generan la secuencia
{y
(I)
t
}

t=
y seleccionemos imaginariamente la observacion t de cada secuencia I:
{y
(1)
t
, y
(2)
t
, ..., y
(I)
t
}
Lo anterior sera descrito como una muestra de I realizaciones de la variable aleatoria Y
t
.
Para el caso del proceso ruido blanco Gaussiano, la densidad no-condicional, f
Y
t
(y
t
), esta dada
por:
f
Y
t
(y
t
) =
1

2
exp[
y
2
t
2
2
]
La expectativa de la t esima observacion de una serie de tiempo es la media de su distri-
bucion de probabilidad, siempre que exista:
E(Y
t
) =
_

y
t
f
Y
t
(y
t
)dy
t
Visto tambien como la probabilidad lmite de la media conjunta:
E(Y
t
) = plim
I
(1/I)
I

i=1
Y
(i)
t
Veamos un par de ejemplos:
18
- Si {Y
t
}
nf
t=nf
es la suma de una constante y un ruido blanco Gaussiano {
t
}
nf
t=nf
:
Y
t
= +
t
E(Y
t
) = +E(
t
) =
- Si Y
t
es la suma de una tendencia mas un ruido blanco:
Y
t
= t +
t
E(Y
t
) = t (12)
Tambien se le conoce como media no-condicional y se denota:
E(Y
t
) =
t
La varianza se dene similarmente como:

0t
= E(Y
t

t
)
2
=
_

(y
t

t
)
2
f
Y
t
(y
t
)dy
t
Por ejemplo, para el proceso denido como la suma de una tendencia y un ruido blanco
Gaussiano:

0t
= E(Y
t
t)
2
= E(
2
t
) =
2
Autocovarianza Recordemos la expresion para la covarianza entre dos variables X e Y :
Cov(X, Y ) = E(X
X
)(Y
Y
)
Deniremos a la autocovarianza como la covarianza de la variable Y
t
con su propio rezago.
La autocovarianza de orden 0 es la varianza denotada anteriormente por
0t
. La autocovarianza

jt
puede ser vista como el elemento (1, j +1) de la matriz de varianzas y covarianzas del vector
x
t
, cuyos componentes son las j + 1 m as recientes de la variable y hasta la fecha t:
x
(1)
t
=
_

_
y
(1)
t
y
(1)
t1
y
(1)
t2
.
.
.
y
(1)
tj
_

_
Para el proceso denido como la suma de una constante mas un ruido blanco Gaussiano, las
autocovarianzas son 0 cuando j = 0 ya que
t
i.i.d.N(0,
2
):

jt
= E(Y
t
)(Y
tj
) = E(
t

tj
) = 0
19
Estacionariedad debil Si la media y las autocovarianzas de un proceso Y
t
no dependen del
tiempo, se dice que el proceso es estacionario debilmente o estacionario en covarianzas:
E(Y
t
) = para todo t
E(Y
t
)(Y
tj
) =
j
para todo t y cualquier j
Si un proceso es estacionario debilmente, la covarianza entre Y
t
y Y
tj
solo depende de la
distancia de separacion de las observaciones j, mas no de t.
Para un proceso estacionario debilmente se cumple que
j
es igual a
j
.
Estacionariedad fuerte Un proceso Y
t
es estrictamente estacionario si las distribuciones
de probabilidad de cada Y
t
solo dependen de la distancia entre Y
t
y Y
tj
y no del tiempo t.
Dicho de otro modo, si todos sus momentos son independientes del tiempo.
2.1.2. Ruido blanco
La base de todos los procesos que veremos mas adelante es la secuencia {
t
}

t=
cuyos
elementos tienen media cero y varianza
2
, ademas los

s no estan correlacionados en el tiempo:


E(
t
) = 0
E(
2
t
) =
2
E(
t

) = 0
Siendo t = .
En algunas ocasiones remplazamos la ultima expresion con una un poco mas fuerte:

t
,

independientes para t =
De cumplirse que sean independientes, se garantiza que no esten correlacionados, sin embar-
go, lo contrario no es cierto.
Al proceso que cumple todas las condiciones anteriores se le conoce como proceso ruido
blanco independiente.
Si adicionalmente se cumple:

t
N(0,
2
)
Obtenemos el ruido blanco Gaussiano.
20
2.1.3. Procesos ARMA(p,q)
Los procesos ARMA(p,q) se llaman as porque poseen una parte autorregresiva (autoregres-
sive AR) y una parte de medias moviles (moving average MA). Los parametros p y q indican el
orden de la parte autorregresiva y de medias moviles respectivamente. Por ejemplo, siendo un
ruido blanco, el proceso:
y
t
=
1
y
t1
+
2
y
t2
+
t
+
t1
Es un ARMA(2,1). De otra forma, los parametros p y q expresan el orden de los polinomios
de rezagos de la parte AR y MA respectivamente:
y
t

1
y
t1

2
y
t2
=
t
+
t1
Factorizando y usando el operador de rezagos:
(1
1
L
2
L
2
)y
t
= (1 +L)
t
En general, un modelo ARMA(p,q):
(L)y
t
= (L)
t

t
i.i.d(0,
2
)
(L) = 1
1
L ...
p
L
p
(L) = 1 +
1
L +... +
q
L
q
Pasaremos a analizar algunas caractersticas de los procesos ARMA(p,q) dados ciertos valores
de los parametros. Previamente, es conveniente recordar dos conceptos:
Funcion de Autocovarianzas

j
= E(y
t
)(y
tj
)

0
=
2
|
j
| <
2

j
=
j
Funcion de Autocorrelacion

j
=

j

0
= 1
|
j
| < 1

j
=
j
Para simplicar consideremos que el intercepto = 0 (no es problema encontrarnos con
= 0, veremos ejemplos mas adelante).
21
ARMA(0,0) Ruido blanco, es estacionario.
y
t
=
t
(L) = 1
(L) = 1
La funcion de autocovarianzas:

j
= E(y
t
.y
tj
) = E(
t
.
tj
)
j = 0 :
0
= E(
t
.
t
) =
2
j > 0 :
j
= E(
t
.
tj
) = 0
La funcion de autocorrelacion:

0
= 1

j
=

j

0
= 0
ARMA(1,0)=AR(1)
y
t
=
1
y
t1
+
t
y
t

1
y
t1
=
t
(L) = 1
1
L
(L) = 1
Para analizar la estacionariedad analizamos el polinomio de rezagos de la parte AR:
f() = 1
1
= 0

1
= 1
= |
1

1
|> 1 para que sea estacionario
Hemos analizado la raz del polinomio de rezagos de la parte AR reemplazando al ope-
rador de rezagos por , valor que debe caer fuera del crculo unitario para que el proceso sea
estacionario. Es lo mismo analizar la raz del polinomio inverso de rezagos, que debera caer
dentro del crculo unitario para que el proceso sea estacionario, as:
f() =
1
= 0
= |
1
|< 1 para que sea estacionario
22
Queda en manos del estudiante usar la forma que le parezca del polinomio de rezagos cuyas
races deben calcularse para determinar la estacionariedad de un cierto proceso.
Siendo un proceso AR(1) una ecuacion en diferencias de primer orden, la solucion mediante
sustitucion recursiva es:
y
1
=
1
y
0
+
1
y
2
=
1
(
1
y
0
+
1
) +
2
y
2
=
2
1
y
0
+
1

1
+
2
y
t
=
t
1
y
0
+
t1

s=1

s
1

ts
Se puede apreciar en la anterior expresion, que de cumplirse |
1
|< 1, el valor inicial y
0
se
diluye en el tiempo al igual que la participacion de los choques en el valor de y
t
.
23
3. TD3: Teora Asintotica y Modelos de Regresion Lineal
3.1. Repaso de Teora Asint otica
3.1.1. Lmites de Secuencias Determinsticas
Supongamos que {c
t
}

T=1
denota una secuencia de n umeros. La secuencia converge a c si
para cualquier > 0, existe un N tal que |c
T
c| < siempre que T N, dicho de otro modo,
c
T
estara tan cerca como se quiera de c si T es sucientemente grande. Esto se denota:
lm
T
c
T
= c
Como ejemplo, c
T
= 1/T denota la secuencia {1,
1
2
,
1
3
, ...}, para la cual:
lm
T
c
T
= 0 = c
Una secuencia determinstica de matrices de orden (mxn) dada por {C
T
}

T=1
converge a C
si cada elemento de C
T
converge al correspondiente elemento de C.
3.1.2. Convergencia en Probabilidad
Consideremos una secuencia de variables aleatorias {X
T
}

T=1
. La secuencia converge en pro-
babilidad a c si para cualquier > 0 y cualquier > 0 existe un N tal que, para todo T N:
P{|X
T
c| > } <
Dicho de otro modo, si vamos lo sucientemente lejos en la secuencia, la probabilidad de que
X
T
diera de c en algo mas que puede hacerse arbitrariamente mas peque na variando .
De cumplirse la expresion anterior, el n umero c se conoce como el lmite probabilstico o
plim de la secuencia {X
T
}:
plimX
T
= c
O, de forma equivalente:
X
T

p
c
Si una secuencia determinstica {c
T
}

T=1
converge a c, diremos tambien que converge en pro-
babilidad a c.
Un ejemplo interesante es el siguiente: Supongamos que tenemos una muestra de T observa-
ciones de una variable aleatoria {Y
1
, Y
2
, ..., Y
T
}. Consideremos la media muestral:
Y
T
= (1/T)
T

t=1
Y
T
24
Como un estimador de la media poblacional:

T
= Y
T
Cabe recalcar que el subndice T hace referencia a una muestra de tama no T. Nos intere-
sara el comportamiento del estimador a medida que T se hace muy grande. As, estaremos
interesados en la secuencia {
T
}

T=1
. Cuando el plim de una secuencia de estimadores, tales co-
mo es igual al parametro poblacional ( en este caso), se dice que el estimador es consistente.
Si un estimador es consistente, entonces existe una muestra sucientemente grande que
asegura con probabilidad muy alta que el estimador estara dentro de las bandas de conanza
deseadas alrededor del verdadero valor (poblacional).
El procedimiento que se muestra a continuacion es muy util para calcular los plims.
Proposicion Supongamos que X
T
denota una secuencia de (nx1) vectores de componen-
tes aleatorios con plim igual a c, asimismo, supongamos que g(c) es una funcion vectorial,
g : R
n
R
m
, donde g(.) es continua y no depende de T. Luego, g(X
T
)
p
g(c)
La idea detras de la proposicion anterior es que, dado que g(.) es continua, el valor de g(X
T
)
sera muy cercano al valor de g(c) siendo X
T
cercano a c. Escogiendo un valor sucientemente
grande de T, la probabilidad de que X
T
sea cercano a c (y as, que g(X
T
) sea cercano a g(c))
puede ser tan cercana a uno como se desee.
Notese que g(X
T
) depende del valor de X
T
pero no puede depender del ndice T.
Ejemplo Si X
1T

p
c
1
y X
2T

p
c
2
, entonces (X
1T
+ X
2T
)
p
(c
1
+ c
2
). Lo anterior se
cumple dado que la funcion g(X
1T
, X
2T
) = (X
1T
+X
2T
) es continua en (X
1T
, X
2T
).
3.1.3. Convergencia en Media Cuadratica y la Desigualdad de Chebyshev
Una condicion mas fuerte que la convergencia en probabilidad es la convergencia en media
cuadratica. La secuencia aleatoria X
T
converge en media cuadratica si, para todo > 0 existe
un N tal que para todo T N:
E(X
T
c)
2
<
Se denota as:
X
T

m.s.
c
25
Proposici on (Desigualdad de Chebyshev Generalizada Supongamos que X es una va-
riable aleatoria con E(|X|
r
) nita para alg un r > 0. Luego, para cualquier > 0 y cualquier
valor de c:
P{|X c| > }
E|X c|
r

r
La desigualdad anterior implica que si X
T

m.s.
c, luego X
T

p
c.

Esto se debe a que si
X
T

m.s.
c, entonces para cualquier > 0 y > 0, existe un N tal que E(X
T
c)
2
<
2
para
todo T N. Esto garantiza que:
E(X
T
c)
2

2
<
para todo T N. De la desigualdad de Chebyshev, ello tambien implica que:
P{|X c| > }
para todo T N, o tambien que X
T

p
c
3.1.4. Ley de Grandes N umeros para Variables i.i.d.
Consideremos el comportamiento de la media muestral Y
T
= (1/T)

T
t=1
Y
t
donde {Y
t
} es
i.i.d. con media y varianza
2
. En este caso, la esperanza de Y
T
es y la varianza:
E(Y
T
)
2
= (1/T
2
)V ar(
T

t=1
Y
t
) = (1/T
2
)
T

t=1
V ar(Y
t
) =
2
/T
Dado que
2
/T 0 a medida que T , esto signica que Y
T

m.s.
, implicando
tambien que Y
T

p
. A medida que T se hace mas grande, la funcion de densidad f
Y
T
(y
T
) se
concentra cada vez mas en un pico centrado en .
El resultado de que la media muestral sea un estimador consistente de la media poblacional
se conoce como la Ley de Grandes N umeros. Ha sido probada arriba para el caso especial
de variables i.i.d. con varianza nita.
26
3.1.5. Convergencia en Distribucion
Supongamos que {X
T
}

T=1
es una secuencia de variables aleatorias y supongamos que F
x
T
(x)
denota una funcion de distribucion acumulada de X
T
. Supongamos que existe una distribucion
acumulada F
x
(x) tal que:
lm
T
F
x
T
(x) = F
x
(x)
para cualquier valor de x para el cual F
x
(.) es continua. Luego, X
T
converge en distribucion
a X, se denota:
X
T

L
X
Cuando F
x
(x) tiene una forma conocida, como la funcion de distribucion acumulada para
N(,
2
), se puede escribir equivalentemente:
X
T

L
N(,
2
)
La denicion no cambia si el escalar X
T
se reemplaza con un vector de orden (nx1).
3.1.6. Teorema del Lmite Central
El Teorema del Lmite Central, en su forma Lindeberg-Levy, demuestra que la media de una
secuencia {X
t
}

t=1
de variables aleatorias i.i.d., con E(X
t
) = , V ar(X
t
) =
2
> 0, restada
de E(X
t
) y todo multiplicado por el factor T
1/2
, donde T es el tama no muestral, converge en
distribucion a una normal:
T
1/2
(X )
L
N(0,
2
)
Alternativamente:
T
1/2
(X )


L
N(0, 1)
27
4. TD4: Modelos de Series de Tiempo no Estacionarias: Proce-
sos con Tendencia Determinstica
28
5. TD5: Procesos con Raz Unitaria
29
6. TD6: SVAR
6.1. Series de Tiempo Multivariadas
Considere n variables de series de tiempo {y
1t
}, ..., {y
nt
}. Una serie de tiempo multivariada
es el vector de series de tiempo de orden (nx1) conocido como {Y
t
} donde el elemento de la la
i-esima de {Y
t
} es {y
it
}. Es decir, para cualquier perodo t, Y
t
= (y
1t
, ..., y
nt
)

.
El analisis multivariado de las series de tiempo se usa cuando se quiere explicar las interac-
ciones y co-movimientos entre un grupo de variables.
Consumo e ingreso.
Precios de activos y dividendos.
Tipos de cambio forward y spot.
Tasa de interes, crecimiento del dinero e inacion.
Stock y Watson proponen a los macroeconometristas cuatro cosas para hacer con las series
de tiempo multivariadas:
1. Describir y resumir los datos macroeconomica.
2. Hacer predicciones macroeconomicas.
3. Cuanticar lo que sabemos o no acerca de la estructura de la economa.
4. Asesorar a los policymakersmacroeconomicos.
6.2. Series de Tiempo Multivariadas Estacionarias y Erg odicas
Una serie de tiempo multivariada Y
t
es estacionaria en covarianzas y ergodica si todas las
series que la componen son estacionarias y ergodicas.
E[Y
t
] = = (
1
, ...,
n
)

V ar(Y
t
) =
0
= E[(Y
t
)(Y
t
)

]
=
_

_
var(y
1t
) cov(y
1t
, y
2t
) . . . cov(y
1t
, y
nt
)
cov(y
2t
, y
1t
) var(y
2t
) . . . cov(y
2t
, y
nt
)
. . . .
. . . .
. . . .
cov(y
nt
, y
1t
) cov(y
nt
, y
2t
) . . . var(y
nt
)
_

_
.
La matriz de correlacion de Y
t
es la matriz de orden (nxn):
30
corr(Y
t
) = R
0
= D
1

0
D
1
Donde D es una matriz diagonal de orden (nxn) con elemento j-esimo (
0
jj
)
1/2
= var(y
jt
)
1/2
.
Los parametros ,
0
y R
0
son estimados con los datos (Y
1
, ..., Y
T
) usando los momentos
muestrales:
Y =
1
T
T

t=1
Y
t

p
E[Y
t
] =

0
=
1
T
T

t=1
(Y
t
Y )(Y
t
Y )


p
V ar(Y
t
) =
0

R
0
=

D
1

0

D
1

p
corr(Y
t
) = R
0
Donde

D es la matriz diagonal de orden (nxn) con las desviaciones estandar de y
jt
a lo largo
de la diagonal. El teorema de ergodicidad justica la convergencia de los momentos muestrales
a sus contrapartes poblacionales.
6.3. Matrices de Covarianza y Correlacion Cruzada
Con una serie de tiempo multivariada Y
t
cada componente tiene autocovarianzas y autocorre-
laciones pero tambien las hay cruzadas entre todos los componentes posibles. Las autocovarianzas
y autocorrelaciones de y
tj
para j = 1, ..., n estan denidas:

k
jj
= cov(y
jt
, y
jtk
),

k
jj
= corr(y
jt
, y
jtk
) =

k
jj

0
jj
Los cuales son simetricos en k:
k
jj
=
k
jj
,
k
jj
=
k
jj
.
Las covarianzas cruzadas y las correlaciones cruzadas se denen como:

k
ij
= cov(y
it
, y
jtk
),

k
ij
= corr(y
it
, y
jtk
) =

k
ij
_

0
ii

0
jj
y no son necesariamente simetricas respecto a k. En general:

k
ij
= cov(y
it
, y
jtk
) = cov(y
it
, y
jt+k
)
= cov(y
jt
, y
itk
) =
k
ij
31
Si
k
ij
= 0 para alg un k > 0 entonces se dice que y
jt
conduce o gua a y
it
.
Si
k
ij
= 0 para alg un k > 0 entonces se dice que y
it
conduce o gua a y
jt
.
Es posible que ambas y
it
y y
jt
se guien entre s. En este caso, se dice que hay un feedback
entre las dos series.
Todas las covarianzas cruzadas y correlaciones de orden k estan contenidas en la matriz de
orden (nxn):

k
= E[(Y
t
)((Y
tk
)

] =
=
_

_
cov(y
1t
, y
1tk
) cov(y
1t
, y
2tk
) . . . cov(y
1t
, y
ntk
)
cov(y
2t
, y
1tk
) cov(y
2t
, y
2tk
) . . . cov(y
2t
, y
ntk
)
. . . .
. . . .
. . . .
cov(y
nt
, y
1tk
) cov(y
nt
, y
2tk
) . . . cov(y
nt
, y
ntk
)
_

_
.
R
k
= D
1

k
D
1
Las matrices
k
y R
k
no son simetricas en k pero es facil mostrar que
k
=

k
y R
k
= R

k
.
Las matrices
k
y R
k
son estimadas con la muestra (Y
1
, ..., Y
T
) usando:

k
=
1
T
T

t=k+1
(Y
t
Y )(Y
tk
Y )

R
k
=

D
1

k

D
1
(13)
6.4. Representaci on de Wold Multivariada
Toda serie de tiempo multivariada estacionaria en covarianzas tiene una representacion de
Wold de la forma:
Y
t
= +
t
+
1

t1
+
2

t2
+...
= +

k=0

tk

0
= I
n

t
WN(0, )

k
es una matriz de orden (nxn) con elemento (i, j) :
k
ij
. Usando la notacion de operadores
de rezago, la representacion de Wold es:
32
Y
t
= + (L)
t
(L) =

k=0

k
L
k
Los momentos de Y
t
estan dados por:
E[Y
t
] = , V ar(Y
t
) =

k=0

k
6.5. Varianza de Largo Plazo
Supongamos que Y
t
sea un vector (nx1) estacionario y ergodico de series de tiempo con
E[Y
t
] = . El teorema del lmite central de Anderson para procesos estacionarios y ergodicos
establece:

T(Y )
d
N(0,

j=

j
)
o
Y
A
N(,
1
T

j=

j
)
Por lo tanto, la varianza de largo plazo de Y
t
es T veces la varianza asintotica de Y :
V LP(Y
t
) = T.V arA(Y ) =

j=

j
Dado que
j
=

j
, V LP(Y
t
) puede ser expresada alternativamente como:
V LP(Y
t
) =
0
+

j=1
(
j
+
j
)
Usando la respresentacion de Wold de Y
t
puede demostrarse que:
V LP(Y
t
) = (1)(1)

Donde (1) =

k=0

k
.
33
6.6. Estimacion no parametrica de la varianza de largo plazo
Una estimacion consistente de la V LP(Y
t
) puede ser calculada usando metodos no parametri-
cos. Un estimador popular es el estimador de autocovarianzas ponderado de Newey-West.

V LP
NW
(Y
t
) =

0
+
M
T

j=1

j,T
.(

j
+

j
)
Donde
j,T
son ponderadores cuya suma es la unidad y M
T
es un parametro de truncamiento
de rezago que satisface M
T
= O(T
1/3
). Usualmente, se usan los ponderadores de Bartlett:

Bartlett
j,T
= 1
j
M
T
+ 1
6.7. Modelos de Vectores Autorregresivos
El modelo de vectores autorregresivos (VAR) es uno de los mas exitosos, exibles y sencillos
para ser usados en el analisis de series de tiempo multivariadas.
Se volvieron famosos luego de la publicacion de Sims en 1980: Macroeconomic and
Reality.
Es una extension natural de un modelo autorregresivo univariado a series de tiempo dinami-
cas y multivariadas.
Se ha comprobado que es muy util para describir el comportamiento dinamico de series de
tiempo economicas y nancieras y su pronostico.
A menudo proporciona mejores pronosticos que los modelos de series de tiempo univariados
y elaboran modelos de ecuaciones simultaneas basados en la teora.
Son usados para inferencia estructural y analisis de poltica. En el analisis estructural,
ciertos supuestos acerca de la estructura causal de los datos son impuestos al hacer in-
vestigacion y los impactos causales resultantes de choques inesperados o innovaciones de
variables especicadas en otras variables son resumidos. Estos impactos causales son usual-
mente resumidos con funciones de impulso respuesta y la varianza del error de pronostico.
6.8. El Modelo VAR Estaciomario
Supongamos que Y
t
= (y
1t
, y
2t
, ..., y
nt
)

denota un vector (nx1) de series de tiempo. El modelo


basico con p-rezagos VAR(p) tiene la forma:
Y
t
= c +
1
Y
t1
+
2
Y
t2
+... +
p
Y
tp
+
t

t
WN(0, )
34
Ejemplo: VAR(2) bivariado
_
y
1t
y
2t
_
=
_
c
1
c
2
_
+
_

1
11

1
12

1
21

1
22
_ _
y
1t1
y
2t1
_
+
_

2
11

2
12

2
21

2
22
_ _
y
1t2
y
2t2
_
+
_

1t

2t
_
o
y
1t
= c
1
+
1
11
y
1t1
+
1
12
y
2t1
+
2
11
y
1t2
+
2
12
y
2t2
+
1t
y
2t
= c
2
+
1
21
y
1t1
+
1
22
y
2t1
+
2
21
y
1t2
+
2
22
y
2t2
+
1t
Donde cov(
1t
,
2t
) =
12
para t = s y 0 en otro caso.
Comentarios
Cada ecuacion tiene los mismos valores rezagados de los regresores de y
1t
y y
2t
.
La endogeneidad se evita usando los valores rezagados de y
1t
y y
2t
.
El modelo VAR(p) es una modelo de regresion aparentemente no relacionada (SUR, por
sus siglas en ingles) con variables rezagadas y terminos determinsticos como regresores
comunes.
Usando operadores de rezago, el VAR(p) se escribe:
(L)Y
t
= c +
t
(L) = I
n

1
L
2
L
2
...
p
L
p
El modelo VAR(p) es estable si las races de:
det(I
n

1
z
2
z
2
...
p
z
p
) = 0
caen fuera del crculo unitario complejo (tienen modulo mayor que uno) o equivalentemente
si los eigenvalores de la matriz:
F =
_

1

2
. . .
n
I
n
0 . . . 0
0 I
n
. . . 0
. . . .
. . . .
. . . .
0 0 . . I
n
0
_

_
tienen modulo menor que uno. Un proceso VAR(p) estable es estacionario y ergodico si tiene
medias y autocovarianzas invariables en el tiempo.
35
Ejemplo: Estabilidad de un modelo VAR(1) bivariado:
Y
t
= Y
t1
+t
_
y
1t
y
2t
_
=
_

1
11

1
12

1
21

1
22
_ _
y
1t1
y
2t1
_
+
_

1t

2t
_
Luego, det(I
n
z) = 0:
(1
11
z)(1
22
z)
12

21
z
2
= 0
La condicion de estabilidad involucra los terminos cruzados
12
y
21
.
Si pi
12
=
21
= 0 (VAR diagonal), entonces la condicion de estabilidad bivariada se reduce
a condiciones de estabilidad univariadas para cada ecuacion.
Si Y
t
es estacionario en covarianzas, entonces la media incondicional esta dada por:
= (I
n

1
...
p
)
1
c
La forma ajustada a la media del VAR(p) es entonces:
Y
t
=
1
(Y
t1
) +
2
(Y
t2
) +... +
p
(Y
tp
) +
t
El modelo VAR(p) basico puede ser muy restrictivo para representar sucientemente las
principales caractersticas de la data. La forma general del modelo VAR(p) con terminos deter-
minsticos y variables exogenas esta dado por:
Y
t
=
1
Y
t1
+
2
Y
t2
+... +
p
Y
tp
+ D
t
+GX
t
+
t
D
t
= terminos determinsticos
X
t
= variables exogenas (E[X
t

t
] = 0
6.9. Representaci on de Wold
Considere el modelo VAR(p) estacionario:
(L)Y
t
= c +
t
(L) = I
n

1
L ...
p
L
p
Dado que Y
t
es estacionario, (L)
1
existe, entonces:
36
Y
t
= (L)
1
c + (L)
1

t
= +

k=0

tk

0
= I
n
lm
k

k
= 0
Notese que:
(L)
1
= (L) =

k=0

k
L
k
Los coecientes
k
pueden ser calculados con los coecientes de Pi
k
resolviendo:
(L)(L) = I
n
Lo cual implica:

1
=
1

2
=
1

2
+
2
...

s
=
1

s1
+... +
p

sp
Dado que (L)
1
= (L), la varianza de largo plazo para Y
t
tiene la forma:
LRV
V AR
(Y
t
) = (1)(1)

= (1)
1
(1)
1

= (I
n

1
...
p
)
1
(I
n

1
...
p
)
1

6.10. Estimacion
Asumamos que el modelo VAR(p) es estacionario en covarianzas y no hay restricciones en
los parametros del modelo. En notacion SUR cada ecuacion en el modelo VAR(p) puede ser
escrita:
y
i
= Z
i
+e
i
, i = 1, ..., n
y
i
es un vector (Tx1) de observaciones de la i-esima ecuacion.
Z es una matriz (Txk) con la la j-esima dada por Z

t
= (1, Y

t1
, ..., Y

tp
).
k = np + 1
37

i
es un vector (kx1) de parametros y e
i
es el error (Tx1) con matriz de covarianzas
2
i
I
T
.
Dado que el VAR(p) esta en la forma de un modelo SUR donde cada ecuacion tiene las
mismas variables explicativas, cada ecuacion debe ser estimada separadamente usando MCO sin
perder la eciencia en relacion a los MCG. Pongamos:

= [
1
, ...,
n
]
que denote a la matriz (kxn) de coecientes MCO para las n ecuaciones. Ahora pongamos:
vec(

) =
_

_

.
.
.

n
_

_
Bajo supuestos estandar como el comportamiento estacionario y ergodico de los modelos
VAR (vease Hamilton 1994), vec(

) es consistente y tiene distribucion normal asintotica con


matriz de covarianzas asintotica:
avar(vec(

)) =

(Z

Z)
1
Donde:

=
1
T k
T

t=1

t

t


t
= Y
t

Z
t
6.11. Seleccion de la longitud del rezago
La longitud del rezago para el modelo VAR(p) puede ser determinada utilizando un modelo
de criterio de seleccion. La aproximacion general es ajustar los modelos VAR(p) con ordenes
p = 0, ..., p
max
y elegir el valor de p que minimice alg un modelo de criterio de seleccion.
MSC(p) = ln|(p)| +c
T
.(n, p)
(p) = T
1

T
t=1

t

t

c
T
= funcion del tama no de muestra
(n, p) = funcion de penalidad
Los mas comunes criterios de informacion son el Akaike (AIC), Schwarz-Bayesian (BIC) y el
Hannan-Quinn (HQ):
38
AIC(p) = ln|(p)| +
2
T
pn
2
BIC(p) = ln|(p)| +
lnT
T
pn
2
HQ(p) = ln|(p)| +
2lnlnT
T
pn
2
Comentarios
El criterio AIC sobreestima asintoticamente el orden con probabilidad positiva.
Los criterios BIC y HQ estiman el orden consistentemente bajo condiciones generales si el
verdadero orden p es menor o igual al orden p
max
.
6.12. Causalidad a la Granger
Uno de los principales usos de los modelos VAR es la prediccion. La siguiente nocion intuitiva
de la habilidad de prediccion de una variable es gracias a Granger (1969).
Si encontramos que una variable o un grupo de variables y
1
ayudan a predecir otra variable
o grupo de variables y
2
, entonces decimos que y
1
causan a la Granger y
2
, en otro caso, se
dice que y
1
fallan en causar a la Granger y
2
.
Formalmente, y
1
falla en causar a la Granger y
2
si para todo s > 0 el ECM de una
prediccion de y
t+s
basado en (y
2,t
, y
2,t1
, ...) es el mismo que el ECM de una prediccion de
y
t+s
basado en (y
2,t
, y
2,t1
, ...) y (y
1,t
, y
1,t1
, ...).
La nocion de causalidad a la Granger no implica verdadera causalidad. Solo implica la
habilidad en la prediccion.
39
7. TD7: Cointegraci on, Series de Tiempo con Heteroscedastici-
dad, Filtro de Kalman y GMM
40
8. TD8: Bootstrapping y Simulaciones de Montecarlo, aplica-
ciones
41

Das könnte Ihnen auch gefallen