Beruflich Dokumente
Kultur Dokumente
Econometría II
Series de Tiempo
2
120
1
100
0
80
-1
60 -2
40 -3
-4
20
60 65 70 75 80 85 90 95
60 65 70 75 80 85 90 95
IP D 1IP
Teóricamente una serie de tiempo puede ser vista como una colección de
variables aleatorias Yt. Es por este motivo que a una colección de este
tipo de datos se le denomina proceso estocástico. Cada una de estas
observaciones se asume como una realización del proceso estocástico
subyacente. Es una tarea de la teoría económica el desarrollar modelos
que capturen el verdadero proceso generador de datos (PGD).
160
120
80
40
-40
1950 1955 1960 1965 1970 1975 1980 1985
D1PBI
Serie no Estacionaria
Estacionariedad estricta
Es aquel proceso cuya distribución de probabilidad conjunta es invariante
respecto a los desplazamientos en el tiempo, es decir:
Si m=1, entonces
La distribución marginal de yt en cualquier punto del
tiempo es la misma, no cambia
f (Yt 1 ) f (Yt 1 k ) E (Yt 1 ) E (Yt 1 k )
V (Yt 1 ) V (Yt 1 k ) 2
Nos permite localizar a la serie alrededor
de su media con una variabilidad
constante (al 95% a ± 2)
-1 t
...., t 2 , t 1 , t PGD yt
PGD y , y , j Datos
yt fac, fap y1, y2, …., yT
Yt t 1 t 1 2 t 2 .... q t q ; E( t ) 0; V ( t ) 2 ; C ( t , t j ) 0
Momentos:
E (Yt )
1 E[(Yt )(Yt 1 )]
E[( t 1 t 1 2 t 2 .... q t q )( t 1 1 t 2 2 t 3 .... q t 1 q )]
2 ( 1 1 2 2 3 .... q 1 q )
Función de autocorrelación
j 1 j 1 2 j 2 .... q j q
C (Yt , Yt j ) j ; si j q
j 1 12 22 .... q2
V (Yt ) 0
0 ; si j q 1
j
0.5
Función de
1 0.4 1
1.25
autocorrelación: j
j 0; si j 1
-1
4.0
Y2
3.6 Mean 2.996661
Median 2.952678
3.2 Maximum 3.787612
Minimum 2.219883
2.8 Std. Dev. 0.323060
Skewness 0.300947
2.4 Kurtosis 2.881188
E(Yt) = 15 j
0 = 0.09(1+0.72+0.22) = 0.1377 1
j
0.7 0.14 0.2
1 0.366 2 0.13 j 0; si j 2
1.53 1.53 -1
16.0
Y3
15.6 Mean 14.99908
Median 14.99159
15.2 Maximum 15.88596
Minimum 14.12380
14.8
Std. Dev. 0.365650
14.4
Skewness 0.139397
Kurtosis 2.579241
14.0
10 20 30 40 50 60 70 80 90 00
Jarque-Bera 1.040289
Y3
Probability 0.594435
~ 2 2 2 ~2 ~ 2 2 2
0 E[( t 1Yt 1 ) ] E[ t 1 Y t 1 21 tYt 1 ] 1 0 ; 0 2
1 1
~ ~ ~ ~2
1 E[( t 1Yt 1 )Yt 1 ] E[ tYt 1 1Yt 1 ] 1 0
j 1 j 1
Función de autocorrelación
1 0
1 1
0 j j
1 1
2 1 1 2
1
j j
………
-1 -1
j 1 j 1 j
1
6 2 0.09
E (Yt ) 30 0 0.25
1 1 1 0.8 1 2
1
1 0.8 2
30.8
30.4
30.0
29.6
29.2
28.8
10 20 30 40 50 60 70 80 90 00
Y4
j
Mean 30.04767 Skewness 0.114342
Median 30.05618 Kurtosis 2.556619
1 j 0. 8 j
Maximum 31.15199 Jarque-Bera 1.026640
Minimum 28.86924 Probability 0.598505
Std. Dev. 0.485857 j
-1
Econometría II Mg. Beatriz Castañeda S. 18
2. Sea un proceso AR(1): Yt = 6 + t - 0.8 Yt-1; 2 = 0.09
6 2 0.09
E (Yt ) 3.33 0 0.25
1 1 1 0.8 1 2
1
1 0.8 2
4.0
3.6
3.2
2.8
2.4
10 20 30 40 50 60 70 80 90 00
Y5
j
Mean
Median
3.335832
3.295432 Skewness 0.215050 1 j 0.8 j
Maximum 4.361877 Kurtosis 2.519992
Minimum 2.449680 Jarque-Bera 1.713500
Std. Dev. 0.427777 Probability 0.424540 j
-1
Econometría II Mg. Beatriz Castañeda S. 19
Operador de rezagos: L
Condición de Estacionariedad
Para que un proceso AR(1) sea estacionario, es decir, que tenga media, varianza
y covarianzas constantes y que no dependan del tiempo, se debe cumplir que:
1
L 1
1
Por sustitución
Yt t 1 ( t 1 1Yt 2 )
1 t 1 t 1 12Yt 2
………
t
Utilizando el polinomio de rezagos Yt (1)
(1 1 L) (1 1 L)
1
(1 L)i 1 1 L 12 L2 13 L3 ..... 1 1
1 1 L i 0
Un AR(1) es un MA()
E( t ) 0; V ( t ) 2 ; C ( t , t j ) 0
E (Yt ) 1 E (Yt 1 ) 2 E (Yt 2 ) E (Yt )
1 1 2
~ ~ ~
1 E[Yt 1 ( t 1Yt 1 2Yt 2 )] 1 0 2 1
~ ~ ~
2 E[Yt 2 ( t 1Yt 1 2Yt 2 )] 1 1 2 0
……….
~ ~ ~
j E[Yt j ( t 1Yt 1 2Yt 2 )] 1 j 1 2 j 2
1 1 2 1 1 2
Ecuaciones de Yule 1 2 1
2
Walker para 1 y 2
2 1 1 2 1 2 1 2
3 1 2 2 1 j j
………. 1 1
j 1 j 1 2 j 2
j j
-1 -1
j
j
1 1
j j
-1 -1
6 2 (1 2 )
E (Yt ) 60 0 0.333
1 1 2 1 0.4 0.5 [(1 2 ) 2 12 ](1 2 )
61.0
60.5
60.0
59.5
59.0
10 20 30 40 50 60 70 80 90 00
Y6
j
0.4
3 0.4(0.82) 0.5(0.8) 0.728
1 1 0.8
1 2 0.5 1
4 0.4(0.728) 0.5(0.82) 0.70
2 0.42 5 0.4(0.70) 0.5(0.728) 0.644
2 1
2 0.5 0.82 j
1 2 0.5
-1
Econometría II Mg. Beatriz Castañeda S. 26
Proceso Autorregresivo: AR(p)
(1 1 L 2 L2 .... p Lp )Yt t
( L)Yt t
E( t ) 0; V ( t ) 2 ; C ( t , t j ) 0
j 1 j 1 2 j 2 ... j j p
E (Yt )
1 1 2 ... p
Función de autocorrelación
1 1 2 1 3 2 ... p p 1
2 1 1 2 2 1 ... j p 2
Ecuaciones de Yule Walker
……….
p 1 p 1 2 p 2 .... p
j 1 j 1 2 j 2 ... j j p
j j
1 1
j j
-1
-1
MA(q): Yt t 1 t 1 2 t 2 .... q t q
Yt (1 1 L 2 L2 .... q Lq ) t
( L) 1 1 L 2 L2 .... q Lq 0
Yt t 1 t 1 Yt (1 1 L) t
1
Yt t
(1 1 L) (1 1 L)
1
(1 L)i 1 1 L 12 L2 13 L3 ..... 1 1
1 1 L i 0
Condición de Estacionariedad
Condición de Invertibilidad
Un proceso ARMA(p,q) es invertible si las raíces de la ecuación característica
(1 1 L)
Modelo en su forma AR() Yt t
(1 1 L) (1 1 L)
(1 1 L)
( L) (1 1 L) ( 1 L)i ( L) 1 (1 1 ) L 1 (1 1 ) L2 2 (1 1 ) L3 ....
(1 1 L) 0 1
Yt t (1 1 )Yt 1 1 (1 1 )Yt 2 2 (1 1 )Yt 3 ....
1 1 1
(1 1 L)
Yt t
Modelo en su forma MA() (1 1 L) (1 1 L)
(1 1 L)
( L) (1 1 L) (1 L)i ( L) 1 (1 1 ) L 1 (1 1 ) L2 2 (1 1 ) L3 ....
(1 1 L) 0 1
Yt t (1 1 ) t 1 1 (1 1 ) t 2 12 (1 1 ) t 3 ....
1 1
~ ~
E (Yt ) Yt 1Yt 1 t 1 t 1
1 1
~ ~ ~
0 E (Y 2 ) E[(1Yt 1 t 1 t 1 )Yt ] 1 1 2 11 2 2 2
t 1
~~ ~ ~
1 E(YtYt 1 ) E[(1Yt 1 t 1 t 1 )Yt 1 ] 1 0 1 2
~~ ~ ~
2 E(YtYt 2 ) E[(1Yt 1 t 1 t 1 )Yt 2 ] 1 1
~~ ~ ~
j E (YtYt j ) E[(1Yt 1 t 1 t 1 )Yt j ] 1 j 1 ; j 2
(1 11 )(1 1 )
1
1 12 211 j j
-1 -1
j 1 j 1 ; j 2
j
j
1
1
j
j
-1
-1
Siendo h = mín(p,q)
Función de autocorrelación:
Si j q intervienen los coeficientes de la parte AR, de la parte MA
Si j > q la forma permanente sigue la estructura de un proceso AR(p)
3000
120
2500
2000 80
1500
40
1000
0
500
0 -40
1950 1955 1960 1965 1970 1975 1980 1985 1950 1955 1960 1965 1970 1975 1980 1985
PBI D1PBI
Wt ln Yt ln Yt 1 (1 L) ln Yt D ln Yt
Wt D log (Yt ) utilizando Eviews
Si Wt Yt Yt 1
Yt Wt Yt 1
Yt Wt Wt 1 Yt 2
Yt Wt j Yt es una serie integrada de sus primeras diferencias,
0 es decir, Yt es I(1)
p ( L)(1 L)d
p ( L)(1 L)d Yt q ( L) t ( L)Yt Yt t
q ( L)
Cálculo de Transformación
estadísticos de la serie de la serie
No
Identificación ¿Es la serie
Selección de d y
estacionaria?
Si
Selección de p,q y decisión
sobre la inclusión de
Es adecuado No
Validación el modelo
Si
Predicción y cálculo
de estadísticas
Predicción
¿predice No
correctamente
Esta tendencia puede ser removida diferenciando la serie tantas veces como sea el
orden del polinomio temporal.
40 0.8
30 0.4
20 0.0
10 -0.4
0 -0.8
10 20 30 40 50 60 70 80 90 00 10 20 30 40 50 60 70 80 90 00
Y7 DY7
1.0
Estacionario pero no invertible
si restamos la 0.5
Y7 Residuals
Y1 Y0 1
Y2 Y0 1 2
14.0
13.5
Y3 Y0 1 2 3 13.0
12.5
.....
12.0
t
Yt Y0 t
11.5
11.0
1
10.5
10 20 30 40 50 60 70 80 90 00
E (Yt ) Y0 Y8
t 2
V (Yt ) E t t 2 j
1
t t j
1
j E t t ( t j ) 2
1 1 j
t j t j
j depende del tiempo -1
t (t j ) t
Yt Yt 1 t (1 L)Yt t 400
300
Y1 Y0 1 100
Y2 2 Y0 1 2 0
10 20 30 40 50 60 70 80 90 00
Y3 3 Y0 1 2 3 Y9
.....
t
Yt t Y0 t
1 j
E (Yt ) Y0 t 1
t 2
V (Yt ) E t t 2 j
1
-1
t t j
j E t t ( t j ) 2
1 1
t j
j depende del tiempo
t
Yt t ut ; (1 1 L 2 L2 .... p Lp ) ut t Si t es estacionario
Yt ut ; (1 1 L 2 L2 .... p Lp ) ut t
Si t no es estacionario
Yt t ut ; (1 1 L 2 L2 .... p Lp ) ut t
2) Yt t ut ; (1 1 L 2 L .... p L ) ut t
2 p
Ejemplo Yt ut ; (1 1 L 2 L2 ) ut t
Yt (1 1 L 2 L2 ) 1 t
(1 1 L 2 L2 )Yt (1 1 L 2 L2 ) t
Yt (1 1 2 ) 1Yt 1 2Yt 2 t
Yt * 1Yt 1 2Yt 2 t
donde: i 1 i j
1 j i 1
ˆ
1) H 0 : 0 H 1 : 0 ; T
S
Si T T crit H0 : 0
Si T 1.96 Yt no tiene R.U .
Si T 1.96 Yt tiene R.U .
Si T T crit 3)
Si j q r j ˆ j Normal
j 1
1
E ( r j ) 0 ; V ( r j ) 1 2 rk2
T k 1
q
1
C (rj , rj s )
T
r r
k q
k ks
H0 : j 0 H 1 : j 0 para j q 1
Se analiza la función de Se rechaza H 0 si
autocorrelación: FAC
1 2 rk2
probando las hipótesis r j 1.96 T
Si j p ˆ jj Normal
1
E (ˆ jj ) 0 ; V (ˆ jj )
T
H 0 : jj 0 H 1 : jj 0 para j p 1
Se analiza la función de Se rechaza H 0 si
autocorrelación parcial: FAP
probando las hipótesis 2
jj
T
H 0 : j 0 j : 1, M H 1 : j 0, para a lg ún j
M 2
QLB T (T 2 ) rj
j 1
T j
es asintóticamente (2M p q )
M 2
QLB T (T 2 ) rj
j 1
T j
es asintóticamente (2M p q )
ˆi 1
si existe alguna próxima a 1 indica que
La raíz invertida debe tener hay una sobrediferenciación
Sobreparametrización:
3. Si los residuos del modelo no cumplen con ser incorrelacionados, indican que
estos contienen información de la estructura de autocorrelación de la serie, la
cual debe ser utilizada para reformular el modelo
YˆT h
ˆ Yˆ ˆ ˆ ˆ ˆ
1 T h1 2YT h 2 ... p d YT h ( p d ) ; h p d y h q
MA(2): Yt t 1 t 1 2 t 2
h
YˆT 1 1 T 1 T 1 ....
2
YˆT h 1j 1hYT
1 1 j 0
YˆT h
YˆT h 1j h T j 1 1
1 1 j 0 h
MA(2): Yt t 1 t 1 2 t 2
YˆT 1 1 T 2 T 1 ; et 1 t 1 e2t 1 2
ŶT h ; e2 0 Y2
t h t
h >2
h
YˆT 1 1 T 1 T 1 ....
2
YˆT h 1j 1hYT
1 1 j 0
YˆT h 1 T j
jh YˆT h
1 1 j 0
1 1
h
h1 h1
eT h 1 T h j
j 2
et h 12 j
2
j 0 j 0
YˆT 1 1YT 1 T YˆT h ˆ h T ˆ h1 T 1 .....
1 1
YT 2 1YˆT 1
Como
YˆT h
h 1h1 (1 1 ) 1 1
YˆT h 1YˆT h1
h
Wˆ T h 1 1j T j
h
1 1 j 0
h
Yˆ Sigue una tendencia
T h
1i j T j
h
ˆ
YT h YT h
1 1 i 1 j 0 1 decae a lineal con pendiente
m
1 1
16
12
0
72 74 76 78 80 82 84 86 88 90 92 94 96 98 00 02 04
VENTAS3
700
600
500
400
300
200
100
0
79 80 81 82 83 84 85 86 87 88 89 90 91 92
PASAJER OS
~ 2 2
0 E[( t sYt s ) ] 2 s2 0 0
1 s2
~ ~ 0 ; js
j E[( t sYt s )Yt j ]
s j s ; j s,2 s,3 s,....
j
0; js
j j j
s ; j s,2 s,3 s,..
-1
20
16
12
0
72 74 76 78 80 82 84 86 88 90 92 94 96 98 00 02 04
VENTAS3
E (Yt ) 0 2 (1 s2 )
j
s 1
; js
j 1 s2 j
0 ; j s
-1
30
20
10
-10
72 74 76 78 80 82 84 86 88 90 92 94 96 98 00 02 04
VENTAS2
Las series generadas por un modelo ARMA estacional multiplicativo presentan u un patrón con
oscilaciones periódicas, en las que el patrón de autocorrelación se observa para las
observaciones entre periodo estacional y dentro del periodo estacional.
700
600
500
400
300
200
100
0
79 80 81 82 83 84 85 86 87 88 89 90 91 92
PASAJER OS
1
; j=1
1 12
j 1 j 1 2 j 2 .... q j q
; si j q 112
j 1 1 2 .... q
2 2 2
j
; j=11,13
(1 1 )(1 12 )
2 2
0 ; si j q 1
12
; j=12
1 122
j j
1 1
1 11 13
1 11 12 13 j j
12
-1 -1
j j
1 1
1 11 13
1 11 12 13 j 12 j
-1 -1
gráfica de la serie 0 0 5
-5 -10 0
25 50 75 100 25 50 75 100 25 50 75 100
Y1 Y2 Y3
(a) Serie con tendencia (b) Random walk con drift (c) Serie con tendencia
determinística (estacionaria (estacionaria en diferencias) determinística y quiebre
en tendencia). (estacionaria en tendencia).
Con los elementos Serie no tiene RU. Trabajo con sus Mejoro especificación de (i) Prueba tiene baja potencia.
3. Prueba de determinísticos identificados niveles luego de removerle la la prueba. (ii) Correcta especificación
Dickey Fuller en 1. y el número de rezagos tendencia (si ésta es significativa). permitirá diferenciar entre (a)
aumentada (ADF) identificado en 2. (p-1) y (b) pero no entre (b) y (c).
Rechazo Ho. Acepto Ho.
Econometría II
Diagrama
Mg. elaborado por Juan
Beatriz Castañeda S. F. Castro 74
FUNCIONES DE AUTOCORRELACION DE PROCESOS ESTACIONARIOS
1 1
1 1
j j j j
-1 -1
-1 -1
1 1
1 1
j j
j j
-1 -1
-1 -1
AR(1) MA1)
1 1
1 1
j j j j
-1 -1
-1 -1
1 1
1 1
j j j j
-1 -1
-1 -1
AR(2)
1. 00 1. 00 1. 00 1. 00
0. 80 0. 80 0. 80 0. 80
0. 60 0. 60 0. 60 0. 60
0. 40 0. 40 0. 40 0. 40
0. 20 0. 20 0. 20 0. 20
0. 00 0. 00 0. 00 0. 00
-0. 20
-0. 20 -0. 20 -0. 20
-0. 40
-0. 40 -0. 40 -0. 40
-0. 60
-0. 60 -0. 60 -0. 60
-0. 80
-0. 80 -0. 80 -0. 80
-1. 00
-1. 00 -1. 00 -1. 00
1 1. 00 1 1. 00
0. 5 0. 50 0. 5 0. 50
0 0. 00 0 0. 00
-1. 00 -1. 00
-1 -1
1 1.00 1
0.80 1.00
0.8 0.8
0.60 0.80
0.6 0.6
0.40 0.60
0.4 0.4
0.20 0.40
0.2 0.2
0.20
0 0.00 0
-0.20 0.00
-0.2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 -0.2
-0.20
-0.4 -0.40 -0.4
-0.40
-0.6 -0.60 -0.6
-0.80 -0.60
-0.8 -0.8
-0.80
-1 -1.00 -1
-1.00
1. 00
1 1. 00 -1. 00
0. 80
0.8 0. 80 -0. 80
0. 60 0.6 0. 60 -0. 60
0. 40 0.4 0. 40 -0. 40
0. 20 0.2 0. 20 -0. 20
0. 00 0 0. 00 0. 00
-1. 00 -1 -1. 00
1. 00
-1. 00
1. 00 1. 00 -1
-0. 80
-0. 8
-0. 60 -0. 6
0. 50 0. 50
-0. 40 -0. 4
-0. 20 -0. 2
0. 00 0. 00 0. 00 0
0. 20 0. 2
0. 40 -0. 50 0. 4
-0. 50
0. 60 0. 6
0. 8
0. 80
-1. 00 -1. 00
1
1. 00
1.00
0.80 1.00
-1 -1
0.60 0.80
0.40 0.60
0.20 -0.5 0.40 -0. 5
0.00 0.20
-0.20 0 0.00 0
-0.40 -0.20
-0.60 -0.40
0.5 0. 5
-0.80 -0.60
-1.00 -0.80
1 1
-1.00
FAC FAC
1 1
0.5 0.5
0 0
-0.5 -0.5
-1 -1
FAC FAC
1 1
0.5 0.5
0 0
-0.5 -0.5
-1 -1