Sie sind auf Seite 1von 31

Universidad San Francisco

Abril 2010

Modelos Lineales Dinámicos Bayesianos1

por

Juan Sebastián Araujo D.

1. Introducción
El siguiente documento presenta una aproximación a los modelos lineales
dinámicos (DLM por sus siglas en inglés) desde un punto de vista de la teoría bayesiana.
Por ende, se pretende realizar pronósticos mediante una actualización de las distribuciones
de variables estocásticas que influyen en las observaciones a través del tiempo dada nueva
información.

En términos generales entonces, los DLM se definen según la estructura cuádruple


Ft , Gt , Vt , Wt  para cada tiempo t . Este conjunto lleva implícitas las siguientes
ecuaciones:
Ec. de observaciones: Yt  Ft  t  v t , v t  N0, Vt 
Ec. de Sistema:  t  Gt  t−1  wt , wt  N0, Wt 
Información Inicial:  0 |D0   Nm0 , C0 

En la sección 2 se presentan los modelos polinomiales de primer orden, de los


cuales se pueden obtener ideas y conclusiones importantes para el desarrollo general de los
DLM. En la sección 3 se analiza el caso de las regresiones dinámicas que, entre otras cosas,
permiten justificar la existencia de la ecuación de sistema. La sección 4 trata de la
formalización de los DLM en base a lo encontrado en las partes anteriores. La sección 5
presenta ejemplos ejecutados en R. Finalmente las partes 6 y 7 entrega la bibliografía y el
algoritmo en R respectivamente.

2. Modelos Polinomiales de Primer Orden


2.1 Ideas Iniciales

El modelo polinomial de primero orden para pronosticar un proceso estocástico Yt ,


se representa por el conjunto 1, 1, V t , Wt  tal que

Yt   t  v t , v t  N0, V t ,

1
El siguiente documento está basado íntegramente en West y Harrison (1997).

1
Universidad San Francisco
Abril 2010

donde v t se denomina error observacional, y la tendencia  t sigue un camino aleatorio


simple

 t   t−1  w t , w t  N0, W t ,

en el que w t es conocido como error de evolución.

En un principio, se asumirá que las varianzas V t y W t son conocidas, y también que


los t y w t son variables aleatorias interna y mutuamente independientes. Es así que las
v
ecuaciones anteriores pueden redefinirse de la siguiente manera:

Yt | t   N t , V t 
 t | t−1   N t−1 , W t  ,

debido a que se presentan como una combinación lineal de variables con distribución
normal i.i.d.

Por otra parte, nótese que si la razón definida por r t  Wt /V t es pequeña para todo
t , la tendencia  t es poco variable a través del tiempo. En consecuencia, el modelo puede
emplearse para pronósticos de corto plazo. Esto implica que, dada la información existente
Dt , el valor esperado de Ytk , ∀k ≥ 0 es

EYtk | t   E tk | t    t


 EYtk |Dt   E t |Dt   m t ,

donde m t es un valor conocido en el tiempo t .

2.2 El Modelo Cerrado

Para la definición y los teoremas presentados a continuación, se asumirá al DLM


como cerrado. En cuanto a esto, se dice que un modelo es cerrado al no considerar
información externa al mismo. Se cumple entonces que el conjunto de información
Dt  Yt , Dt−1  .

Definición 1. Para cada tiempo t , el DLM 1, 1, V t , Wt  se define por:


Ec. de observaciones: Yt   t  v t , v t  N0, V t 
Ec. de Sistema:  t   t−1  w t , w t  N0, W t 
Información Inicial:  0 |D0   Nm 0 , C 0 

Definido el modelo, interesa entonces estudiar los pronósticos para uno y más
periodos a partir de t . Los teoremas siguientes permiten cumplir este objetivo.

2
Universidad San Francisco
Abril 2010

Teorema 1. Para el DLM definido por 1, 1, V t , W t  , el pronóstico para el siguiente


período y la distribución a posteriori para la tendencia, se puede obtener secuencialmente
tal que
(a) Dist. a posteriori para  t−1 :  t−1 |Dt−1   Nm t−1 , C t−1 
(b) Dist. a priori para  t :  t |Dt−1   Nm t−1 , Rt 
Rt  C t−1  W t
(c) Pronóstico para un período: Yt |Dt−1   Nm t−1 , Qt 
Q t  Rt  V t
(d) Dist. a posterior para  t :  t |Dt   Nm t , C t 
R
m t  m t−1  t e t  m t−1  A t e t
Qt
e t  Yt − m t−1
R
Ct  t Vt  AtVt
Qt

Analizando las ecuaciones del teorema 1, se pueden observar tres detalles


importantes:

- Primero, surge la razón Rt /Qt conocida como coeficiente de adaptación a nuevos datos
y denotada como A t , la cual cumple con la desigualdad

0 < A t = Rt   2t  1
Qt ,

donde  t es la correlación entre Yt y  t dada la información Dt−1 .

- Segundo, resulta evidente que el valor m t es un promedio ponderado entre el valor


observado y la tendencia media a priori, es decir,

m t  A t Yt  1 − A t m t−1 .

- Tercero, la precisión del modelo  t definida por la inversa de la varianza


observacional, mejora al agregar nueva información. Es así que
(i) Precisión a priori

 t |Dt−1   R−1
t

(ii) Precisión posterior

 t |Dt   C −1
Qt R  Vt
t   t  R−1 −1 −1
t  V t ≥ Rt
Rt V t Rt V t

Ahora bien, interesa de igual modo estudiar los pronósticos de más de un periodo a

3
Universidad San Francisco
Abril 2010

partir de t . Para hacerlo hay que considerar dos variables distintas: Ytk |Dt  que se define
como el pronóstico para k ≥ 1 períodos adelante, y X t k|Dt  definido por el pronóstico
k -step lead time, donde

k
X t k  Yt1 . . . Ytk  ∑ Ytj
j1

Teorema 2. Para k ≥ 1 existen las siguientes distribuciones


(a) k periodos adelante: Ytk |Dt   Nm t , Qt k
(b) k -step lead time: X t k|Dt   Nkm t , L t k
donde
k
Qt k  C t  ∑ W tj  V tk
j1
k k
L t k  k 2 C j  ∑ V tj  ∑ j 2 Wtk1−j
j1 j1 .

2.3 El Modelo Constante

Una variación al modelo antes descrito es aquel que asume a las varianzas de los
errores observacionales y de evolución no cambian a lo largo del tiempo. Dicho modelo se
conoce como DLM constante y se define según el conjunto 1, 1, V, W tal que
Ec. de observaciones: Yt   t  v t , v t  N0, V
Ec. de Sistema:  t   t−1  w t , w t  N0, W
Información Inicial:  0 |D0   Nm 0 , C 0 

Dado esto, es posible hacer un análisis de convergencia límite como indica el


teorema siguiente.

Teorema 3. Definida la razón constante r  W/V ; a medida que t →  , A t → A ,


C t → C  AV , donde

limt→ A t  A  r 1  4r − 1
2

Y de igual manera

r A2
1−A

Qt → Q  V
1−A

4
Universidad San Francisco
Abril 2010

Rt → R  AQ

W  A2 Q

V  1 − AQ

Nótese que según el teorema, si A  1 implica que V  0 y por ende r →  . En


este caso el modelo se reduce a un camino aleatorio puro donde Yt  Yt−1  w t . De darse
este caso, el predictor m t  Yt y el modelo presentará poca utilidad para fines predictivos.
Por el contrario, cuando A → 0 se cumple que m t ≈ m t−1 y ninguno de los cambios en la
serie de tiempo será tomado por el predictor. Todo esto permite concluir que A es un
indicador de la sensibilidad de dicho predictor frente a los valores de las observaciones.

Corolario 1. Considerando el DLM constante y el Teorema 2, se tiene que la distribución


de los pronósticos es
(a) k periodos adelante: Ytk |Dt   Nm t , Qt k
(b) k-step lead time: X t k|Dt   Nkm t , L t k
donde

Qt k  C t  kW  V

k  12k  1W
L t k  k 2 C j  kV 
6 .

2.4 Importancia y Determinación de la Varianza de Evolución Wt

Suponga que para analizar cierto proceso, se escoge un DLM constante con
varianza observacional V y ratio r , cuando verdaderamente los datos están generados por
valores V 0 y r 0 . El modelo entonces presentaría en su forma asintótica la ecuación

ΔYt  e t − e t−1 ,

donde   1 − A y e t |Dt−1   N0, Q con Q  V/ por el teorema 3. Por su parte, el


verdadero modelo presentaría la ecuación

ΔYt  a t −  0 a t−1 ,

donde  0  1 − A 0 y a t |Dt−1   N0, Q0  con Q0  V 0 / 0 .

A fin de estudiar la incidencia de una mala selección de variables, se igualan las dos
expresiones anteriores tal que

5
Universidad San Francisco
Abril 2010

e t − e t−1  a t −  0 a t−1
t
 e t  a t   −  0  ∑  j a t−j1
j0 .

De aquí se obtiene que si t →  :


Ee t |D0   0
 −  0  2
Vare t |D0   Q0 1 
1 − 2

Surge entonces la pregunta, ¿qué valores de W deberían seleccionarse para que


Vare t |D0  ≈ Q0 ? El teorema 3 permite responder la interrogante, ya que si
W → 0  r → 0   → 1  Vare t |D0  →  por lo que hay una penalización muy fuerte
sin importar el valor V escogido. Por otra parte, si W →   r →    → 0
 Vare t |D0  → Q0 1   20  . En consecuencia, es preferible siempre tomar valores de W
grandes cuando no se está seguro si los parámetros iniciales seleccionados son los
correctos.

Ahora bien, por el teorema 3 se sabe también que

R CW  C
1−A
W A C
1−A ,

es decir, W es una proporción fija de C . Y tomando como factor de descuento a   1 − A


tal que

0. 8 ≤  ≤ 1 ,

es posible definir una valor para W t mediante la fórmula

1 − 
Wt  C t−1
 .

2.5 El Desconocimiento de la Varianza Observacional Vt

En la práctica, la varianza observacional V t no suele ser conocida aunque se pueden


tener indicios a priori sobre su comportamiento. En este apartado se considerará
únicamente el caso en que V t  V , donde V es una constante desconocida. También se
hará uso de la precisión que, como se mencionó líneas arriba, se calcula como la inversa de
la varianza observacional tal que

6
Universidad San Francisco
Abril 2010

  1  V −1
V .

Nótese entonces que gracias al teorema 3 es posible representar a W t y C t como


múltiplos de V . Es así que para el primer caso

w t |Dt−1   N0, VW∗t  ,


donde Wt es la varianza de w t cuando V  1 .

Definición 2. Para cada tiempo t , el DLM se define por


Ec. de observaciones: Yt   t  v t , v t  N0, V
Ec. de Sistema:  t   t−1  w t , w t  N0, VW ∗t 
Información Inicial:  0 |D0 , V  Nm 0 , VC ∗0 
|D0   Γn 0 /2, d 0 /2 ,
∗ ∗
donde Wt , C 0 , n 0 y d 0 son conocidas en t  0 .

Dada la distribución gamma a priori que sigue la precisión, se tiene que

n0
E|D0    1 ,
d0 S0

donde S 0  d 0 /n 0 es una estimación puntual a priori de V . Además, se puede redefinir la


información inicial tal que

 0 |D0   t n 0 m 0 , C 0 ,


donde C 0  S 0 C 0 .

Teorema 4. Dado el DLM de la definición 2, se tienen los siguientes resultados para


t ≥ 1:
Ec. de observaciones: Yt   t  v t , v t  N0, V
Ec. de Sistema:  t   t−1  w t , w t  t n t−1 0, W t 
Información Inicial:  t−1 |Dt−1   t n t−1 m t−1 , C t−1 
|Dt−1   Γn t−1 /2, n t−1 S t−1 /2
Pronóstico:  t |Dt−1   t n t−1 m t−1 , Rt 
Yt |Dt−1   t n t−1 f t , Qt 
Rt  C t−1  W t
f t  m t−1
Qt  Rt  S t−1
Adaptación: |Dt   Γn t /2, n t S t /2
 t |Dt   t n t m t , C t 

7
Universidad San Francisco
Abril 2010

n t  n t−1  1
e 2t S
S t  S t−1  − 1 nt−1
Qt t

m t  m t−1  A t et
Ct  AtSt
e t  Yt − f t
R
At  t
Qt .

3. Modelos de Regresión Dinámica


3.1 Ideas Iniciales

En general, los modelos de regresión estudian el efecto de variables independientes


o regresoras X en una variable respuesta Y. Cuando estos modelos se dinamizan, haciendo
que las mencionadas variables estén en función del tiempo t , se puede expresar el valor de
Yt tal que

EYt   Xt  .

Sin embargo en este contexto, no existen argumentos suficientes que garanticen que
los parámetros  serán constantes en todos los t . Por el contrario, es esperable que la
estructura de los procesos Xt y Yt cambien con el paso del tiempo, por lo que es preferible
redefinir el modelo de regresión tal que

EYt   Xt  t ,

donde una representación simple y adecuada para los parámetros  t puede darse con
caminos aleatorios, de modo que

E t  t−1    t−1 ,

con su varianza correspondiente.

3.2 El Modelo de Regresión como DLM

Para definir el modelo DLM es importante recalcar dos características de la matriz


de regresores. Primero, en ella existen n variables denotadas X 1 , . . . , X n . Segundo, estas
variables toman distintos valores a lo largo del tiempo por lo que, para un tiempo t
cualquiera, la i-ésima variable se representa como X it .

8
Universidad San Francisco
Abril 2010

Definición 3. Para cada t , el DLM de regresión se define como


Ec. de observaciones: Yt  F Tt  t  v t , v t  N0, V t 
Ec. de Sistema:  t   t−1  w t , w t  N0, W t  ,
donde F t  1, X t1 . . . X tn  es la matriz de regresores,  t es el vector de parámetros y Wt
T

es la matriz de varianza de evolución para  t .

La definición indica que los parámetros siguen un camino aleatorio como se planteó
líneas arriba, y que los cambios en los mismos se deben fundamentalmente al error de
evolución wt . Nótese además que el modelo de regresión estático presenta igualmente esta
forma con Wt  0 y  t   constante.

Ahora bien, a fin de facilitar el estudio de los DLM de regresión, una variación del
modelo que emplee una sola variable predictora y un valor del intercepto de 0, resulta
sumamente útil. Es así que es posible definir la siguiente estructura en consideración a estas
características.

Definición 4. Sea el DLM F t , 1, V t , W t  tal que


Ec. de observaciones: Yt  F t  t  v t , v t  N0, V t 
Ec. de Sistema:  t   t−1  w t , w t  N0, W t 
Información Inicial:  0 |D0   Nm 0 , C 0 ,
donde m 0 es una media conocida en t  0 , y F t  X 1t .

3.3 Ecuaciones de Actualización y Pronóstico

En consideración al modelo propuesto en la definición 4 y a los conceptos tratados


en la sección 2, es posible plantear los siguientes teoremas.

Teorema 5. El pronóstico para un período adelante y las distribuciones posteriores se


obtienen como sigue:
(a) Dist. a posteriori para  t−1 :  t−1 |Dt−1   Nm t−1 , C t−1 
(b) Dist. a priori para  t :  t |Dt−1   Nm t−1 , Rt 
Rt  C t−1  W t
(c) Pronóstico para un período: Yt |Dt−1   Nf t , Qt 
f t  F t m t−1
Qt  F 2t Rt  V t
(d) Dist. a posterior para  t :  t |Dt   Nm t , C t 
m t  m t−1  A t e t
R AV
Ct  t Vt  t t
Qt Ft
FR
At  t t
Qt
e t  Yt − f t .

9
Universidad San Francisco
Abril 2010

Teorema 6. Para k ≥ 1 , las distribuciones del pronóstico para k períodos adelante son

Ytk |Dt   Nf t k, Qt k


 tk |Dt   Nm t , Rt k,

donde

f t k  F tk m t
k
Rt k  C t  ∑ W tj
j1

Qt k  F 2tk Rt k  V tk .

Las ecuaciones de los teoremas 5 y 6 entregan cuatro conclusiones importantes:

- La media posterior m t se obtiene mediante una corrección en base al error de


predicción e t que se suma a la media a priori m t−1 de forma semejante al teorema 1.
Además, el factor de corrección A t siempre lleva el signo del regresor F t .
- En cuanto a la precisión, la posterior siempre es mayor que la a priori para F t ̸ 0 ya
que

 t |Dt   C −1 −1 2 −1 −1
t  Rt  F t V t ≥  t |D t−1   Rt .

Nótese también que este valor es directamente proporcional a |F t | , de modo que si


F t  0 , Yt no entrega información adicional para la actualización de  t . Es más, si
para una secuencia de t , F t  0 , entonces la distribución posterior se vuelve cada vez
menos precisa debido a la continua agregación de Wt .

- Si se suponen varianzas constantes, entonces se cumple lo siguiente para t →  y la


2
rF  WF
razón V :

rF 4 −1
A t → AF  1
2 rF

AFV
C t → CF 
F2 ;

en consecuencia, si F es acotado, A t y C t también serán acotados tal que

a  F  b  A t ∈ Aa, Ab, C t ∈ Cmax|a|, |b|, Cmin|u| : u ∈ a, b

10
Universidad San Francisco
Abril 2010

- En el modelo estático ( Wt  0, ∀t ), donde  es constante, se cumple que


t
(φ t ) D t ) = C t− 1 = C 0− 1 + ∑ F 2j V −1
j
j1

t
0 m 0  C t ∑ F j V j Yj
m t  C t C −1 2 −1
j1 ,

y cuando C 0 −1 es pequeño, m t es el estimador de máxima verosimilitud de  y C t es la


varianza asociada.

3.4 Ventajas de los DLM de Acuerdo al Caso Presentado

El DLM de regresión tiene claras ventajas por sobre el modelo estático; y éstas
pueden extenderse a todos los casos de DLM. A continuación se detallan las más evidentes.

Cuando se usan modelos dinámicos, se responde de mejor manera a la nueva


información. Esto por el contrario, no sucede en modelos estáticos con W t  0 para todo t .
La implicancia directa de lo anterior, es que los primeros son más robustos para pronosticar
en el corto plazo gracias a su mayor precisión.

Como ya se destacó, el coeficiente de adaptación A t sigue el signo del regresor F t .


Además cuando F t → 0  C t se hace más grande ya que Yt no entrega nueva información
para el movimiento entre  t−1 y  t . Por otra parte si |F t | aumenta entonces C t disminuye y
el coeficiente de adaptación aumenta proporcionalmente.

3.5 Varianzas Observacionales y de Evolución

En términos generales, el proceso es semejante al visto en el apartado 2.5 donde se


considera V como constante y desconocido, y su estimación se basa en el análisis
bayesiano de la distribución gamma que sigue la precisión  . De igual manera se puede
definir Wt mediante la aproximación vista en 2.4 por el factor de descuento  tal que

Wt  C t−1  −1 − 1

Rt   − 1 C t .

Es así, que las ecuaciones para la regresión DLM con intercepto en el origen y
varianza observacional contante (con estimación puntual S t ) son las siguientes:
Ec. de observaciones: Yt  F t  t  v t , v t  N0, V
Ec. de Sistema:  t   t−1  w t , w t  t n t−1 0, W t 

11
Universidad San Francisco
Abril 2010

Información Inicial:  t−1 |Dt−1   t n t−1 m t−1 , C t−1 


|Dt−1   Γn t−1 /2, n t−1 S t−1 /2
Pronóstico:  t |Dt−1   t n t−1 m t−1 , Rt 
Yt |Dt−1   t n t−1 f t , Qt 
Rt  C t−1  W t
f t  F t m t−1
Qt  F 2t Rt  S t−1
Adaptación: |Dt   Γn t /2, n t S t /2
 t |Dt   t n t m t , C t 
n t  n t−1  1
e 2t S
S t  S t−1  − 1 nt−1
Qt t

m t  m t−1  A t e t
R
Ct  t St
Qt
e t  Yt − f t
FR
At  t t
Qt .

4. El Modelo Lineal Dinámico

4.1 Ideas Iniciales

Las secciones anteriores muestran características básicas pero importantes de los


modelos DLM en consideración al análisis bayesiano. En cuanto a esto, lo primero que se
debe hacer es examinar el contexto del pronóstico y seleccionar una parametrización
adecuada  t−1 tal que la información histórica relevante para predecir el futuro esté incluida
en la información acerca de  t−1 . Esto implica que la distribución de probabilidad
 t−1 |Dt−1  es suficiente para pronosticar.

Además, las predicciones al respecto de  t deberán siempre acompañarse de


pronósticos de las observaciones Yt , de modo que si se considera un sistema cerrado,
 t |Dt  tendrá suficiente información para predecir el conjunto
Yt1 ,  t1 , . . . , Ytk ,  tk , ∀k  1 .

Por otra parte, el siguiente principio se aplica siempre: "una combinación lineal de
DLM normales e independientes es asimismo un DLM normal. Esto permite que el modelo
combinado sea robusto, y que si una de las partes está errada, el resto de los términos del
modelo no se verán afectados.

Finalmente, la distribución conjunta de las observaciones y los parámetros se puede

12
Universidad San Francisco
Abril 2010

derivar usando leyes de probabilidad tal que

PYt ,  t |Dt−1   PYt | t , Dt−1 P t |Dt−1 ,

de donde el pronóstico corresponde a la distribución Yt |Dt−1  y la distribución posterior de


los parámetros es  t |Yt , Dt−1    t |Dt  .

4.2 Definiciones y Notación Fundamental

Sean los vectores de observaciones Yt y parámetros  t , los cuales son de


dimensiones r  1 y n  1 respectivamente.

Definición 5. El modelo DLM se define por el conjunto Ft , Gt , Vt , Wt  para cada t , en el


que F t y G t son matrices conocidas de dimensiones n  r y n  n respectivamente, y V t y
Wt son matrices de varianza conocidas de dimensiones r  r y n  n respectivamente. Se
puede entonces relacionar los vectores Yt y  t tal que
Ec. observaciones:

Yt | t , Dt−1   NFTt  t , Vt 


 Yt  FTt  t  v t , v t  N0, Vt 

Ec. de sistema:

 t | t−1 , Dt−1   NGt  t−1 , Wt 


  t  Gt  t−1  wt , wt  N0, Wt  .

De estas ecuaciones se puede deducir que Ft es la matriz de valores conocidos de


las variables independientes,  t es el vector de estado o sistema, Ft  t es la respuesta
T

esperada, v t es el error de observaciones, Gt es la matriz de evolución y wt es el error de


evolución.

La siguiente definición presenta el DLM univariado con el que se trabajará en los


apartados siguientes.

Definición 6. Para cada t , el DLM univariado Ft , Gt , V t , Wt  se define por


Ec. de observaciones: Yt  F Tt  t  v t , v t  N0, V t 
Ec. de Sistema:  t  G t  t−1  w t , w t  N0, Wt 
Información Inicial:  0 |D0   Nm 0 , C 0 

4.3 Ecuaciones de Actualización y Pronóstico

Teorema 7. Para el DLM univariado, el pronóstico para un período adelante y las

13
Universidad San Francisco
Abril 2010

distribuciones posteriores se obtienen como sigue:


(a) Dist. a posteriori para  t−1 :  t−1 |Dt−1   Nm t−1 , C t−1 
(b) Dist. a priori para  t :  t |Dt−1   Na t , Rt 
a t  G t m t−1
Rt  G t C t−1 G Tt  W t
(c) Pronóstico para un período: Yt |Dt−1   Nf t , Qt 
f t  F Tt a t
Qt  F Tt Rt F t  V t
(d) Dist. a posterior para  t :  t |Dt   Nm t , C t 
m t  at  A tet
C t  Rt − A t Qt A Tt
A t  Rt F t Q−1
t
e t  Yt − f t

Dadas estas ecuaciones, algunas identidades útiles que surgen son:


−1 −1
(a) At  R t Ft Qt  Ct Ft V t
(b) Ct  R t − At Qt At  R t I − Ft At 
T T

−1 −1 −1 T
(c) Ct  R t  Ft V t Ft
(d) Qt  1 − Ft At  −1 V t
T

−1
(e) Ft At  1 − V t Qt .
T

Estas identidades se pueden aplicar tanto al modelo univariado como a uno multivariado
reemplazando 1 por la matriz I donde corresponda.

Definición 7. Para k ≥ 0 la función de pronóstico f t k  se define por

f t k  E tk |Dt   EFtk


T
 tk Dt ,

donde

 h  F Th  h

es la función de respuesta media para todo tiempo h ≥ 0 .

Teorema 8. Para 0 ≤ j  k , para cada tiempo t la distribución conjunta futura es normal


y se define por las siguientes covarianzas y distribuciones marginales para k períodos
adelante
Dist. de Estado:  tk |Dt   Na t k, Rt k
Dist. de Pronóstico: Ytk |Dt   Nf t k, Qt k
Covar. de Estado: Cov tk ,  tj |Dt   C t k, j
Covar. de Obseraciones: CovYtk , Ytj |Dt   F Ttk C t k, jF tj

14
Universidad San Francisco
Abril 2010

Otras Covarianzas: CovYtk ,  tj |Dt   Ftk


T
Ct k, j
Cov tk , Ytj |Dt   Ct k, jFtj ,
donde

f t k  Ftk
T
a t k

Qt k  Ftk
T
R t kFtk  V tk

k−1
a t k  Gtk a t k − 1  a t 0  Gtk−i
i0

R t k  Gtk R t k − 1Gtk


T
 Wtk

Ct k, j  Gtk Ct k − 1, j, k  j  1, . . .

y con valores iniciales

a t 0  mt

R t 0  Ct

Ct j, j  R t j .

4.4 Varianzas Observacionales y de Evolución

En la práctica, las matrices Ft y Gt son generalmente definidas por el investigador.


De igual forma, Wt puede definirse en base al factor de descuento  . Sin embargo, la
varianza V t suele ser desconocida y grande en comparación a Wt . Es así que para facilitar
el análisis se supondrá que V t  V para todo t ; asimismo, se asumirá que precisión
observacional se define por   V −1 y que todas las varianzas y covarianzas están
escaladas por V .

Definición 8. Para cada t , el DLM univariado se define por


Ec. de observaciones: Yt  F Tt  t  v t , v t  N0, V
Ec. de Sistema:  t  G t  t−1  w t , w t  N0, VW∗t 
Información Inicial:  0 |D0 ,   Nm 0 , VC ∗0 
 0 |D0   Γn 0 /2, n 0 S 0 /2,
∗ ∗
con Ft , Gt , Wt , m 0 , C 0 , n 0 y S 0 especificados inicialmente.

Teorema 9. Dado el DLM de la definición 8, los siguientes resultados de distribuciones se


obtienen para cada t ≥ 1 :

15
Universidad San Francisco
Abril 2010

Ec. de observaciones: Yt  F Tt  t  v t , v t  N0, V


Ec. de Sistema:  t  G t  t−1  w t , w t  t n t−1 0, W t 
Información Inicial:  t−1 |Dt−1   t n t−1 m t−1 , C t−1 
|Dt−1   Γn t−1 /2, n t−1 S t−1 /2
Pronóstico:  t |Dt−1   t n t−1 a t , Rt 
Yt |Dt−1   t n t−1 f t , Qt 
Rt  G t C t−1 G Tt  W t
a t  G t m t−1
f t  F Tt a t
Qt  F Tt Rt F t  S t−1
Adaptación: |Dt   Γn t /2, n t S t /2
 t |Dt   t n t mt , Ct 
n t  n t−1  1
e 2t S
S t  S t−1  − 1 nt−1
Qt t

mt  a t  At e t
S
Ct  t R t − At Qt ATt 
S t−1
e t  Yt − f t
At  R t Ft Q−1t
Dist. de Pronósticos:  tk |Dt   Na t k, R t k
Ytk |Dt   Nf t k, Qt k .

5. Ilustraciones

5.1 Modelo Polinomial de Primer Orden

La tabla 1 presenta información acerca de las diferencias del tipo de cambio £/$
para un periodo de 9 años y 7 meses. Cabe resaltar que los datos se encuentran expresados
en escala logarítmica como es común para variables de esta naturaleza.

1.35 1.00 -1.96 -2.17 -1.78 -4.21 -3.30 -1.43 -1.35 -0.34 -1.38 0.30
-0.10 -4.13 -5.12 -2.13 -1.17 -1.24 1.01 -3.02 -5.40 -0.12 2.47 2.06
-0.18 0.29 0.23 0.00 0.06 0.17 0.98 0.17 1.59 2.62 1.96 4.28
0.26 -1.66 -3.03 -1.80 1.04 3.06 2.50 0.87 2.42 -2.37 1.22 1.05
-0.05 1.68 1.70 -0.73 2.59 6.77 -0.98 -1.71 -2.53 -0.61 3.14 2.96
1.01 -3.69 0.45 3.89 1.38 1.57 -0.08 1.30 0.62 -0.87 -2.11 2.48
-4.73 -2.70 -2.45 -4.17 -5.76 -5.09 -2.92 -0.22 1.42 3.26 0.05 -0.95
-2.14 -2.19 -1.96 2.18 -2.97 -1.89 0.12 -0.76 -0.94 -3.90 -0.86 -2.88
-2.58 -2.78 3.30 2.06 -1.54 -1.30 -1.78 -0.13 -0.20 -1.35 -2.82 -1.97
2.25 1.17 -2.29 -2.49 -0.87 -4.15 -0.53
Tabla 1

16
Universidad San Francisco
Abril 2010

La figura 1 muestra el comportamiento de la mencionada información a través del


tiempo. Destaca en la gráfica un aparente proceso estacionario con media en 0 .

6
4
2
tsindex

0
-2
-4
-6

0 20 40 60 80 100

Time

Figura 1

Suponiendo que m 0  0 y C 0  1 según la opinión de varios expertos, se desea


pronosticar el cambio en la tasa para el siguiente mes. Mediante un DLM polinomial de
primer orden es posible resolver el problema asumiendo que la varianza observacional V t
es desconocida y considerando que la precisión presenta la distribución inicial
 0 |D0   Γ0. 5, 0. 005 .

Dada la incertidumbre que se tiene al respecto del modelo, se asumen dos casos de
coeficientes de descuento  y luego de analizar sus resultados, se escogerá la mejor tal que:

(a) Si   0. 8 se tienen los resultados detallados en la tabla 2.

17
Universidad San Francisco
Abril 2010

Coef. De
t Wt Rt Qt Pronóstico Adaptación Yt et1 mt Ct nt St
0 1.35 1.00 1.00 0.01
1 0.25 1.25 1.26 0.00 0.99 1.00 1.00 0.99 0.01 2.00 0.01
2 0.00 0.01 0.02 0.99 0.55 -1.96 -2.95 -0.64 0.72 3.00 1.30
3 0.18 0.90 2.20 -0.64 0.41 -2.17 -1.53 -1.27 0.54 4.00 1.32
4 0.14 0.68 2.00 -1.27 0.34 -1.78 -0.51 -1.44 0.37 5.00 1.09
5 0.09 0.46 1.55 -1.44 0.30 -4.21 -2.77 -2.26 0.54 6.00 1.81
6 0.13 0.67 2.48 -2.26 0.27 -3.30 -1.04 -2.54 0.45 7.00 1.66
7 0.11 0.56 2.23 -2.54 0.25 -1.43 1.11 -2.26 0.40 8.00 1.57
8 0.10 0.50 2.07 -2.26 0.24 -1.35 0.91 -2.04 0.35 9.00 1.47
9 0.09 0.44 1.91 -2.04 0.23 -0.34 1.70 -1.65 0.36 10.00 1.54
… … … … … … … … … … … …
109 0.20 1.00 5.00 -0.64 0.20 1.17 1.81 -0.28 0.80 110.00 3.99
110 0.20 1.00 4.99 -0.28 0.20 -2.29 -2.01 -0.68 0.80 111.00 3.98
111 0.20 1.00 4.98 -0.68 0.20 -2.49 -1.81 -1.04 0.79 112.00 3.97
112 0.20 0.99 4.96 -1.04 0.20 -0.87 0.17 -1.01 0.79 113.00 3.94
113 0.20 0.98 4.92 -1.01 0.20 -4.15 -3.14 -1.64 0.79 114.00 3.97
114 0.20 0.99 4.96 -1.64 0.20 -0.53 1.11 -1.41 0.79 115.00 3.95
115 0.20 0.99 4.93 -1.41 0.20
Tabla 2

(b) Si   1. 0 se tienen los resultados detallados en la tabla 3:

Coef. De
t Wt Rt Qt Pronóstico Adaptación Yt et1 mt Ct nt St
0 1.35 0.00 1.00 1.00 0.01
1 0.00 1.00 1.01 0.00 0.99 1.00 1.00 0.99 0.01 2.00 0.01
2 0.00 0.01 0.02 0.99 0.50 -1.96 -2.95 -0.48 0.73 3.00 1.46
3 0.00 0.73 2.19 -0.48 0.33 -2.17 -1.69 -1.04 0.52 4.00 1.58
4 0.00 0.52 2.10 -1.04 0.25 -1.78 -0.74 -1.22 0.34 5.00 1.34
5 0.00 0.34 1.68 -1.22 0.20 -4.21 -2.99 -1.82 0.46 6.00 2.31
6 0.00 0.46 2.77 -1.82 0.17 -3.30 -1.48 -2.07 0.37 7.00 2.24
7 0.00 0.37 2.61 -2.07 0.14 -1.43 0.64 -1.98 0.29 8.00 2.00
8 0.00 0.29 2.29 -1.98 0.12 -1.35 0.63 -1.90 0.23 9.00 1.82
9 0.00 0.23 2.05 -1.90 0.11 -0.34 1.56 -1.72 0.21 10.00 1.85
… … … … … … … … … … … …
109 0.00 0.05 5.42 -0.47 0.01 1.17 1.64 -0.46 0.05 110.00 5.34
110 0.00 0.05 5.39 -0.46 0.01 -2.29 -1.83 -0.47 0.05 111.00 5.32
111 0.00 0.05 5.37 -0.47 0.01 -2.49 -2.02 -0.49 0.05 112.00 5.31
112 0.00 0.05 5.36 -0.49 0.01 -0.87 -0.38 -0.49 0.05 113.00 5.27
113 0.00 0.05 5.31 -0.49 0.01 -4.15 -3.66 -0.53 0.05 114.00 5.34
114 0.00 0.05 5.38 -0.53 0.01 -0.53 0.00 -0.53 0.05 115.00 5.29
115 0.00 0.05 5.34 -0.53 0.01
Tabla 3

La figura 2 presenta el ajuste de los modelos a los datos. Nótese que el primero, al
tener A t mayor, reacciona más ante los cambios en los datos. Esto implica también que el
caso con   1 se presenta como un camino aleatorio puro, donde W t  0 para todo t .

18
Universidad San Francisco
Abril 2010

delta = 0.8

6
delta = 1.0
4
2
Yt

0
-2
-4
-6

0 20 40 60 80 100

Figura 2

Ahora bien, haciendo una comparación en base a estadísticos como el MAD y el


MSE se tiene que

Delta MAD MSE


0.8 1.77 5.00
1.0 1.94 5.49
Tabla 4

Y por ende, se concluye que el primer modelo es el más conveniente entregando un


pronóstico para el próximo mes de −1. 41 , con una varianza de 4. 93 . En cuanto a esto, la
figura 3 presenta el comportamiento de algunas variables del modelo seleccionado. Es
evidente que éstas convergen a cierto valor a medida que t →  , lo cual es una
demostración empírica del teorema 3.

19
Universidad San Francisco
Abril 2010

0.2 0.4 0.6 0.8 1.0

4
3
At[-1]

St

2
1
0
0 20 40 60 80 100 0 20 40 60 80 100

t[-1] t

5
0.8

4
3
Qt
Ct

0.4

2
1
0.0

0 20 40 60 80 100 0 20 40 60 80 100

t t

Figura 3

5.2 DLM de Regresión

El siguiente ejemplo pretende modelar la ecuación de demanda con estructura


Cobb-Douglas

Yt  P t   t ,

donde Yt representa la participación de mercado de una empresa, P t es el precio por un


producto de dicha firma y el parámetro  t es la elasticidad precio de la demanda.

La tabla 5 presenta información trimestral de estas variables. Los datos han sido
transformados a su forma logarítmica a fin de linealizar la ecuación anterior.

20
Universidad San Francisco
Abril 2010

t Y P
1 0.45 -0.5
2 0.83 -1.3
3 1.45 -1.5
4 0.88 -0.84
5 -1.43 -0.65
6 -1.5 -1.19
7 -2.33 2.12
8 -0.78 0.46
9 0.58 -0.63
10 1.1 -1.22
11 NA -2
12 NA 2
Tabla 5

Estudiando estos datos, se observa un comportamiento acorde con las leyes de


demanda como lo evidencia la figura 4, en la que una dinámica de espejo es notoria entre
las variables de participación y precio.
1
ts(share)

0
-2

2 4 6 8 10

Time
ts(price[-(11:12)])

2
1
-1 0

2 4 6 8 10

Time

Figura 4

Se intenta pronosticar el valor de Y11 y Y12 , por lo que inicialmente se corre una
regresión simple sin intercepto. Se obtienen así los siguientes resultados:

21
Universidad San Francisco
Abril 2010

Call:
lm(formula = share ~price[-(11:12)] - 1)
Residuals:
Min 1Q Median 3Q Max
-2.25992 -0.85371 0.06527 0.28511 0.49212
Coefficients:
Estimate Std. Error t value Pr(>|t|)
price[-(11:12)] -0.6386 0.2918 -2.188 0.0564.
---
Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1
Residual standard error: 1.065 on 9 degrees of freedom
Multiple R-squared: 0.3473, Adjusted R-squared: 0.2748
F-statistic: 4.789 on 1 and 9 DF, p-value: 0.0564
1
0
share

-1
-2

-1 0 1 2

price[-(11:12)]

Figura 5

Si bien el estimado de la elasticidad parece adecuado, los valores p de los test t y F


alertan sobre posibles fallos. La figura 5 además indica que existen aparentes puntos de
influencia con capacidad para alterar las conclusiones. Es así que se decide utilizar una
regresión DLM con tasa de descuento   0. 6 a fin de corregir estos problemas. En cuanto
a esto, la figura 6 evidencia que el comportamiento de la elasticidad no es constante a
través del tiempo, por lo que un DLM podría ser conveniente

22
Universidad San Francisco
Abril 2010

2
1
tselast

0
-1

2 4 6 8 10

Time

Figura 6

Se supone entonces que m 0  0 y C 0  1 . Y se asumirán dos casos en que el


primero presenta una varianza observacional V t conocida y constante en el tiempo, y el
segundo tiene varianza observacional desconocida con una precisión dada por
 0 |D0   Γ0. 5, 0. 01 . Entonces:

(a) Si V t  0. 2 para todo t , se tienen los resultados detallados en la tabla 6.

Coef. De
t Wt Rt Qt Pronóstico Adaptación Yt et1 mt Ct Vt
1 0.45 0.00 1.00 0.20
2 0.67 1.67 3.02 0.00 -0.72 0.83 0.83 -0.60 0.11 0.20
3 0.07 0.18 0.61 0.89 -0.45 1.45 0.56 -0.85 0.06 0.20
4 0.04 0.10 0.27 0.71 -0.31 0.88 0.17 -0.90 0.07 0.20
5 0.05 0.12 0.25 0.58 -0.32 -1.43 -2.01 -0.26 0.10 0.20
6 0.07 0.16 0.43 0.31 -0.45 -1.50 -1.81 0.55 0.08 0.20
7 0.05 0.13 0.77 1.18 0.35 -2.33 -3.51 -0.67 0.03 0.20
8 0.02 0.05 0.21 -0.31 0.12 -0.78 -0.47 -0.72 0.05 0.20
9 0.03 0.09 0.23 0.46 -0.23 0.58 0.12 -0.75 0.07 0.20
10 0.05 0.12 0.38 0.92 -0.39 1.10 0.18 -0.82 0.06 0.20
11 0.04 0.11 0.63 1.65 -0.34 0.03 0.20
12 0.02 0.06 0.43 -1.65 0.27 0.03 0.20
Tabla 6

(b) Si V t es desconocida, se tienen los resultados detallados en la tabla 7.

23
Universidad San Francisco
Abril 2010

Coef. De
t Wt Rt Qt Pronóstico Adaptación Yt et2 mt Ct St Pt
1 0.45 0.00 1.00 0.20 5.00
2 0.67 1.67 3.02 0.00 -0.72 0.83 0.83 -0.60 0.07 0.12 8.14
3 0.05 0.11 0.38 0.89 -0.45 1.45 0.56 -0.85 0.03 0.12 8.66
4 0.02 0.06 0.16 0.71 -0.31 0.88 0.17 -0.90 0.03 0.09 10.89
5 0.02 0.06 0.12 0.58 -0.32 -1.43 -2.01 -0.26 0.35 0.72 1.39
6 0.23 0.58 1.54 0.31 -0.45 -1.50 -1.81 0.55 0.32 0.85 1.18
7 0.21 0.54 3.26 1.18 0.35 -2.33 -3.51 -0.67 0.20 1.19 0.84
8 0.13 0.33 1.26 -0.31 0.12 -0.78 -0.47 -0.72 0.28 1.07 0.94
9 0.18 0.46 1.25 0.46 -0.23 0.58 0.12 -0.75 0.35 0.95 1.05
10 0.23 0.58 1.82 0.92 -0.39 1.10 0.18 -0.82 0.27 0.86 1.17
11 0.18 0.46 2.69 1.65 -0.34
12 -1.65
Tabla 7

Nótese que en ambas situaciones los pronósticos ( f t ), los residuos ( e t ) y las


elasticidades estimadas ( m t ) resultan ser iguales.

Para comparar estos modelos con la regresión lineal simple hecha anteriormente, la
figura 7 muestra el ajuste de los coeficientes estimados con relación a la elasticidad
observada. Adicional a esto, los estadísticos MAD y MSE de ambos casos se presentan en
la tabla 8.
2

DLM
Reg. Simple
1
tselast

0
-1

2 4 6 8 10

Time

Figura 7

24
Universidad San Francisco
Abril 2010

Modelo MAD MSE


Reg.Simple 0.59 0.85
DLM 0.81 1.74
Tabla 8

Se concluye entonces que si bien, la regresión simple es más precisa, el DLM es


capaz de ajustarse de mejor manera a los cambios en la información que se presente.
Finalmente la tabla 9 presenta los pronósticos para las observaciones 11 y 12 según ambos
modelos.

t Reg.Sim DLM
11 1.28 1.65
12 -1.28 -1.65
Tabla 9

25
Universidad San Francisco
Abril 2010

6. Bibliografía y Referencias
- WEST Mike, HARRISON Jeff, Bayesian Forecasting and Dynamic Models, 2º Ed.,
1997, Springer Series in Statistics.

26
Universidad San Francisco
Abril 2010

7. Algoritmo en R para la sección 6


##EJERCICIO 1##

index=c(1.35,1,-1.96,-2.17,-1.78,-4.21,-3.30,-1.43,-1.35,
-0.34,-1.38,0.3,-0.1,-4.13,-5.12,-2.13,-1.17,-1.24,1.01,
-3.02,-5.4,-0.12,2.47,2.06,-0.18,0.29,0.23,0,0.06,0.17,
0.98,0.17,1.59,2.62,1.96,4.28,0.26,-1.66,-3.03,-1.8,1.04,
3.06,2.5,0.87,2.42,-2.37,1.22,1.05,-0.05,1.68,1.7,-0.73,2.59,
6.77,-0.98,-1.71,-2.53,-0.61,3.14,2.96,1.01,-3.69,0.45,
3.89,1.38,1.57,-0.08,1.3,0.62,-0.87,-2.11,2.48,-4.73,-2.7,
-2.45,-4.17,-5.76,-5.09,-2.92,-0.22,1.42,3.26,0.05,-0.95,
-2.14,-2.19,-1.96,2.18,-2.97,-1.89,0.12,-0.76,-0.94,
-3.9,-0.86,-2.88,-2.58,-2.78,3.3,2.06,-1.54,-1.3,-1.78,-0.13,
-0.2,-1.35,-2.82,-1.97,2.25,1.17,-2.29,-2.49,-0.87,-4.15,
-0.53)
tsindex=ts(index)
plot(tsindex)
abline(h=0)

m0=0
C0=1
n0=1
d0=0.01
S0=d0/n0
t=seq(0,115,1)

#coeficiente delta=0.8#
delta=0.8
Wt=c(0)
Rt=c(0)
Qt=c(0)
ft1=c(0)
At=c(0)
Yt=c(index[1])
et1=c(0)
mt=c(m0)
Ct=c(C0)
nt=c(n0)
dt=c(d0)
St=c(S0)
Pt=c(1/S0)

for (i in 1:115){
Wt=c(Wt,(1-delta)*Ct[i]/delta)
Rt=c(Rt,Ct[i]+Wt[i+1])

27
Universidad San Francisco
Abril 2010

Qt=c(Qt,Rt[i+1]+St[i])
ft1=c(ft1,mt[i])
At=c(At,Rt[i+1]/Qt[i+1])
Yt=c(Yt,index[i+1])
et1=c(et1,Yt[i+1]-ft1[i+1])
mt=c(mt,mt[i]+At[i+1]*et1[i+1])
nt=c(nt,nt[i]+1)
St=c(St,St[i]+St[i]*(-1+et1[i+1]**2/Qt[i+1])/nt[i+1])
Ct=c(Ct,At[i+1]*St[i+1])
Pt=c(Pt,1/Ct[i+1])
}
table1=cbind(t,Wt,Rt,Qt,ft1,At,Yt,et1,mt,Ct,nt,St,Pt)

#coeficiente delta=1#
delta=1
Wt=c(0)
Rt=c(0)
Qt=c(0)
ft2=c(0)
At=c(0)
Yt=c(index[1])
et2=c(0)
mt=c(m0)
Ct=c(C0)
nt=c(n0)
dt=c(d0)
St=c(S0)
Pt=c(1/S0)

for (i in 1:115){
Wt=c(Wt,(1-delta)*Ct[i]/delta)
Rt=c(Rt,Ct[i]+Wt[i+1])
Qt=c(Qt,Rt[i+1]+St[i])
ft2=c(ft2,mt[i])
At=c(At,Rt[i+1]/Qt[i+1])
Yt=c(Yt,index[i+1])
et2=c(et2,Yt[i+1]-ft2[i+1])
mt=c(mt,mt[i]+At[i+1]*et2[i+1])
nt=c(nt,nt[i]+1)
St=c(St,St[i]+St[i]*(-1+et2[i+1]**2/Qt[i+1])/nt[i+1])
Ct=c(Ct,At[i+1]*St[i+1])
Pt=c(Pt,1/Ct[i+1])
}
table2=cbind(t,Wt,Rt,Qt,ft2,At,Yt,et2,mt,Ct,nt,St,Pt)

#Selección del mejor modelo#


plot(t,Yt)

28
Universidad San Francisco
Abril 2010

lines(t,ft1,col="blue")
lines(t,ft2,col="red")
legend(80,7,c("delta = 0.8","delta =
1.0"),col=c("blue","red"),lty=1)

table1[110:116,]
table2[110:116,]

MAD1=sum(abs(et1[-length(et1)]))/length(index)
MAD2=sum(abs(et2[-length(et1)]))/length(index)
MSE1=sum(et1[-length(et1)]**2)/length(index)
MSE2=sum(et2[-length(et1)]**2)/length(index)

MAD1
MAD2
MSE1
MSE2

#Estudio de convergencia#
par(mfrow=c(2,2))
plot(t[-1],At[-1],type="l")
plot(t,St,type="l")
plot(t,Ct,type="l")
plot(t,Qt,type="l")

##EJERCICIO 2##

share=c(0.45,0.83,1.45,0.88,-1.43,-1.50,-2.33,-
0.78,0.58,1.10)
price=c(-0.5,-1.3,-1.5,-0.84,-0.65,-1.19,2.12,0.46,-0.63,-
1.22,-2,2)
par(mfrow=c(2,1))
plot(ts(share))
plot(ts(price[-(11:12)]))

par(mfrow=c(1,1))
reg.sim=lm(share~price[-(11:12)]-1)
summary(reg.sim)
plot(price[-(11:12)],share)
abline(reg.sim)

elast=share/price[-(11:12)]
tselast=ts(elast)
plot(tselast,type="l")

m0=0
C0=1

29
Universidad San Francisco
Abril 2010

t=seq(1,12,1)

#varianza observacional conocida#


delta=0.6
V=0.2
Wt=c(0)
Rt=c(0)
Qt=c(0)
ft=c(0)
At=c(0)
Yt=c(share[1])
et1=c(0)
mt1=c(m0)
Ct=c(C0)
Vt=c(V)
Pt=c(1/V)

for (i in 1:11){
Wt=c(Wt,(1-delta)*Ct[i]/delta)
Rt=c(Rt,Ct[i]+Wt[i+1])
Qt=c(Qt,(price[i+1]**2)*Rt[i+1]+Vt[i])
ft=c(ft,price[i+1]*mt1[i])
At=c(At,price[i+1]*Rt[i+1]/Qt[i+1])
Yt=c(Yt,share[i+1])
et1=c(et1,Yt[i+1]-ft[i+1])
mt1=c(mt1,mt1[i]+At[i+1]*et1[i+1])
Vt=c(Vt,V)
Ct=c(Ct,Rt[i+1]*Vt[i+1]/Qt[i+1])
Pt=c(Pt,1/Vt[i+1])
}
table1=cbind(t,Wt,Rt,Qt,ft,price,At,Yt,et1,mt1,Ct,Vt,Pt)

#Varianza observacional desconocida#


delta=0.6
n0=1
S0=0.2
Wt=c(0)
Rt=c(0)
Qt=c(0)
ft=c(0)
At=c(0)
Yt=c(share[1])
et2=c(0)
mt2=c(m0)
Ct=c(C0)
St=c(S0)
nt=c(n0)

30
Universidad San Francisco
Abril 2010

Pt=c(1/V)

for (i in 1:11){
Wt=c(Wt,(1-delta)*Ct[i]/delta)
Rt=c(Rt,Ct[i]+Wt[i+1])
Qt=c(Qt,(price[i+1]**2)*Rt[i+1]+St[i])
ft=c(ft,price[i+1]*mt2[i])
At=c(At,price[i+1]*Rt[i+1]/Qt[i+1])
Yt=c(Yt,share[i+1])
et2=c(et2,Yt[i+1]-ft[i+1])
mt2=c(mt2,mt2[i]+At[i+1]*et2[i+1])
nt=c(nt,nt[i]+1)
St=c(St,St[i]+St[i]*(-1+et2[i+1]**2/Qt[i+1])/nt[i+1])
Ct=c(Ct,Rt[i+1]*St[i+1]/Qt[i+1])
Pt=c(Pt,1/St[i+1])
}
table2=cbind(t,Wt,Rt,Qt,ft,price,At,Yt,et2,mt2,Ct,St,Pt)

#Presentación de Resultados#
plot(tselast,type="p")
lines(t,mt1,col="red")
lines(c(0,10),c(reg.sim$coef,reg.sim$coef),col="blue")
legend(7,2,c("DLM","Reg.
Simple"),col=c("red","blue"),lty=c(1,1))

table1
table2

MAD1=sum(abs(et1[-(11:12)]))/length(share)
MAD2=sum(abs(reg.sim$residuals))/length(share)
MSE1=sum(et1[-(11:12)]**2)/length(share)
MSE2=sum((reg.sim$residuals)**2)/length(share)

MAD1
MAD2
MSE1
MSE2

#Pronósticos para más periodos#


share11.DLM=mt2[10]*price[11]
share12.DLM=mt2[10]*price[12]
share11.reg=reg.sim$coef*price[11]
share12.reg=reg.sim$coef*price[12]
share11.DLM
share11.reg
share12.DLM
share12.reg

31

Das könnte Ihnen auch gefallen