Sie sind auf Seite 1von 71

1 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Series de tiempo: Modelos


Heterocedásticos. Aplicación a una serie
económica usando R.

Yeison López Lizcano

Universidad de Granada
Departamento de Estadística e Investigación Operativa
Granada, España
2016
2 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Series de tiempo: Modelos


Heterocedásticos. Aplicación a una serie
económica usando R.

Yeison López Lizcano

Trabajo presentado como requisito parcial para optar al título de de:


Máster en Estadística Aplicada

Director:
Dr. Francisco Javier Alonso Morales

Línea de Investigación:
Análisis de series temporales. Aplicaciones a riesgos financieros

Universidad de Granada
Departamento de Estadística e Investigación Operativa
Granada, España
2016
3 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.
4 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Dedicatoria

Para mi padre, mi madre, mi hermano y mi cuñada,


quienes gracias a su esfuerzo, apoyo y dedicación
hicieron este trabajo posible.

“En el campo de la investigación


el azar no favorece más que…
a los espíritus preparados”.
Louis Pasteur
5 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.
6 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Contenido
Introducción………………………………………………………………………………………10
1 Conceptos básicos ................................................................................................. 13
1.1 Componentes................................................................................................... 13
1.1.1 Tendencia. ................................................................................................. 13
1.1.2 Estacionalidad. ......................................................................................... 13
1.1.3 Aleatoriedad. ............................................................................................. 13
1.2 Clasificación de las series temporales .......................................................... 14
1.2.1 Serie homocedástica: ............................................................................... 14
1.2.2 Serie heterocedástica. .............................................................................. 14
1.2.3 Procesos estocásticos. ............................................................................ 14
1.2.4 Clasificación de procesos estocásticos. ................................................ 14
1.2.5 Función de distribución. .......................................................................... 15
1.3 Momentos......................................................................................................... 15
1.3.1 Primer momento. ...................................................................................... 15
1.3.2 Segundo momento. .................................................................................. 15
1.4 Procesos estacionarios................................................................................... 15
1.4.1 Estacionariedad estricta. ......................................................................... 16
1.4.2 Estacionariedad débil. .............................................................................. 16
1.5 Funciones de autocovarianzas y autocorrelación. ....................................... 17
1.5.1 La función de autocovarianzas................................................................ 17
1.5.2 Función de Autocorrelación ACF. ........................................................... 17
1.5.3 Ruido blanco. ............................................................................................ 17
1.6 Modelos para series de tiempo estacionarias. .............................................. 18
1.6.1 Modelo lineal general. .............................................................................. 18
1.6.2 Parámetros del proceso: .......................................................................... 19
1.7 Proceso lineal estacionario. ........................................................................... 20
1.7.1 Estacionariedad de un proceso AR(1). ................................................... 20
1.7.2 Proceso autorregresivo de orden p: AR(2). ............................................ 23
1.7.3 Primer momento del proceso. ................................................................. 24
1.7.4 Función de autocovarianza y autocorrelación. ...................................... 24
7 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.8 La estimación de los procesos autorregresivos. .......................................... 27


1.8.1 Proceso de Medias Móviles de orden 1, MA(1):...................................... 28
1.8.2 Proceso de Medias Móviles de orden 2, MA(2):...................................... 30
1.9 Procesos autorregresivos de Medias Móviles:ARMA(p,q). .......................... 32
1.9.1 Proceso Autorregresivode Medias Móviles de orden (1, 1), ARMA(1, 1):
33
1.9.2. Modelos lineales no estacionarios. ............................................................ 35
1.9.3. Proceso Autorregresivo Integrado de Media Móvil ARIMA(p, d, q). ...... 36
1.9.4 Modelo de Paseo Aleatorio. ..................................................................... 37
1.9.5 Modelo de Paseo Aleatorio con deriva. .................................................. 37
1.9.6 Modelos Heterocedásticos Condicionales. ............................................ 38
1.9.7 Modelo autorregresivo condicional heterocedástico de orden p:
ARCH(p)................................................................................................................... 38
1.9.8 Proceso ARCH(1) ...................................................................................... 39
1.9.9 Valor esperado no condicionales. ........................................................... 40
1.9.10 Función de autocovarianza. ..................................................................... 41
1.9.11 Esperanza y varianza condicional ........................................................... 43
1.9.12 Función de verosimilitud del proceso ARCH(1). .................................... 43
1.9.13 Generalización ARCH(p) .......................................................................... 45
1.9.14 Generalización de la esperanza y varianza no-condicionales. .............. 45
1.9.15 Estimación de parámetros. ...................................................................... 47
1.9.16 Modelo Autoregresivo Condicional Heterocedástico Generalizado.
(GARCH) .................................................................................................................. 48
1.9.17 Definición proceso GARCH (p,q) ............................................................. 48
1.9.18 Correlación de un proceso GARCH......................................................... 49
1.9.19 Proceso GARCH fuerte (p, q). .................................................................. 49
1.9.20 Proceso GARCH(1,1). ............................................................................... 50
1.9.21 Estacionariedad estricta del proceso GARCH fuerte(1, 1): ................... 50
1.9.22 Condición estricta de estacionariedad. .................................................. 50
2. Capítulo 2. Algunos comandos en R. .................................................................... 52
2.1. Limpiar y preparar la información. ........................................................................ 52
2.2. Lectura de la información y librerías a utilizar. .................................................... 52
2.3. Convertir la información en una serie de tiempo. ................................................ 53
8 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2.4. Estadísticas descriptivas y gráfico de la función pura. ....................................... 53


2.5 Prueba de independencia en los rezagos. ..................................................... 53
2.6 Prueba de efectos ARCH................................................................................. 53
2.7 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para el
modelo ARIMA. ........................................................................................................... 54
2.8 Modelos ARIMA propuestos. .......................................................................... 54
2.9 Selección del modelo ARIMA.......................................................................... 54
2.10 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para el
modelo ARCH/GARCH. .............................................................................................. 55
2.11 Modelos ARCH/GARCH propuestos. .............................................................. 55
2.12 Selección del modelo ARCH/GARCH. ............................................................ 56
2.13 Modelo ARCH/GARCH seleccionado. ............................................................ 56
2.14 Gráfico del modelo ARIMA y GARCH. ............................................................ 56
3 Capítulo 3. Aplicación de una serie de tiempo económica utilizando R. ............ 57
3.1 Lectura de la información y librerías a utilizar. ............................................. 57
3.2 Convertir la información en una serie de tiempo. ................................................ 57
3.3 Estadísticas descriptivas y gráfico de la función pura. ....................................... 57
3.4 Prueba de independencia en los rezagos. ............................................................ 58
3.5 Prueba de efectos ARCH. ....................................................................................... 59
3.6 Función de autocorrelación (FAC) y Función de autocorrelación parcial (FACP)
para el modelo ARIMA. .................................................................................................. 59
3.7 Modelos ARIMA propuestos. ................................................................................. 62
3.8 Selección del modelo ARIMA. ................................................................................ 62
3.9 Función de autocorrelación (FAC) y Función de autocorrelación parcial (FACP)
para el modelo ARCH/GARCH. ..................................................................................... 62
3.10 Modelos ARCH/GARCH propuestos. ..................................................................... 63
3.11 Selección del modelo ARCH/GARCH. ................................................................... 64
3.12 Modelo ARCH/GARCH seleccionado..................................................................... 64
3.13 Gráfico de los retornos de Precio de cierre de la TRM Colombiana con los
intervalos de confianza del modelo GARCH. ............................................................... 65
4 Anexos. ................................................................................................................... 67
4.1 Pruebas de raíz unitaria. ........................................................................................ 67
4.2 Dickey-Fuller (DF) y Dickey-Fuller aumentada(ADF) ............................................ 68
Bibliografía ..................................................................................................................... 70
9 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.
10 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Introducción.
En el estudio y análisis de las series de tiempo se busca explicar la naturaleza de
una variable (económica) y la relación de esta con otras variables a lo largo del
tiempo.
En el capítulo uno estudiaremos algunos de los elementos que componen esa
variable económica y que suelen encontrarse como una serie de observaciones
dependientes ordenadas en el tiempo, donde además es necesario construir un
modelo que replique el comportamiento de estos datos en un tiempo dado t, pero
antes de esto hay que determinar si la serie presenta o no estacionalidad y cómo
influyen las observaciones del pasado en el futuro, es decir la correlación entre la
variable de interés y sus valores pasados permitirá estudiar los modelos lineales
estacionarios.
El análisis de las funciones de autocorrelación (ACF) y la función de autocorrelación
parcial (FACP) junto con el proceso de ruido blanco (WN), permitirán clasificar los
modelos lineales estacionarios y no estacionarios a partir de sus características más
esenciales. Empezaremos describiendo el proceso AR(p) donde a partir de los
procesos autoregresivos (de memoria larga) quienes presentan una característica
temporal, la cual será útil mencionar en cuanto a la absorción de perturbaciones en
un tiempo t, pero existen otro tipo de series que absorben ligeramente estas
perturbaciones y no se pueden modelar mediante procesos AR, y para ello se
introducen los modelos que presenten memoria corta, es decir que presenten Media
Móvil MA(q).
Ahora analizaremos aquellas series donde el número de parámetros juega un papel
fundamental en la descripción estructural y dinámica de los datos, es conveniente
hacer una reducción de estos parámetros y para ello se recurre al proceso
ARMA(p,q) que surge de la combinación de estructuras autorregresivas y de media
móvil donde la estructura AR(p) y MA(q) presentan sus respectivas funciones FAC
y FACP junto con el proceso ruido blanco (WN).

En los apartados anteriores, se describieron aquellos conceptos en donde en


términos generales se muestran algunas técnicas que, se fundamentan en
identificar las características más relevantes de los modelos AR y MA, junto con sus
respectivas funciones de autocorrelación y los procesos ruido blanco. El supuesto
general para estos modelos fue que los datos de series de tiempo se pueden
representar como la suma de dos componentes distintas: determinista y estocástica
(aleatoria). El primero se modela como una función del tiempo, mientras que para
este último se asumió que algo de ruido aleatorio que se añade a la señal
11 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

determinista genera el comportamiento estocástico de la serie temporal. Un


supuesto muy importante es, que el ruido aleatorio se genera a través de los
choques independientes al proceso. En la práctica, sin embargo, esta suposición es
a menudo vulnerada. Esto es, por lo general observaciones sucesivas muestran la
dependencia de serie. Vamos a explorar una clase general de modelos llamados
autorregresivo integrado en promedio móvil, de los modelos o modelos ARIMA
(también conocidos como modelos Box-Jenkins) (Montgomery., Jennings, &
Kulahci, 2008).
Analizando los procesos anteriores, es momento de adentrarnos en los procesos
heterocedásticos condicionales, donde podemos observar los procesos ARCH y
GARCH y sus características en el modelamiento de series de tiempo. Los procesos
ARCH quienes bajo el supuesto de suavizar la hipótesis de normalidad, con la
condición que se tengan procesos ruido blanco generados por variables
dependientes.
Para el proceso GARCH o ARCH generalizado, desarrollado por Bollerslev(1986),
quien propone una serie de retardos en la varianza condicional al modelo, esto con
el fin de dar una mayor precisión e incluir los valores pasados con menores rezagos
para valores más distantes, esto caracteriza un modelo GARCH.
En el capítulo dos se muestran algunos comandos en R que posteriormente se
utilizaran para analizar una serie económica, esto con el fin de modelarla a partir de
las herramientas conceptuales vistas en el capítulo uno.
En capítulo 3 se mostrara una aplicación de una serie económica, La serie
económica estudiada será la tasa de cambio representativa del mercado (TRM)
diaria Colombiana de la página del Banco de la República, donde el objetivo
principal es construir el modelo que describe la serie de tiempo a partir de sus
componentes.
12 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.
13 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Capítulo 1.
1 Conceptos básicos.
El análisis de datos en contextos sociales, físicos, biológicos, geológicos, entre
otros, es una herramienta de estudio muy importante, consiste en identificar si esos
datos cuentan con algún patrón (orden) y si también dependen de algún parámetro
temporal, si es así entonces estamos considerando definirlo como una serie
temporal (serie de tiempo) donde identificamos sus características más relevantes
en cuanto a la naturaleza de los datos y la forma en la que se cuantifican, es decir
si estas series de tiempo resultan ser de tipo discreto o continuo y si su orden de
aparición (cronológico) en una característica es de forma escalar o (univariado) o
de varias características o vectorial (multivariado).
Es necesario explorar la naturaleza de los datos y su comportamiento en el tiempo,
de forma descriptiva (tendencia central, dispersión, deformación y apuntamiento) y
también analizar la forma en la que surgen estos datos que no necesariamente es
determinística, sino que fluctúan de manera aleatoria (probabilística) en el tiempo,
por lo que analizaremos su comportamiento como una secuencia de variables
aleatorias encapsuladas a medida que van emergiendo en el tiempo. Con este
panorama empezaremos definiendo formalmente una serie de tiempo y sus
componentes principales.

1.1 Componentes
En el análisis de series temporales se recurre a la descomposición de la variable de
observación en varias componentes, de las cuales enfocaremos nuestra atención
en aquellas que presentan tendencia o periodicidad para analizarlas bajo
parámetros temporales (a largo plazo) y también su comportamiento estacional y
aleatorio.

1.1.1 Tendencia.
Empezaremos describiendo el comportamiento de una serie temporal a partir de los
cambios que presenta la media a largo plazo. La tendencia la definiremos como el
movimiento que sufre la serie temporal a largo plazo.

1.1.2 Estacionalidad.
La variación de la serie en algún periodo de tiempo se conoce como efecto
estacional. El concepto de estacionariedad se puede caracterizar bien en términos
de la función de distribución o de los momentos del proceso (Casimiro, 2009).

1.1.3 Aleatoriedad.
En una serie temporal la tendencia y la estacionariedad resultan ser de naturaleza
determinística, mientras que la aleatoriedad es de naturaleza probabilística por lo
14 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

que resultara útil inferir el comportamiento de la serie temporal a lago plazo


seleccionando una distribución de probabilidad adecuada para dicho fin.

1.2 Clasificación de las series temporales

1.2.1 Serie homocedástica:


Una serie homocedástica es aquella donde la varianza de los errores estocásticos
de la regresión se mantiene constante a lo largo de las observaciones, es decir la
varianza no cambia en el tiempo.

1.2.2 Serie heterocedástica.


Una serie se clasifica como heterocedástica si su variabilidad aumenta o disminuye
con el tiempo, pero también analizaremos una serie no estacionaria cuando los
cambios en la media determinan una tendencia a crecer o decrecer a largo plazo,
por lo que la serie no oscila alrededor de un valor constante. (Villavicencio, 2014)

1.2.3 Procesos estocásticos.


La secuencia de variables aleatorias {Xt: t = 0, ± 1, ± 2, ± 3,...} que se denomina un
proceso estocástico y sirve como un modelo para una serie de tiempo observado.
(Cryer & Chan, 2008). En términos un poco más generales, un proceso estocástico
resulta ser una colección variables ordenadas {Xt}, de acuerdo a un parámetro t,
sobre el conjunto de los números enteros t = 0, ± 1, ± 2,..., o algún subconjunto de
los números reales. Si el proceso es estocástico, cada valor de datos de la serie
puede ser vista como una media de la muestra de una distribución de probabilidad
de una población subyacente en cada punto en el tiempo (Yaffee & McGee, 1999).

1.2.4 Clasificación de procesos estocásticos.


Una posible clasificación de los procesos estocásticos consistiría en analizar tanto
la variable temporal como las características de cada una de las Variables Aleatorias
involucradas. Concretamente:
 Proceso estocástico continuo: en este caso, la variable t es continua, y cada
una de las variables de X(t) toman valores en un rango continuo.
 Proceso estocástico discreto: en este caso, la variable t es continua, pero
las variables de X(t) son Variables Aleatorias discretas.
 Secuencia aleatoria continua: la variable de indexación temporal es discreta,
pero las Variables Aleatorias involucradas toman valores en un rango
continuo. Típicamente lo denotaremos por X[n].
 Secuencia aleatoria discreta: secuencia (como la anterior) de Variables
Aleatorias discretas. La denotaremos como la anterior (López, 2004).
15 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

La forma en la que se pueden clasificar los procesos estocásticos depende


directamente en la función de distribución y sus momentos, a continuación se
describirán estas características.

1.2.5 Función de distribución.


La función de distribución de un proceso estocástico incluye todas las funciones de
distribución (univariado, multivariado) para cualquier subconjunto finito de variables
aleatorias del proceso (Casimiro, 2009):

𝐹[𝑋𝑡1 , 𝑋𝑡2 , 𝑋𝑡3 , … , 𝑋𝑡𝑛 ], ∀(𝑡1 , 𝑡2 , 𝑡3 , … , 𝑡𝑛 ); 𝑑𝑜𝑛𝑑𝑒 𝑛 𝑒𝑠 𝑓𝑖𝑛𝑖𝑡𝑎

1.3 Momentos.
Resulta bastante complejo identificar las características que definen un proceso
estocástico a partir de solamente su función de distribución, entonces
identificaremos las características más esenciales a partir de los dos primeros
momentos.

1.3.1 Primer momento.


Se genera a partir del conjunto de medias que pertenecen al proceso estocástico
(conjunto de variables aleatorias)
𝐸(𝑋𝑡 ) = 𝜇𝑡 < ∞, 𝑡 = ±1, ±2, ±3, … (1)

1.3.2 Segundo momento.


Se genera a partir del conjunto de varianzas que pertenecen al proceso estocástico,
(conjunto de variables aleatorias) además de la relación entre cada par de variables
aleatorias que la definiremos como covarianza.

𝑉(𝑋𝑡 ) = 𝐸(𝑋𝑡 − 𝜇𝑡 )2 = 𝜎𝑡2 , < ∞, 𝑡 = ±1, ±2, ±3, … (2)


𝑐𝑜𝑣(𝑋𝑡 𝑋𝑠 ) = 𝐸[𝑋𝑡 − 𝜇𝑡 ][𝑋𝑠 − 𝜇𝑠 ] = 𝛾𝑡,𝑠 , ∀𝑡, 𝑠(𝑡 ≠ 𝑠) (3)
En el caso normal, los dos primeros momentos caracterizan la distribución.

1.4 Procesos estacionarios.


Para algunos autores tales como Box y Jenkins (1976) esta propiedad supone
requerir al proceso un estado particular de “equilibrio estadístico”. La base del
análisis de series de tiempo es la estacionariedad, por ello es importante formalizar
dicho concepto (Cobis, 2011).
16 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.4.1 Estacionariedad estricta.


Este tipo de estacionalidad conviene hablar de la función de distribución y lo
definiremos como un proceso estocástico donde, Xt, es estacionario en sentido
estricto si cumple la condición:
𝐹[𝑋𝑡1 , 𝑋𝑡2 , 𝑋𝑡3 , … , 𝑋𝑡𝑛 ] = 𝐹[𝑋𝑡1+𝑘 , 𝑋𝑡2+𝑘 , 𝑋𝑡3+𝑘 , … , 𝑋𝑡𝑛+𝑘 ], ∀(𝑡1 , 𝑡2 , 𝑡3 , … , 𝑡𝑛 ) (4)
Lo que significa que, si la función de distribución de cualquier conjunto finito de n
variables aleatorias del proceso no sufre alguna alteración si se traslada k periodos
en el tiempo.

1.4.2 Estacionariedad débil.


Un proceso estocástico, Xt, es estacionario en covarianza si y solo si:
 Las medias de las variables aleatorias un proceso son finitas y
constantes, es decir hablamos de una estacionariedad de primer
momento.

𝐸(𝑋𝑡 ) = 𝜇 < ∞; ∀𝑡 (5)

 La dispersión de todas las variables aleatorias, en torno a la media


constante, es la misma para todas las variables del proceso a lo largo
del tiempo, es decir tienen la misma varianza y es finita.

𝑉(𝑋𝑡 ) = 𝐸(𝑋𝑡 − 𝜇𝑡 )2 = 𝜎 2 , < ∞, ∀𝑡 (6)

 Las autocovarianzas solo dependen de la distancia en los periodos de


dispersión entre las variables y no del tiempo, es decir, la covarianza
lineal entre dos variables aleatorias del proceso que disten k periodos
de tiempo es la misma que existe entre cualesquiera otras dos
variables que estén separadas también k periodos,
independientemente del momento concreto de tiempo al que estén
referidas (Casimiro, 2009).

𝐶𝑜𝑣(𝑋𝑡 𝑋𝑠 ) = 𝐸[𝑋𝑡 − 𝜇𝑡 ][𝑋𝑠 − 𝜇𝑠 ] = 𝛾|𝑡−𝑠| = 𝛾𝑘 < ∞, ∀𝑘 (7)

El proceso estocástico resultara estacionario débilmente si:

 𝐸(𝑋𝑡 ) = 𝜇 < ∞; ∀𝑡 (8)


𝑉(𝑋𝑡 ) = 𝜎 2 , < ∞, 𝑡 = 𝑠
 𝐶𝑜𝑣(𝑋𝑡 𝑋𝑠 )= { (9)
𝛾|𝑡−𝑠| = 𝛾𝑘 < ∞, 𝑡 ≠ 𝑠
17 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Si un proceso estocástico es estacionario débilmente y si su distribución es Normal,


entonces es estacionario en sentido estricto (Casimiro, 2009).

1.5 Funciones de autocovarianzas y autocorrelación.

1.5.1 La función de autocovarianzas.


Un proceso estocástico estacionario es una función de k (número de periodos de
separación entre las variables) que recoge el conjunto de las autocovarianzas del
proceso y se denota por:

𝛾𝑘 , 𝑘 = 1,2,3, …
Propiedades.
 Para k=0 se incluye la varianza 𝛾0 = 𝐸[𝑋𝑡 − 𝜇 ][𝑋𝑡 − 𝜇 ] = 𝑉(𝑋𝑡 )
 Es función simétrica
𝛾𝑘 = 𝐸[𝑋𝑡 − 𝜇 ][𝑋𝑡+𝑘 − 𝜇 ] = 𝐸[𝑋𝑡 − 𝜇 ][𝑋𝑡−𝑘 − 𝜇 ] = 𝛾−𝑘

1.5.2 Función de Autocorrelación ACF.


Este coeficiente mide la fuerza de la dependencia lineal entre dos variables X e Y,
donde podemos evidenciar que este coeficiente se encuentra entre los valores -1 ≤
ρxt,xs ≤ 1, además ρxt,xs = ρxs,xt. Cabe hacer notar también que si las dos variables
aleatorias no están correlacionadas linealmente, los valores del coeficiente serán
ρxt,xs = 0. Además, si X e Y son variables aleatorias normales, entonces ρxt,xs = 0 si
y sólo si X e Y son independientes.
Los coeficientes de correlación entre dos variables aleatorias X e Y se define de la
siguiente manera:
∑𝑇
𝑡,𝑠=1(𝑋𝑡 −𝜇𝑡 )(𝑋𝑠 −𝜇𝑠 )
𝜌̂
𝑋𝑡 𝑋𝑠 = (10)
√∑𝑇 2 𝑇
𝑡,𝑠=1(𝑋𝑡 −𝜇𝑡 ) ∑𝑡,𝑠=1(𝑋𝑠 −𝜇𝑠 )
2

Una serie no es correlacionada formalmente si y solo si ρxt,xs = 0 para todo t,s > 0.
La representación de una correlación serial es congruente a la correlación de una
variable con ella misma en intervalos sucesivos de tiempo.

1.5.3 Ruido blanco.


Una serie de tiempo xt se denomina ruido blanco si {xt} es una secuencia de
variables aleatorias independientes e idénticamente distribuidas con media y
varianza finita. En particular, si xt tiene una distribución normal con media cero y
varianza σ2, la serie se denomina ruido blanco gaussiano (TSAY, 2005).
18 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Simbolizaremos al proceso ruido blanco como:


𝜀𝑡 , ∀𝑡
𝜀𝑡 ~ 𝑁(0, 𝜎 2 )
𝐸(𝜀𝑡 ) = 0, ∀𝑡
𝑉(𝜀𝑡 ) = 𝜎 2 , ∀𝑡

𝐶𝑜𝑣(𝜀𝑡𝑖 , 𝜀𝑡𝑗 ) = 0, ∀𝑡𝑖 ≠ 𝑡𝑗

1.6 Modelos para series de tiempo estacionarias.

1.6.1 Modelo lineal general.


Un proceso lineal general, {Xt}, es uno que se puede representar como una
combinación lineal ponderada de los términos de ruido blanco presentes y pasados
que se descompone la serie Xt en dos partes, una que recoge el patrón de
regularidad, o parte determinística, y otra parte puramente aleatoria, denominada
también innovación (Casimiro, 2009):

𝑋𝑡 = 𝜀𝑡 Ψ1 + 𝜀𝑡−1 Ψ2 + 𝜀𝑡−2 Ψ3 + ⋯
Dada una serie temporal de media cero, como el valor de X en el momento t
depende de su pasado, un modelo teórico capaz de describir su comportamiento
sería:

𝐹[𝑋𝑡−1 , 𝑋𝑡−2 , 𝑋𝑡−3 , … , ] + 𝜀𝑡 𝑡 = 1,2,3, … (11)

En el caso de los procesos estacionarios distribuidos normalmente con media cero,


podríamos señalar que en los procesos estocásticos bajo condiciones muy
generales, Xt se puede representar como combinación lineal de los valores pasados
infinitos de la variable X más un proceso ruido blanco:

𝑋𝑡 = Ψ1 𝑋𝑡−1 + Ψ2 𝑋𝑡−2 + Ψ3 𝑋𝑡−3 + ⋯ + 𝜀𝑡 𝑡 = 1,2,3, … (12)


19 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.6.2 Parámetros del proceso:


a) En un proceso, es indispensable que el presente no venga determinado por el
futuro, es decir que no permita ser anticipado, para que luego el valor de X en el
momento t no pueda depender de valores futuros de X o de los procesos de ruido
blanco 𝜀𝑡 .
b) Invertibilidad, en este caso, el presente dependa de forma convergente de su
propio pasado lo que involucra que la influencia de Xt−k en Xt ha de ir disminuyendo
conforme nos alejemos en el pasado.
Para el modelo general (12) cumplen la siguiente restricción:

∑ Ψ𝑖2 < ∞
𝑖=1

El modelo (12) se puede reescribir en términos del operador de retardos:

𝑋𝑡 = 𝑋𝑡 (Ψ1 𝐿 + Ψ2 𝐿2 + Ψ3 𝐿3 + ⋯ ) + 𝜀𝑡
(1 − Ψ1 𝐿 − Ψ2 𝐿2 − ⋯ )𝑋𝑡 = 𝜀𝑡
Ψ(𝐿)𝑋𝑡 = 𝜀𝑡
1
𝑋𝑡 = 𝜀
Ψ(𝐿) 𝑡
𝑋𝑡 = 𝜓(𝐿)𝜀𝑡
𝑋𝑡 = (1 + ψ1 𝐿 + ψ2 𝐿2 + ψ3 𝐿3 + ⋯ )𝜀𝑡
𝑋𝑡 = 𝜀𝑡 + ψ1 𝜀𝑡−1 + ψ2 𝜀𝑡−2 + ψ3 𝜀𝑡−3 + ⋯ 𝑡 = 1,2,3, … (13)
Cumpliendo la restricción anteriormente descrita, observamos que el valor Xt se
puede simbolizar como la combinación lineal del ruido blanco 𝜀𝑡 y su pasado infinito.
Esta restricción implica que el valor presente depende de forma convergente de las
innovaciones pasadas, es decir, la influencia de la parte determinística 𝜀𝑡−𝑘 va
desapareciendo conforme se aleja en el pasado (Casimiro, 2009).
La teoría de polinomios nos proporciona una información valiosa ya que, bajo
condiciones muy generales, un polinomio de orden infinito puede aproximarse
mediante un cociente de la siguiente forma:
𝜙𝑝 (𝐿)
∏(𝐿) =
𝜃𝑞 (𝐿)
20 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Los polinomios 𝜙𝑝 (𝐿)𝑦 𝜃𝑞 (𝐿) representan los retardos infinitos

𝜙𝑝 (𝐿) = 1 − 𝜙1 (𝐿) − 𝜙2 (𝐿2 ) − ⋯ − 𝜙𝑝 (𝐿𝑝 )

𝜃𝑞 (𝐿) = 1 − 𝜃1 (𝐿) − 𝜃2 (𝐿2 ) − ⋯ − 𝜃𝑞 (𝐿𝑞 )

Reemplazando en el modelo (12) hallamos


𝜙𝑝 (𝐿)
∏(𝐿) 𝑋𝑡 = 𝑋 = 𝜀𝑡
𝜃𝑞 (𝐿) 𝑡

𝜙𝑝 (𝐿)𝑋𝑡 = 𝜃𝑞 (𝐿)𝑋𝑡

Teniendo en cuenta las restricciones anteriormente mencionadas, es momento de


representar de tres formas los modelos a partir de estos supuestos:
• Forma puramente autorregresiva (1), AR(∞): el valor actual de la variable se
representa en función de su propio pasado más un proceso ruido blanco presente.
• Forma puramente de medias móviles (2), MA(∞): el valor actual de la variable se
representa en función de todos los ruidos blancos presentes y pasados.
• forma finita:
𝜙𝑝 (𝐿)𝑋𝑡 = 𝜃𝑞 (𝐿)𝜀𝑡

(1 − 𝜙1 (𝐿) − 𝜙2 (𝐿2 ) − ⋯ − 𝜙𝑝 (𝐿𝑝 )) 𝑋𝑡 = (1 − 𝜃1 (𝐿) − 𝜃2 (𝐿2 ) − ⋯ − 𝜃𝑞 (𝐿𝑞 )) 𝜀𝑡

𝑋𝑡 = 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + ⋯ + 𝜙𝑝 𝑋𝑡−𝑝 + 𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 − ⋯ − 𝜃𝑞 𝜀𝑡−𝑞


𝜙
⏟1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + ⋯ + 𝜙𝑝 𝑋𝑡−𝑝 𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 − ⋯ − 𝜃𝑞 𝜀𝑡−𝑞

𝑋𝑡 = +
𝐹𝑜𝑟𝑚𝑎 𝐴𝑢𝑡𝑜𝑟𝑟𝑒𝑔𝑟𝑒𝑠𝑖𝑣𝑎 𝐹𝑜𝑟𝑚𝑎 𝑚𝑒𝑑𝑖𝑎𝑠 𝑚ó𝑣𝑖𝑙𝑒𝑠

1.7 Proceso lineal estacionario.

1.7.1 Estacionariedad de un proceso AR(1).


Teniendo en cuenta que en los modelos lineales se deben identificar ciertas
características para el cual un proceso contiene un valor pasado inmediato, es decir,
el primer retardo xt−1 es estadísticamente significativo en el pronóstico de xt
comúnmente se expresa como
21 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑋𝑡 = 𝜙0 + 𝜙1 𝑋𝑡−1 + 𝜀𝑡 (14)
Este proceso representa uno de los modelos que con mayor frecuencia se usa para
el análisis de las series temporales, y usualmente se le denomina proceso
autorregresivo de primer orden AR(1), con lo que empezaremos la descripción del
proceso a partir de sus valores condicionados para media y varianzas a partir de
sus valores pasados.

𝐸(𝑋𝑡 |𝑋𝑡−1 ) = 𝜙0 + 𝜙𝑋𝑡−1 + 𝜀𝑡 (15)


𝑉𝑎𝑟(𝑋𝑡 |𝑋𝑡−1 ) = 𝑉𝑎𝑟(𝜀𝑡 ) = 𝜎𝜀2𝑡 (16)

Ahora podemos pensar en definir el proceso AR(1) como la adición de dos


componentes, una de las cuales se puede establecer a partir de la información del
pasado y la otra componente un término aleatorio con una estructura a precisar
(retomando la definición y propiedades de ruido blanco). Entonces, reescribiremos
el proceso autorregresivo de orden uno AR(1) como sigue:

𝑋𝑡 = 𝐸(𝑋𝑡 |𝑋𝑡−1 ) + 𝜀𝑡 (17)

Para cualquier valor del parámetro, el modelo AR(1) es estacionario si cumple


las siguientes condiciones.
 Estacionario en media

𝐸(𝑋𝑡 ) = 𝐸(𝜙0 + 𝜙1 𝑋𝑡−1 + 𝜀𝑡 )

𝐸(𝑋𝑡 ) = 𝜙0 + 𝜙𝐸(𝑋𝑡−1 )

La condición de estacionariedad se cumple cuando la media es constante y


finita

𝐸(𝑋𝑡 ) = 𝜙0 + 𝜙𝐸(𝑋𝑡−1 )

(1 − 𝜙)𝐸(𝑋𝑡 ) = 𝜙0

𝜙0
𝐸(𝑋𝑡 ) =
(1 − 𝜙)

El proceso es estacionario si |𝜙| < 1


22 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

 Estacionario débilmente.

Si el proceso AR(1) presenta varianza constante en el tiempo, entonces se


dice estacionario en varianza

𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 ))2 = 𝐸(𝜙𝑋𝑡−1 + 𝜀𝑡 − 0)2 = 𝜙 2 𝑉(𝑋𝑡−1 ) + 𝜎 2

Teniendo en cuenta la autocorrelación del proceso

𝐸(𝑋𝑡−1 𝜀𝑡 ) = 𝐸[(𝑋𝑡−1 − 0)(𝜀𝑡 − 0)] = 𝑐𝑜𝑣(𝑋𝑡−1 𝜀𝑡 ) = 0


Con la condición de estacionariedad
𝐸(𝑋𝑡−1 )2 = 𝑉(𝑋𝑡−1 ) = 𝑉(𝑋𝑡 ) = 𝛾0
Donde
𝛾0 = 𝜙 2 𝛾0 + 𝜎 2
Entonces
𝜎2
𝛾0 =
1 − 𝜙2
Para que se cumpla la condición de estacionariedad, la varianza debe ser constante
y finita si y solo si |𝜙|<1
La función de autocovarianza de k-esimo orden será:

𝛾𝑘 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 )][𝑋𝑡−𝑘 − 𝐸(𝑋𝑡−𝑘 )] = 𝐸[(𝜙𝑋𝑡−1 + 𝜀𝑡 )(𝑋𝑡−𝑘 )]


𝛾𝑘 = 𝜙𝐸(𝑋𝑡 𝑋𝑡−𝑘 ) + 𝐸(𝜀𝑡 𝑋𝑡−𝑘 ) = 𝜙𝛾𝑘−1
Teniendo en cuenta que:
𝛾1 = 𝜙𝛾0
𝛾2 = 𝜙𝛾1
𝛾3 = 𝜙𝛾2
.
.
.
23 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝛾𝑘 = 𝜙𝛾𝑘−1
Con lo que se puede deducir que el proceso es estacionario si y solo si |𝜙|< 1
Verificando que el proceso sea autorregresivo de orden 1 AR(1) y además
estacionario si y solo si |𝜙| < 1.
Y su función de autocovarianza estará definida a partir de:
𝜎2
𝑘=0
𝛾𝑘 = { 1 − 𝜙 2
𝜙𝛾𝑘−1 𝑘>0

Definiendo la función de autocorrelación de un proceso autorregresivo de orden 1


AR(1) donde:
1 𝑘=0
𝜌𝑘 = {
𝜙𝜌𝑘−1 𝑘>0
𝜌𝑘 = 𝜙𝑘 𝑘≥0

Las características esenciales para un proceso AR(1) vienen dadas a partir de:
 El modelo AR(1) es estacionario siempre que |𝜙| < 1.
 La representación gráfica de la función de autocorrelación mostrará un
comportamiento hacia cero con todos sus valores positivos cuando 𝜙 > 0,
mientras que si 𝜙 < 0 se alternará el signo, comenzando con negativo
(Villavicencio, 2014).

1.7.2 Proceso autorregresivo de orden p: AR(2).


Consideraremos un modelo AR(2) de la forma
𝑋𝑡 = 𝜙0 + 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝜀𝑡 (18)

Retomando lo aplicado en el modelo AR(1) resulta:


𝜙0
𝐸(𝑋𝑡 ) = 𝜇 =
(1 − 𝜙1 − 𝜙2 )

Con la condición que 𝜙1 + 𝜙2 ≠ 1 y de forma más conveniente expresaremos a


𝜙0 de la forma:
𝜙0 = (1 − 𝜙1 − 𝜙2 )𝜇
24 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Reemplazando y reescribiendo obtendremos

(𝑋𝑡 − 𝜇) = 𝜙1 (𝑋𝑡−1 − 𝜇)+ 𝜙2 (𝑋𝑡−2 − 𝜇) + 𝜀𝑡

Ahora consideraremos la estacionariedad del proceso AR(2), a partir del análisis de


su primer y segundo momento.

1.7.3 Primer momento del proceso.


Una característica que enmarca la estacionariedad de un proceso AR(2) consiste
en que se debe validar que la media sea constante y finita en el tiempo. En
términos del operador de retardo (L) se tiene:

𝐸((1 − 𝜙1 𝐿 − 𝜙2 𝐿2 )𝑥𝑡 ) = 𝐸(𝑋𝑡 )

(1 − 𝜙1 𝐿 − 𝜙2 𝐿2 )𝐸(𝑋𝑡 ) = 0

𝜙0
𝐸(𝑋𝑡 ) =
1 − 𝜙1 𝐿 − 𝜙2 𝐿2

𝐸(𝑋𝑡 ) = 0

1.7.4 Función de autocovarianza y autocorrelación.


Para que el proceso es estacionario, la función de autocovarianza y
autocorrelación no deben depender de un parámetro temporal.

𝛾𝑘 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−𝑘 − 𝐸(𝑋𝑡−𝑘 ))]

𝛾𝑘 = 𝐸[(𝑋𝑡 )(𝑋𝑡−𝑘 )]
𝛾𝑘 = 𝐸[(𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝜀𝑡 )(𝑋𝑡−𝑘 )]
𝛾𝑘 = 𝜙1 𝛾𝑘−1 + 𝜙2 𝛾𝑘−2
Donde 𝛾0:
2
𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 )) = 𝐸(𝑋𝑡 )2

𝛾0 = (𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝜀𝑡 )2


𝛾0 = 𝜙12 𝛾0 + 𝜙22 𝛾0 + 𝜎 2 + 2𝜙1 𝜙2 𝛾1
𝛾0 − 𝜙12 𝛾0 − 𝜙22 𝛾0 = 𝜎 2 + 2𝜙1 𝜙2 𝛾1
25 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝜎 2 + 2𝜙1 𝜙2 𝛾1
𝛾0 =
1 − 𝜙12 − 𝜙22
Y ahora 𝛾1:
𝛾1 = 𝐸[(𝑋𝑡 )(𝑋𝑡−1 )]
𝛾1 = 𝐸[(𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝜀𝑡 )(𝑋𝑡−1 )]
𝛾1 = 𝜙1 𝐸(𝑋𝑡−1 )2 + 𝜙2 𝐸(𝑋𝑡−2 𝑋𝑡−1 ) + 𝐸(𝜀𝑡 𝑥𝑡−1 )
𝛾1 = 𝜙1 𝛾0 + 𝜙2 𝛾1
𝜙1 𝛾0
𝛾1 =
1 − 𝜙2
El proceso es estacionario en sentido débil si y solo si se cumple la condición:
1 − 𝜙12 − 𝜙22 ≠ 0; 𝑦 𝜙2 ≠ 1.
Donde su función de covarianza estará generada por:
𝜎 2 + 2𝜙1 𝜙2 𝛾1
𝑘=0
1 − 𝜙12 − 𝜙22
𝛾𝑘 = 𝜙1 𝛾0
𝑘=1
1 − 𝜙2
{𝜙1 𝛾𝑘−1 + 𝜙2 𝛾𝑘−2 𝑘 > 1

La función de autocorrelación de un proceso autorregresivo AR(2), definida por:

1 𝑘=0
𝜙1
𝜌𝑘 = { 𝑘=1
1 − 𝜙2
𝜙1 𝜌𝑘−1 + 𝜙2 𝜌𝑘−2 𝑘 > 1

Para concluir con los procesos AR(p), se muestran las condiciones de


estacionariedad para el modelo AR(1) y AR(2).
Modelo AR(1): De la ecuación expresada por el operador de retado
(1 − 𝜙𝐿)𝑋𝑡 = 𝜀𝑡
Polinomio autorregresivo:
𝜙1 (𝐿) = 1 − 𝜙𝐿
26 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Raíces: 1 − 𝜙𝐿 = 0
1
𝐿=
𝜙

La condición de estacionariedad para el modelo AR(1) es:


1
|𝐿| = | | > 1
𝜙
|𝜙| < 1
Modelo AR(2): De la ecuación expresada por el operador de retado

(1 − 𝜙1 𝐿 − 𝜙2 𝐿2 )𝑋𝑡 = 𝜀𝑡

Polinomio autorregresivo:
𝜙2 (𝐿) = 1 − 𝜙1 𝐿 − 𝜙2 𝐿2

Raíces: 1 − 𝜙1 𝐿 − 𝜙2 𝐿2 = 0

𝜙1 ± √𝜙12 + 4𝜙2
𝐿1 , 𝐿2 =
−2𝜙2
La condición de estacionariedad para el modelo AR(2) es:

𝜙1 + √𝜙12 + 4𝜙2 𝜙1 − √𝜙12 + 4𝜙2


|𝐿1 | = | |>1 𝑦 |𝐿2 | = | |>1
−2𝜙2 −2𝜙2

En la literatura de series de tiempo, las dos de las soluciones se conocen como las
raíces características del modelo de AR(2). Se Denotan las dos soluciones por ω 1
y ω2. Si para los valores de ωi que pertenecen al conjunto de los reales, entonces
la ecuación de diferencia de segundo orden del modelo, se puede factorizar como
(1 - ω1L) (1 - ω2L) y el modelo AR(2) puede ser considerado como un modelo AR(1),
funcionando por encima de otro modelo AR(1). La función de autocorrelación (ACF)
de 𝑋𝑡 es entonces una mezcla de dos degradaciones exponenciales.
Si 𝜙12 + 4𝜙2 < 0, entonces ω1 y ω2 son números complejos (llamados un par
complejo conjugado), y un gráfico de la ACF de mostrarían una imagen de
amortiguación ondas de seno y coseno. En aplicaciones comerciales y económicas,
las raíces características complejas son importantes. Ellas dan lugar al
27 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

comportamiento de los ciclos económicos. Es entonces común para los modelos de


series de tiempo económico tener raíces características de valor complejo (TSAY,
2005).

1.8 La estimación de los procesos autorregresivos.

Bajo el supuesto de un orden conocido p tenemos diferentes posibilidades para


estimar los parámetros:
 Si se conoce la distribución del proceso de ruido blanco que genera el
proceso AR(p), los parámetros se puede estimar utilizando los métodos de
máxima verosimilitud (MV).
 Los parámetros también pueden ser estimados con el método de momentos
mediante el uso de las ecuaciones de Yule-Walker.
Si el orden de un proceso AR es desconocido, se puede estimar con la ayuda de
criterios de información. Para este fin, los procesos AR con aumentos sucesivos de
orden p = 1,2, ..., pmax serán estimados. Por último, el orden p* se minimiza para lo
cual se elige que el criterio correspondiente (Kirchgässner & Wolters, 2007).
A menudo se utilizan los siguientes criterios:
 El error de predicción final, que se remonta a HIROTUGU Akaike (1969)

𝑇
𝑇+𝑚 1
𝐸𝐹𝑃 = ∑(𝑢̂𝑡 (𝑝) )2
𝑇−𝑚 𝑇
𝑡=1

 En estrecha relación con esto está el criterio de información de Akaike (AIC)


Akaike (1974)

𝑇
1 2
𝐴𝐼𝐶 = 𝑙𝑛 ∑(𝑢̂𝑡 (𝑝) )2 + 𝑚
𝑇 𝑇
𝑡=1

𝐴𝐼𝐶 = − ln(𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑣𝑒𝑟𝑜𝑠𝑖𝑚𝑖𝑙𝑖𝑡𝑢𝑑) + 2𝑚


28 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

 Las alternativas son el criterio Bayesiano de Gedeón Schwarz (1978)

𝑇
1 𝑙𝑛𝑇
𝐶𝑆 = 𝑙𝑛 ∑(𝑢̂𝑡 (𝑝) )2 + 𝑚
𝑇 𝑇
𝑡=1

 así como el criterio desarrollado por EDWARD J. Hannon y BARRY G.


QUINN (1979)

𝑇
1 2𝑙𝑛𝑙𝑛(𝑇)
𝐻𝑄 = 𝑙𝑛 ∑(𝑢̂𝑡 (𝑝) )2 + 𝑚
𝑇 𝑇
𝑡=1

Los valores 𝑢̂𝑡 son los residuos estimados del proceso AR(p), mientras que m es el
número de parámetros estimados. Si se estima que el término constante, también,
m = p + 1 para un proceso AR(p). Estos criterios se basan siempre en el mismo
principio: Se componen de una parte, la suma de residuos al cuadrado (o su
logaritmo), que disminuye cuando el número de parámetros estimados aumenta, y
de un “término de castigo” lo que aumenta cuando el número de los parámetros
estimados se incrementa. Mientras que los dos primeros criterios sobrestiman el
verdadero orden asintóticamente, los otros dos criterios estiman que el verdadero
orden del proceso consistente (Kirchgässner & Wolters, 2007).

1.8.1 Proceso de Medias Móviles de orden 1, MA(1):


Pasamos ahora a otra clase de modelos simples que también son útiles en el
modelado de retornos de en una serie financiera. Estos modelos se llaman modelos
de promedios móviles (MA). Hay varias maneras de introducir modelos MA. Un
enfoque consiste en tratar el modelo como una simple extensión de la serie de ruido
blanco. Otro enfoque es tratar el modelo como modelo AR de orden infinito con
algunas limitaciones de los parámetros (TSAY, 2005).
Enfocaremos nuestra atención en el modelo de promedios móviles de orden q.
𝑋𝑡 = 𝜀𝑡 – 𝜃1 𝜀𝑡−1 – 𝜃2 𝜀𝑡−2 – … – 𝜃𝑞 𝜀𝑡−𝑞

Lo llamaremos como una serie con media móvil de orden q y abreviaremos su


nombre como MA(q)
Con el fin de verificar si el proceso MA(1) es estacionario, se verifican los momentos
uno y dos del proceso
29 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑋𝑡 = 𝜀𝑡 – 𝜃1 𝜀𝑡−1

 Esperanza del proceso.

A partir de las condiciones del proceso MA(1) su valor esperado será:

𝐸(𝑋𝑡 ) = 𝐸(𝜀𝑡 − 𝜃𝜀𝑡−1 )


𝐸(𝑋𝑡 ) = 𝐸(𝜀𝑡 ) − 𝜃𝐸(𝜀𝑡−1 ) = 0

Concluimos que el proceso MA(1) es estacionario en media.

 Función de autocovarianza y autocorrelación.

Para que un proceso sea estacionario, debe cumplir que la función de


autocovarianza y autocorrelación no dependan del tiempo.
Para 𝛾0 se tiene,
2
𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 )) = 𝐸(𝑋𝑡 )2

𝛾0 = 𝐸(𝜀𝑡 − 𝜃𝜀𝑡−1 )2
𝛾0 = 𝐸(𝜀𝑡 )2 + 𝜃 2 𝐸(𝜀𝑡−1 )2 − 2𝜃𝐸(𝜀𝑡 𝜀𝑡−1 )
𝛾0 = 𝜎 2 + 𝜃 2 𝜎 2 − 0
𝛾0 = (1 + 𝜃 2 )𝜎 2
Para 𝛾1 y 𝛾2 se tiene,
𝛾1 = 𝐸[(𝜀𝑡 − 𝜃𝜀𝑡−1 )(𝜀𝑡−1 − 𝜃𝜀𝑡−2 )]
𝛾1 = 𝐸(𝜀𝑡 𝜀𝑡−1 ) − 𝜃𝐸(𝜀𝑡−1 )2 − 𝜃𝐸(𝜀𝑡 𝜀𝑡−2 ) + 𝜃 2 𝐸(𝜀𝑡−1 𝜀𝑡−2 ) = −𝜃𝜎 2
𝛾2 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−2 − 𝐸(𝑋𝑡−2 )) = 𝐸[(𝜀𝑡 − 𝜃𝜀𝑡−1 )(𝜀𝑡−2 − 𝜃𝜀𝑡−3 )]
𝛾2 = 𝐸(𝜀𝑡 𝜀𝑡−2 ) − 𝜃𝐸(𝜀𝑡−1 𝜀𝑡−2 ) − 𝜃𝐸(𝜀𝑡 𝜀𝑡−3 ) + 𝜃 2 𝐸(𝜀𝑡−1 𝜀𝑡−3 )
𝛾2 = 0

Luego, la función de autocovarianzas de un MA(1) es:


30 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

(1 + 𝜃 2 )𝜎 2 𝑘 = 0
𝛾𝑘 = {−𝜃𝜎 2 𝑘 =1
0 𝑘>1

La función de autocovarianzas es finita y depende sólo de k y no alguna


condición temporal, para cualquier valor del parámetro 𝜃.

La funcion de autocorrelación de un proceso MA(1) es:

1 𝑘=0
−𝜃
𝜌𝑘 = { 𝑘=1
1 + 𝜃2
0 𝑘>1
La funcion de autocorrelacion ACF es una herramienta de gran utilidad en la
identificacion del orden de un modelo de medias moviles. La ACF de un MA(q) se
anula despues del retardo q, es decir, se anula (ρk = 0 para k > q), entonces se tiene
que el proceso puede ser modelizado mediante un proceso de medias moviles de
orden q, MA(q)

1.8.2 Proceso de Medias Móviles de orden 2, MA(2):


Para analizar el proceso se tendrá en cuenta la ecuación:
𝑋𝑡 = 𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 (19)
Donde 𝜀𝑡 ~ 𝑅𝐵(0, 𝜎 2 )
 Valor esperado.
De acuerdo a la ecuación (19) el proceso tiene media:

𝐸(𝑋𝑡 ) = 𝐸(𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 ) = 0

 Función de autocovarianza y autocorrelación.

Para 𝛾0 se tiene,
2
𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 )) = 𝐸(𝑋𝑡 )2

𝛾0 = 𝐸(𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 )2


𝛾0 = 𝜎 2 + 𝜃12 𝜎 2 + 𝜃22 𝜎 2
𝛾0 = (1 + 𝜃12 + 𝜃22 )𝜎 2
La expresión para 𝛾1:
31 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝛾1 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−1 − 𝐸(𝑋𝑡−2 ))] = 𝐸(𝑋𝑡 𝑋𝑡−1 )

𝛾1 = 𝐸[(𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 )(𝜀𝑡−1 − 𝜃1 𝜀𝑡−2 − 𝜃2 𝜀𝑡−3 )]

𝛾1 = −𝜃1 𝜎 2 + 𝜃1 𝜃2 𝜎 2 = (−𝜃1 + 𝜃1 𝜃2 )𝜎 2

La expresión para 𝛾2:

𝛾2 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−2 − 𝐸(𝑋𝑡 ))] = 𝐸(𝑋𝑡 𝑋𝑡−2 )

𝛾2 = 𝐸[(𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 )(𝜀𝑡−2 − 𝜃1 𝜀𝑡−3 − 𝜃2𝜀𝑡−4 )]


𝛾2 = −𝜃2 𝜎 2

Para 𝛾3 se tiene,

𝛾3 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−3 − 𝐸(𝑋𝑡 ))] = 𝐸(𝑋𝑡 𝑋𝑡−3 )

𝛾3 = 𝐸[(𝜀𝑡 − 𝜃1 𝜀𝑡−1 − 𝜃2 𝜀𝑡−2 )(𝜀𝑡−3 − 𝜃1 𝜀𝑡−4 − 𝜃2 𝜀𝑡−5 )]


𝛾3 = 0

La función de autocovarianzas de un MA(2) es:

𝛾0 = (1 + 𝜃12 + 𝜃22 )𝜎 2 𝑘 = 0
𝛾𝑘 = { 𝛾1 = (−𝜃1 + 𝜃1 𝜃2 )𝜎 2 𝑘 = 1 𝑦 𝑘 > 2
𝛾2 = −𝜃2 𝜎 2 𝑘=2

La función de autocorrelación de un MA(2) es:

−𝜃1 + 𝜃1 𝜃2
𝜌1 = 𝑘=1
1 + 𝜃12 + 𝜃22
𝜌𝑘 = −𝜃2
𝜌2 = 𝑘=2
1 + 𝜃12 + 𝜃22
{𝜌3 = 0 𝑘>2

Por lo tanto, el modelo MA(q) no es invertible para cualquier valor del vector de
parámetros de medias móviles, sino que estos tendrán que cumplir algunas
restricciones. Derivar estas restricciones fue muy sencillo para el MA(1), pero se
complica mucho al aumentar el orden del modelo de medias móviles. El siguiente
32 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

teorema proporciona condiciones necesarias y suficientes para que el modelo de


medias móviles sea invertible (Casimiro, 2009).

Modelo MA(1): De la ecuación expresada por el operador de retado


𝑋𝑡 = (1 − 𝜃𝐿)𝜀𝑡
Polinomio medias móviles:
𝜃1 (𝐿) = 1 − 𝜃𝐿
Raíces: 1 − 𝜃𝐿 = 0
1
𝐿=
𝜃
La condición de invertibilidad para el modelo MA(1) es:
1
|𝐿| = | | > 1 ⟹ |𝜃| < 1
𝜃
Modelo MA(2): De la ecuación expresada por el operador de retado
𝑋𝑡 = (1 − 𝜃1 𝐿 − 𝜃2 𝐿2 )𝜀𝑡
Polinomio de medias móviles:

𝜃2 (𝐿) = 1 − 𝜃1 𝐿 − 𝜃2 𝐿2

Raíces: 1 − 𝜃1 𝐿 − 𝜃2 𝐿2 = 0

𝜃1 ± √𝜃12 + 4𝜃2
𝐿1 , 𝐿2 =
−2𝜃2
La condición de invertibilidad para el modelo MA(2) es:

𝜃1 + √𝜃12 + 4𝜃2 𝜃1 − √𝜃12 + 4𝜃2


|𝐿1 | = | | > 1 𝑌 |𝐿2 | = | |>1
−2𝜃2 −2𝜃2

1.9 Procesos autorregresivos de Medias Móviles:ARMA(p,q).


Un modelo ARMA combina las ideas de los modelos AR y MA en una forma
compacta de manera que el número de parámetros usados se mantiene pequeño.
Para la serie de retorno en finanzas, la posibilidad de utilizar modelos ARMA es
baja. Sin embargo, el concepto de modelos ARMA es altamente relevante en el
modelado de la volatilidad (TSAY, 2005).
33 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

La notación de un proceso ARMA(p, q) será de la siguiente manera:


𝑋𝑡 = 𝜙1 𝑋𝑡−1 + ⋯ + 𝜙𝑝 𝑋𝑡−𝑝 + 𝑧𝑡 + 𝜃1 𝜀𝑡−1 + ⋯ + 𝜃𝑞 𝜀𝑡−𝑞 (20)

𝜀𝑡 ~ 𝑅𝐵(0, 𝜎 2 )

El modelo en términos del operador de retardos queda de la siguiente manera:

(1 − 𝜙1 𝐿 − ⋯ − 𝜙𝑝 𝐿𝑝 )𝑋𝑡 = (1 − 𝜃1 𝐿 − ⋯ − 𝜃𝑞 𝐿𝑞 )𝜀𝑡

𝜙𝑝 (𝐿)𝑋𝑡 = 𝜃𝑞 (𝐿)𝜀𝑡

Donde 𝜙𝑝 (𝐿) es el polinomio autorregresivo y 𝜃𝑞 (𝐿) es el polinomio de promedios


móviles.
Las condiciones de invertibilidad del modelo ARMA(p, q) vienen impuestas por la
parte de medias móviles, dado que la parte autorregresiva finita siempre es
invertible porque está directamente escrita en forma autorregresiva (Casimiro,
2009).
El modelo ARMA(p, q) va a compartir las características de los modelos AR(p) y
MA(q) ya que contiene ambas estructuras a la vez. El modelo ARMA(p, q) tiene
media cero, varianza constante y finita y una función de autocovarianzas infinita. La
función de autocorrelación es infinita decreciendo rápidamente hacia cero pero sin
truncarse (Casimiro, 2009).

1.9.1 Proceso Autorregresivode Medias Móviles de orden (1, 1), ARMA(1, 1):
El modelo ARMA(1, 1) tiene la siguiente estructura:
𝑋𝑡 = 𝜙𝑋𝑡−1 + 𝜀𝑡 − 𝜃𝜀𝑡−1 (21)
𝜀𝑡 ~ 𝑅𝐵(0, 𝜎 2 ), |𝜙| < 1 y 𝜃 ∈ ℝ

Donde 𝑋𝑡 esta en función de su pasado hasta el primer retardo, la innovación


contemporánea y el pasado de la innovación hasta el retardo 1, además.
Con el fin de verificar si el proceso ARMA(1, 1) es estacionario, se verifican las
pruebas de media y covarianza constantes:
 Valor esperado.

A partir de sus elementos característicos tenemos:


34 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝐸(𝑋𝑡 ) = 𝐸(𝜙𝑋𝑡−1 + 𝜀𝑡 − 𝜃𝜀𝑡−1 )


𝐸(𝑋𝑡 ) = 𝐸(𝜙𝑋𝑡−1 )
𝐸(𝑋𝑡 ) = 𝜙𝐸(𝑋𝑡−1 ) = 0

 Función de autocovarianza y autocorrelación.


Para que un proceso sea estacionario, debe cumplir que la función de
autocovarianza y autocorrelación no dependan del tiempo.

Para 𝛾0 se tiene,
2
𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 )) = 𝐸(𝑋𝑡 )2

𝛾0 = 𝐸(𝜙𝑋𝑡−1 + 𝜀𝑡 − 𝜃𝜀𝑡−1 )2
𝛾0 = 𝜙 2 𝛾0 + 𝜎 2 + 𝜃 2 𝜎 2 − 2𝜙𝜃𝜎 2
(1 + 𝜃 2 − 2𝜙𝜃)𝜎 2
𝛾0 =
1 − 𝜙2
Para 𝛾1 se tiene,

𝛾1 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−1 − 𝐸(𝑋𝑡−1 ))] = 𝐸(𝑋𝑡 𝑋𝑡−1 )

𝛾1 = 𝐸[(𝜙𝑋𝑡−1 + 𝜀𝑡 − 𝜃𝜀𝑡−1 )𝑋𝑡−1 ]


𝛾1 = 𝜙𝛾0 − 𝜃𝜎 2
Para 𝛾2 se tiene,

𝛾2 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 ))(𝑋𝑡−2 − 𝐸(𝑋𝑡−2 ))] = 𝐸(𝑋𝑡 𝑋𝑡−2 )

𝛾2 = 𝐸[(𝜙𝑋𝑡−1 + 𝜀𝑡 − 𝜃𝜀𝑡−1 )𝑋𝑡−2 ]


𝛾2 = 𝜙𝛾1

La función de autocovarianzas de un ARMA(1, 1) es:

(1 + 𝜃12 − 2𝜙𝜃)𝜎 2
𝛾0 = 𝑘=0
1 − 𝜙2
𝛾𝑘 =
𝛾1 = 𝜙𝛾0 − 𝜃𝜎 2 𝑘=1
{𝛾ℎ = 𝜙𝛾𝑘−1 𝑘>1

La función de autocorrelación de un ARMA(1, 1) es:


35 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝜃𝜎 2
𝜌1 = 𝜙 − 𝑘=0
𝜌𝑘 = 𝛾0
𝜌𝑘 = 𝜙 𝜌𝑘−1 𝑘>1
{

Como se puede observar, la varianza cuenta con una parte que proviene de la parte
de medias moviles, otra que proviene de la parte autorregresiva y una tercera que
es la interaccion entre ambas partes del modelo. La autocovarianza de orden 1, 𝛾1,
es la suma de la autocovarianza de orden 1 de la parte AR(1) y de la autocovarianza
de orden 1 de la parte MA(1). A partir del retardo 1, la parte medias móviles del
modelo no aparece de forma explicita si aparece, en 𝜌1 en la ACF, dependiendo
esta solo de la estructura autorregresiva. Esta ACF es una funcion infinita, que
depende de los parametros AR, φ, y MA, θ, hasta k = 1 y luego decrece
exponencialmente, siguiendo la estructura marcada por la parte autorregresiva de
primer orden. Para comprobar estacionariedad e invertibilidad del proceso ARMA(1,
1), se deben calcular las raíces del polinomio autorregresivo y las raíces del
polinomio medias móviles, respectivamente (Casimiro, 2009):
Raíces del polinomio autorregresivo:
1 1
1 − 𝜙𝐵 = 0 ⟹ 𝐵 = 𝜙 ⟹ |𝐵| = | | ⟹ |𝜙| < 1
𝜙

Raíces del polinomio medias móviles:


1 1
1 − 𝜃𝐵 = 0 ⟹𝐵=𝜃 ⟹ |𝐵| = | | ⟹ |𝜃| < 1
𝜃

1.9.2. Modelos lineales no estacionarios.

En finanzas, las series de tiempo de interés, tasas de cambio, o series de precios


de un activo son de gran interés para este tipo de procesos no estacionarios. Para
una serie de precios de algún activo en particular, la no estacionariedad es debida
principalmente al hecho de que no hay un nivel fijo de precios (Monsalve, 2011).
Los modelos anteriomente trabajados, tienen la caractestica de tener media y
varianza constantes y las autocovarianzas no dependen del tiempo sino sólo de los
retardos. En las series de tiempo económicas, que es el principal tema de estudio
en el presente trabajo, en la mayoría de los casos no se comportan de forma
estacionaria, ya sea porque suelen ir cambiando de nivel en el tiempo o porque la
varianza no es constante. A este tipo de proceso se les considera procesos
integrados (Villavicencio, 2014).
36 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.3. Proceso Autorregresivo Integrado de Media Móvil ARIMA(p, d, q).

La publicación de G. P. E. Box y G. M. Jenkins Time Series Analysis: Forecasting


and Control, op. cit., marcó el comienzo de una nueva generación de herramientas
de pronóstico. Popularmente conocida como metodología de Box-Jenkins (BJ), pero
técnicamente conocida como metodología ARIMA, el interés de estos métodos de
pronósticos no está en la construcción de modelos uniecuacionales o de ecuaciones
simultáneas, sino en el análisis de las propiedades probabilísticas, o estocásticas,
de las series de tiempo económicas por sí mismas según la filosofía de que los
datos hablen por sí mismos. A diferencia de los modelos de regresión, en los cuales
se explica por las k regresoras X1, X2, X3,. . ., Xk, en los modelos de series de tiempo
del tipo BJ, 𝑋𝑡 se explica por valores pasados o rezagados de sí misma y por los
términos de error estocásticos. Por esta razón, los modelos ARIMA reciben algunas
veces el nombre de modelos ateóricos —porque no se derivan de teoría económica
alguna—, y las teorías económicas a menudo son la base de los modelos de
ecuaciones simultánea (Gujarati & Porter, 2009).

Denominaremos proceso ARIMA(p, d, q), al modelo definido de la siguiente forma:

(1 − 𝜙1 𝐿 − ⋯ − 𝜙𝑝 𝐿𝑝 )(1 − 𝐿)𝑑 𝑋𝑡 = 𝑐 + (1 − 𝜃1 𝐿 − ⋯ − 𝜃𝑞 𝐿𝑞 )𝜀𝑡 (22)

El modelo (22) se denomina modelo Autorregresivo Integrado de Medias Moviles de


Orden (p,d,q) o ARIMA(p, d, q) , donde p es el orden del polinomio autorregresivo
estacionario, d es el orden de integración de la serie, es decir, el numero de
diferencias que hay que tomar a la serie para que sea estacionaria, y q es el orden
del polinomio de medias moviles invertible (Casimiro, 2009).

𝜙𝑝 (𝐿)∇𝑑 𝑋𝑡 = 𝑐 + 𝜃𝑞 (𝐿)𝜀𝑡 (23)

En este caso el término integrado, indique que si se nombra 𝜔𝑡 = ∇𝑑 𝑋𝑡 al proceso


estacionario, 𝑥𝑡 se obtiene como suma (integración) de 𝜔𝑡 . En efecto, si
𝜔𝑡 = (1 − 𝐿)𝑋𝑡
como:
(1 − 𝐿)−1 = 1 + 𝐿 + 𝐿2 + 𝐿3 + ⋯ + 𝐿𝑘
37 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Entonces:
𝑋𝑡 = (1 − 𝐿)−1 𝜔𝑡 = ∑𝑡𝑗=−∞ 𝜔𝑡 (24)

A continuación se presentan dos modelos ARIMA sencillos:

1.9.4 Modelo de Paseo Aleatorio.

El paseo aleatorio es un modelo AR(1) con parámetro 𝜙 = 1:


𝑋𝑡 = 𝑋𝑡−1 + 𝜀𝑡 (25)
∇𝑋𝑡 = 𝜀𝑡 (26)
En este modelo el valor de 𝑥 en el tiempo 𝑡 es igual a su valor en el tiempo 𝑡 − 1
más una perturbación aleatoria. El paseo aleatorio no es estacionario porque la raíz
del polinomio AR no tiene módulo mayor que la unidad (González, 2009):
1−𝐿 =0 ⟹ 𝐿=1
Como la primera diferencia de la serie ∇𝑋𝑡 es un ruido blanco, se tiene que 𝑋𝑡 es un
proceso integrado de orden 1. El proceso es no estacionario puesto que la raíz del
polinomio asociado es igual a la unidad y la serie va cambiando de forma estocástica
a lo largo del tiempo. El paseo aleatorio hace parte de los procesos no estacionarios
de raíces unitarias.
La función de autocovarianza y autocorrelación esta dada por:
𝑡
𝛾𝑘 = 𝑡𝜎 2 y 𝜌𝑘 = para 𝑘 > 0
√𝑡(𝑡+ℎ)

1.9.5 Modelo de Paseo Aleatorio con deriva.

El paseo aleatorio con deriva resulta de añadir una constante al modelo anterior.

𝑋𝑡 = 𝑋𝑡−1 + 𝜀𝑡 + 𝛿 (27)
∇𝑋𝑡 = 𝜀𝑡 + 𝛿 (28)
En este caso, la inclusión de una constante en el modelo implica la inclusión de una
tendencia determinista con pendiente 𝛿, junto con la tendencia estocástica
(González, 2009).
38 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.6 Modelos Heterocedásticos Condicionales.

Conocer la volatilidad es muy importante en muchas áreas. Por ejemplo, existe una
enorme cantidad de trabajo en econometría sobre la variabilidad de la inflación a lo
largo del tiempo. Para algunas personas con poder de decisión, la inflación en sí
misma quizá no sea dañina, pero no es deseable su variabilidad porque dificulta la
planificación financiera. Sucede lo mismo con los importadores, exportadores y
comerciantes que acuden a los mercados de cambio de divisas, pues la variabilidad
de las tasas de cambio representa grandes pérdidas o ganancias. A los
inversionistas de las casas de bolsa obviamente les interesa la volatilidad de los
precios de las acciones, pues una gran volatilidad puede significar enormes
pérdidas o ganancias y, en consecuencia, provocar mayor incertidumbre. En los
mercados volátiles, a las compañías les resulta difícil capitalizarse en los mercados
de capital.
Una característica de la mayoría de estas series de tiempo financieras consiste en
que en su forma de nivel son no estacionarias. En consecuencia, en vez de modelar
las series de tiempo financieras en su forma de nivel, ¿por qué no hacer los modelos
de sus primeras diferencias? Sin embargo, estas primeras diferencias suelen
presentar amplias variaciones, o volatilidad, lo cual indica que la varianza de las
series de tiempo financieras se modifica con el tiempo. ¿Cómo podemos determinar
el modelo de dicha “variación cambiante”? En estos casos es cuando resulta
práctico el llamado modelo de heteroscedasticidad condicional autorregresivo
(ARCH), que originalmente desarrolló Engle. Como su nombre lo indica, la
heteroscedasticidad, o varianza desigual, puede tener una estructura autorregresiva
en la que la heteroscedasticidad observada a lo largo de diferentes periodos quizá
esté autocorrelacionada (Gujarati & Porter, 2009).

1.9.7 Modelo autorregresivo condicional heterocedástico de orden p:


ARCH(p).

Engle (1982) propuso por primera vez el modelo de heteroscedasticidad condicional


autorregresiva (ARCH) para modelar la varianza cambiante de una serie de tiempo.
Como se discutió en la sección anterior, la serie de retorno de un activo financiero,
por ejemplo {𝑋𝑡 }, es a menudo una secuencia de correlación serial con media cero,
como se exhibe agrupamiento de la volatilidad. Esto sugiere que la varianza
condicional de 𝑋𝑡 rentabilidades pasadas no es constante. La varianza condicional,
también conocida como la volatilidad condicional, de 𝑋𝑡 se denota con el subíndice
t - 1 significa que el acondicionado está sobre los retornos en el tiempo t - 1. Cuando
𝑋𝑡 está disponible, el retorno al cuadrado proporciona un estimador insesgado. Una
39 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

serie de grandes rendimientos al cuadrado puede prever un período relativamente


volátil. Por el contrario, una serie de pequeños rendimientos al cuadrado puede
prever un período relativamente tranquilo. El modelo ARCH es formalmente un
modelo regresión con la volatilidad condicional como variable de respuesta y el
pasado se queda del retorno al cuadrado como las covariables. Por ejemplo, el
proceso ARCH(1) supone que la serie de retorno {𝑋𝑡 } se genera como sigue (Cryer
& Chan, 2008):
Un proceso {𝑦𝑡 } es un proceso ARCH(p) si (Engle, 1982):
𝑦𝑡 |𝜓𝑡−1 ~ 𝑁(𝜇𝑡 , ℎ𝑡 ) (29)
𝜇𝑡 = 𝑋𝑡 𝛽 (30)
2 2
ℎ𝑡 = 𝛼0 + 𝛼1 𝜖𝑡−1 + ⋯ + 𝛼𝑝 𝜖𝑡−𝑝 (31)

𝜖𝑡 = 𝑦𝑡 − 𝑥𝑡 𝛽 (32)
Donde 𝛼0 > 0, 𝛼𝑖 ≥ 0, 𝑖 = 1, … , 𝑝
De los supuestos del modelo se deduce que
𝜖𝑡 |𝜓𝑡−1 ~ 𝑁(0, ℎ𝑡 )
Y si el proceso 𝑦𝑡 |𝜓𝑡−1 tiene media 𝜇𝑡 = 0, 𝜖𝑡 = 𝑦𝑡 . En este caso, el modelo se
puede expresar de esta manera:
𝜖𝑡 |𝜓𝑡−1 ~ 𝑁(0, ℎ𝑡 ) (33)
⁄2
𝑦𝑡 = 𝜖𝑡 ℎ𝑡1 (34)
Que es el modelo propuesto ARCH(p) por Engle (1982).

1.9.8 Proceso ARCH(1)

El modelo de regresión ARCH puede ser una aproximación a un sistema más


complejo en el que no hubiera factores innovacionales con heterocedasticidad
condicional. Los modelos estructurales admiten, en multitud de ocasiones, una
especificación tipo ARCH infinito que determina con parámetros cambiantes, lo que
hace a este tipo de modelos capaces de contrastar la hipótesis de permanencia
estructural que supone una de las hipótesis de partida y condición necesaria para
la validez del modelo econométrico tradicional.

En definitiva, la clave de estos modelos está en considerar la información pasada


de la variable y su volatilidad observada como factor altamente explicativo de su
40 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

comportamiento presente y, por extensión lógica, de su futuro predecible.


Estadísticamente, esta conclusión se refleja en tener en cuenta la esperanza
condicional (conocida y fija la información hasta el momento inmediatamente
anterior) del cuadrado de una variable (la expresión de su varianza si su media es
nula) (Arce, 1998).

1.9.9 Valor esperado no condicionales.

De las ecuaciones (31) y (34) se tiene que el primer y segundo momento no-
condicionales, del proceso 𝑦𝑡 , están dados por (Rodríguez, 2009):
 Media
1⁄
𝐸(𝑦𝑡 ) = 𝐸 (𝜖𝑡 ℎ𝑡 2 )
2 ) 1⁄
𝐸(𝑦𝑡 ) = 𝐸(𝜖𝑡 )𝐸 [(𝛼0 + 𝛼1 𝑦𝑡−1 2] , 𝜖𝑡 ⊥ 𝑦𝑠 , 𝑠<𝑡
𝐸(𝑦𝑡 ) = 0 (𝐸(𝜖𝑡 ) = 0)
 Varianza
𝑉(𝑦𝑡 ) = 𝐸(𝑦𝑡2 )
2 )
𝑉(𝑦𝑡 ) = 𝐸(𝜖𝑡2 )𝐸(𝛼0 + 𝛼1 𝑦𝑡−1
2 ),
𝑉(𝑦𝑡 ) = 𝛼0 + 𝛼1 𝐸(𝑦𝑡−1
𝑦𝑎 𝑞𝑢𝑒 𝐸(𝜖𝑡2 ) = 1

2 ) 2 ),
Esto se tiene para todo 𝑡. Tomando 𝐸(𝑦𝑡−1 en función de 𝐸(𝑦𝑡−2 se tiene:
2 )]
𝐸(𝑦𝑡2 ) = 𝛼0 + 𝛼1 [𝛼0 + 𝛼1 𝐸(𝑦𝑡−2
De forma análoga, regresando k-veces hacia el pasado y dado que 𝛼1 < 1 tenemos:
𝑘−1
𝑗
𝐸(𝑦𝑡2 ) = ∑[𝛼0 𝛼1 + 𝛼1𝑘 𝐸(𝑦𝑡−𝑘
2 )]

𝑗=0

Haciendo que 𝑘 ⟶ ∞ la ecuación anterior se convierte en



𝑗
𝐸(𝑦𝑡2 ) = 𝛼0 ∑ 𝛼1 .
𝑗=0

Por lo tanto
𝛼0
𝐸(𝑦𝑡2 ) =
1 − 𝛼1
41 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.10 Función de autocovarianza.

La conclusión a partir de los resultados de la presente sección y las anteriores es


que un proceso ARCH(1), cumple con las condiciones de un ruido blanco (media
cero y varianza constante).
En adelante 𝜓𝑡−1 denota la 𝜎-álgebra generada por {𝑦𝑡−1 , 𝑦𝑡−2 , … }, es decir; 𝜓𝑡−1 es
la información observada hasta el punto 𝑡 − 1.
Usando las ecuaciones (31) y (34) se tiene:
2 )
𝑦𝑡2 = 𝜖𝑡2 (𝛼0 + 𝛼1 𝑦𝑡−1
2
𝑦𝑡2 = α0 𝜖𝑡2 + 𝛼1 𝑦𝑡−1
2
Reemplazando 𝑦𝑡−1 en 𝑦𝑡2 , se obtiene:
2 2 )
𝑦𝑡2 = α0 𝜖𝑡2 + 𝛼1 (α0 𝜖𝑡−1 + 𝛼1 𝜖𝑡2 𝑦𝑡−2

2
𝑦𝑡2 = 𝛼0 𝜖𝑡2 + 𝛼1 𝛼0 𝜖𝑡2 𝜖𝑡−1 + 𝛼12 𝜖𝑡2 𝜖𝑡−1
2 2
𝑦𝑡−2

𝑦𝑡2 = ⋯

𝑘
𝑗 2
2
𝑦𝑡2 = 𝛼0 ∑ 𝛼1 𝜖𝑡2 𝜖𝑡−1 … 𝜖𝑡−𝑗 + 𝛼1𝑘+1 𝜖𝑡2 𝜖𝑡−1
2 2
… 𝜖𝑡−𝑘 2
𝑦𝑡−𝑘−1
𝑗=0

Si 𝑘 𝑡𝑖𝑒𝑛𝑑𝑒 𝑎 infinito se obtiene:


𝑘
𝑗 2 2
𝑦𝑡2 = 𝛼0 ∑ 𝛼1 𝜖𝑡2 𝜖𝑡−1 … 𝜖𝑡−𝑗
𝑗=0

Usando (31), (34)


𝑞 𝑝

∑ 𝛼𝑗 + ∑ 𝛽𝑖 < 1
𝑗=1 𝑖=1

Se tiene:
42 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2 ) 1⁄
𝑦𝑡 = 𝜖𝑡 (𝛼0 + 𝛼1 𝑦𝑡−1 2
1⁄
𝑘 2
𝑗2 2
𝑦𝑡 = 𝜖𝑡 [𝛼0 + 𝛼1 𝛼0 ∑ 𝛼1 𝜖𝑡2 𝜖𝑡−1 … 𝜖𝑡−𝑗 ]
𝑗=0

𝑦𝑡 = 𝜖𝑡 𝐴𝑡−1
Donde
1⁄
𝑗+1 2 2 2
𝐴𝑡−1 = [𝛼0 (1 + ∑𝑘𝑗=0 𝛼1 2
𝜖𝑡 𝜖𝑡−1 … 𝜖𝑡−𝑗 )] .

En consecuencia, la covarianza entre 𝑦𝑡 y 𝑦𝑡+ℎ , está dada por:


𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = 𝐸(𝑦𝑡 𝑦𝑡+ℎ )

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = (𝑦𝑡 , 𝑦𝑡+ℎ )

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = 𝐸(𝜖(𝑡+ℎ) 𝜖𝑡 𝐴𝑡−1 𝐴𝑡+ℎ−1 )

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = (𝑦𝑡 , 𝑦𝑡+ℎ )

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = 𝐸 (𝐸(𝜖(𝑡+ℎ) 𝜖𝑡 𝐴𝑡−1 𝐴𝑡+ℎ−1 |Ψ𝑡+ℎ−1 ))

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = 𝐸 (𝜖𝑡 𝐴𝑡−1 𝐴𝑡+ℎ−1 𝐸(𝜖(𝑡+ℎ) |Ψ𝑡+ℎ−1 ))

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+ℎ ) = 0

𝐸(𝜖(𝑡+ℎ) |Ψ𝑡+ℎ−1 ) = 0
𝛼0
Por lo tanto 𝑦𝑡 ∼ 𝑅𝐵(0, 𝜎𝑦2 ) con 𝜎𝑦2 = ⁄1 − 𝛼 . En la siguiente sección se verificará
1
que 𝑦𝑡 no es IID.
43 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.11 Esperanza y varianza condicional


Se describe a continuación el desarrollo de la esperanza y varianza condicional del
proceso 𝑦𝑡 .

 Esperanza
2 ) 1⁄
𝐸(𝑦𝑡 |Ψ𝑡−1 ) = 𝐸 ((𝜖𝑡 |Ψ𝑡−1 )(𝛼0 + 𝛼1 𝑦𝑡−1 2)

2 ) 1⁄
𝐸(𝑦𝑡 |Ψ𝑡−1 ) = 𝐸 ((𝜖𝑡 )(𝛼0 + 𝛼1 𝑦𝑡−1 2)

𝐸(𝑦𝑡 |Ψ𝑡−1 ) = 0, 𝑦𝑡 ⊥ 𝑦𝑠 , 𝑠 < 𝑡


 Varianza
2 ))
𝑉(𝑦𝑡 |Ψ𝑡−1 ) = 𝐸((𝜖𝑡2 |Ψ𝑡−1 )(𝛼0 + 𝛼1 𝑦𝑡−1
2 ))
𝑉(𝑦𝑡 |Ψ𝑡−1 ) = 𝐸((𝜖𝑡2 )(𝛼0 + 𝛼1 𝑦𝑡−1
2
𝑉(𝑦𝑡 |Ψ𝑡−1 ) = 𝛼0 + 𝛼1 𝑦𝑡−1

De lo anterior se puede ver que la media es cero y que la varianza no condicional


es constante, contrario a lo que ocurre con la condicional a corto plazo, la cual
depende de 𝑦𝑡−1 . De manera que se pueden presentar procesos de alta volatilidad
o calma.

1.9.12 Función de verosimilitud del proceso ARCH(1).

La estimación de los parámetros de un proceso ARCH(1) no se plantea sobre la


función de verosimilitud, sino sobre la función de verosimilitud condicional, y dados
los supuestos del modelo ARCH(1) este tendrá distribución condicional normal con
media cero y varianza ℎ𝑡 .
Sea 𝐵𝑡 la función de densidad de 𝑦𝑡 , dada Ψ𝑡−1 . 𝐵𝑡 está dada por:
1 𝑦𝑡2
𝐵𝑡 = 𝑓(𝑦𝑡 |Ψ ) = 1 𝑒𝑥𝑝 (− 2ℎ )
(2𝜋ℎ𝑡 ) ⁄2 𝑡

La función de verosimilitud condicionada conjunta de 𝑇 observaciones esta dada


por:
𝑇
1 𝑦𝑡2
𝐿 = 𝐵1 𝐵2 … 𝐵𝑇 = ∏ 1⁄ 𝑒𝑥𝑝 (− )
(2𝜋ℎ𝑡 ) 2 2ℎ𝑡
𝑡=1

Maximizar la función anterior es equivalente a maximizar el logaritmo, donde el


logaritmo de la función de densidad de la 𝑡-ésima observación 𝑙𝑡 , esta dada por:
44 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1 𝑦𝑡2
𝑙𝑡 = 𝑙𝑛(𝐵𝑡 ) = 𝑘 − 𝑙𝑛ℎ𝑡 −
2 2ℎ𝑡
1
con 𝑘 = 𝑙𝑛 1⁄
(2𝜋) 2

1
Sea 𝑙 = 𝑇 ∑𝑇𝑡=1 𝑙𝑡 ,

Si 𝛼 = (𝛼0 , 𝛼1 )′ es el vector parámetros la función 𝑙 debe ser maximizada con


respecto a 𝛼. Entonces el Hessiano esta dado por:

𝜕𝑙𝑡 𝜕𝑙 𝜕ℎ𝑡 𝜕ℎ𝑡 1 𝑦2 1 𝜕ℎ𝑡 𝑦𝑡2


= 𝜕ℎ𝑡 = [− 2ℎ + 2ℎ𝑡2 ] = 2ℎ [ ℎ − 1] (35)
𝜕𝛼 𝑡 𝜕𝛼 𝜕𝛼 𝑡 𝑡 𝑡 𝜕𝛼 𝑡

𝜕2 𝑙 1 𝜕ℎ𝑡 𝜕ℎ𝑡 𝑦𝑡2 𝑦2 𝜕 1 𝜕ℎ𝑡


𝑀 = 𝜕𝛼𝜕𝛼𝑡 ′ = − 2ℎ ( ℎ ) + [ ℎ𝑡 − 1] 𝜕𝛼′ (2ℎ ) (36)
𝑡 𝜕𝛼 𝜕𝛼′ 𝑡 𝑡 𝑡 𝜕𝛼

𝑦2
Si se tiene en cuenta que 𝐸 ( ℎ𝑡 |Ψ𝑡−1 ) = 1 y que en consecuencia
𝑡

𝑦𝑡2 𝜕 1 𝜕ℎ𝑡
𝐸 ([ − 1] ′ ( ) |Ψ𝑡−1 ) = 0
ℎ𝑡 𝜕𝛼 2ℎ𝑡 𝜕𝛼

Al tomar la esperanza condicional en (36) obtenemos:

1 𝜕ℎ𝑡 𝜕ℎ𝑡 𝑦𝑡2 𝑦𝑡2 𝜕 1 𝜕ℎ𝑡


𝐸(𝑀|Ψ𝑡−1 ) = − ′
𝐸 ( |Ψ𝑡−1 ) + 𝐸 ([ − 1] ′ ( ) |Ψ𝑡−1 )
2ℎ𝑡 𝜕𝛼 𝜕𝛼 ℎ𝑡 ℎ𝑡 𝜕𝛼 2ℎ𝑡 𝜕𝛼
1 𝜕ℎ𝑡 𝜕ℎ𝑡
𝐸(𝑀|Ψ𝑡−1 ) = −
2ℎ𝑡 𝜕𝛼 𝜕𝛼 ′

En vista de que la matriz de información Ξ es la esperanza negativa del promedio


del Hessiano sobre todas las observaciones, entonces:
𝑇
1 1 𝜕ℎ𝑡 𝜕ℎ𝑡
Ξ𝛼𝛼 = ∑ 𝐸( )
2𝑇 ℎ𝑡 𝜕𝛼 𝜕𝛼′
𝑡=1

Y su estimador está dado por


𝑇
1 1 𝜕ℎ𝑡 𝜕ℎ𝑡
Ξ̂
𝛼𝛼 = ∑ ( )
𝑇 ℎ𝑡 𝜕𝛼 𝜕𝛼′
𝑡=1
45 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Si ℎ𝑡 es lineal en los parámetros esta se podría escribir en la forma


2 2
ℎ𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + ⋯ + 𝛼𝑝 𝑦𝑡−𝑝 .

2 2
Sean 𝜖𝑡 = (1, 𝑦𝑡−1 , … , 𝑦𝑡−𝑝 ) y 𝛼 ′ = (𝛼0 , 𝛼1 , … , 𝛼𝑝 ), se puede entonces reescribir a ℎ𝑡
como:

𝜕ℎ𝑡
ℎ𝑡 = 𝜖𝑡 𝛼, con = 𝜖𝑡
𝜕𝛼

El vector gradiente será:

𝜕𝑙𝑡 1 𝑦𝑡2
= 𝜖 [ − 1]
𝜕𝛼 2ℎ𝑡 𝑡 ℎ𝑡

y el estimador de la matriz de información estará dado por:


𝑇
1 𝜖𝑡′ 𝜖𝑡
Ξ̂
𝛼𝛼 = ∑( 2 )
𝑇 ℎ𝑡
𝑡=1

1.9.13 Generalización ARCH(p)

A continuación se presenta una generalización para un proceso ARCH(p), también


se muestra que un proceso ARCH es un ruido blanco pero no un IID (Rodríguez,
2009).

1.9.14 Generalización de la esperanza y varianza no-condicionales.

1⁄
𝐸(𝑦𝑡 ) = 𝐸 (𝜖𝑡 ℎ𝑡 2 )
1⁄
𝑝 2
2
𝐸(𝑦𝑡 ) = 𝐸 (𝜖𝑡 (𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖 ) )
𝑖=1
1⁄
𝑝 2
2
𝐸(𝑦𝑡 ) = 𝐸(𝜖𝑡 )𝐸 ((𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖 ) ) = 0, 𝜖𝑡 ⊥ 𝑦𝑠
𝑖=1
46 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑉(𝑦𝑡 ) = 𝐸(𝑦𝑡2 )
𝑝
2
𝑉(𝑦𝑡 ) = 𝐸 (𝜖𝑡2 (𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖 ))
𝑖=1
𝑝
2
𝑉(𝑦𝑡 ) = 𝐸(𝜖𝑡2 )𝐸 (𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖 )
𝑖=1
𝑝
2
𝑉(𝑦𝑡 ) = 𝛼0 + ∑ 𝛼𝑖 𝐸(𝑦𝑡−𝑖 )
𝑖=1
𝑝 𝑝
2
𝑉(𝑦𝑡 ) = 𝛼0 + ∑ 𝛼𝑖 (𝛼0 + ∑ 𝛼𝑖 𝐸(𝑦𝑡−𝑖−𝑘 ))
𝑖=1 𝑘=1
𝑝 𝑝

𝑉(𝑦𝑡 ) = 𝛼0 + ∑ (𝛼𝑖 𝛼0 + 𝛼𝑖2 2


∑ 𝐸(𝑦𝑡−𝑖−𝑘 ))
𝑖=1 𝑘=1
𝑘 𝑝 𝑗
𝛼0
𝑉(𝑦𝑡 ) = 𝛼0 ∑ (∑ 𝛼𝑖 ) = 𝑝
1 − ∑𝑖=1 𝛼𝑖
𝑗=1 𝑖=1

𝑘⟶∞

Los siguientes son los desarrollos para la esperanza y varianza condicional.

1⁄
𝑝 2
2
𝐸(𝑦𝑡 |Ψ𝑡−1 ) = 𝐸 (𝜖𝑡 |Ψ𝑡−1 ) (𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖 ) =0
𝑖=1
( )
𝑝
2
𝑉(𝑦𝑡2 |Ψ𝑡−1 ) = 𝐸 ((𝜖𝑡2 |Ψ𝑡−1 ) (𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖 ))
𝑖=1
𝑝
2
𝑉(𝑦𝑡2 |Ψ𝑡−1 ) = 𝛼0 + ∑ 𝛼𝑖 𝑦𝑡−𝑖
𝑖=1
𝑉(𝑦𝑡2 |Ψ𝑡−1 ) = ℎ𝑡

Se concluye entonces que para un modelo ARCH(p) la varianza condicional tiene


como parámetros a 𝑦𝑡−1 , 𝑦𝑡−2 , …, las otras medidas analizadas arrojan resultados
constantes.
47 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.15 Estimación de parámetros.


La estimación de los parámetros y de sus varianzas se hace mediante el algoritmo
de Fisher-Scoring, si (Casas, Cepeda, 2008):
 𝜃 (𝑘) es el vector de los valores de los parámetros en la k-ésima iteración del
algoritmo.
1 𝜕𝑙
 𝑞 (𝑘) es el vector 𝑞 = 𝑇 ∑𝑡 𝜕𝜃𝑡 evaluado en 𝜃 (𝑘) .
 𝐼(𝜃 (𝑘) ) es el valor de la matriz de información 𝐼(𝜃) evaluada en 𝜃 (𝑘) .

El algoritmo sería:
−1
𝜃 (𝑘+1) = 𝜃 (𝑘) + [𝐼(𝜃 (𝑘) )] 𝑞 (𝑘) , 𝑘≥0

Si 𝐼𝛼𝛽 = 0, se puede proponer un algoritmo iterado alternado de Fisher-Scoring para


obtener las estimaciones máximo verosímiles de los vectores de parámetros 𝛼 y 𝛽,
como el propuesto en Aitkin (1987) o en Cepeda y Gamerman (2001) para modelos
lineales con varianza variable. De esta manera, el algoritmo de Fisher-Scoring
puede formularse a partir de las siguientes ecuaciones:
−1 (𝑘)
(𝑘)
𝛽 (𝑘+1) = 𝛽 (𝑘) + (𝐼𝛽𝛽 ) 𝑞𝛽 (37)
(𝑘) −1 (𝑘)
𝛼 (𝑘+1) = 𝛼 (𝑘) + (𝐼𝛼𝛼 ) 𝑞𝛼 (38)

Donde 𝛽 (𝑘) y 𝛼 (𝑘) son los valores de los vectores 𝛽 y 𝛼 en la k-ésima iteración del
(𝑘) −1 (𝑘) −1
algoritmo, con (𝐼𝛽𝛽 ) y (𝐼𝛼𝛼 )
(𝑘) (𝑘)
Son, respectivamente, las matrices inversas de 𝐼𝛽𝛽 y 𝐼𝛼𝛼 evaluadas en 𝛽 (𝑘) y 𝛼 (𝑘) .
(𝑘) (𝑘) 1 𝜕𝑙 1 𝜕𝑙
Por último, 𝑞𝛽 y 𝑞𝛼 son los vectores 𝑞𝛽 = 𝑇 ∑𝑡 𝜕𝛽𝑡 y 𝑞𝛼 = 𝑇 ∑𝑡 𝜕𝛼𝑡 evaluados
respectivamente en 𝛽 (𝑘) y 𝛼 (𝑘) .
El algoritmo para obtener las estimaciones de máxima verosimilitud de los
parámetros para la media y la varianza es:
 Dar valores iniciales para 𝛽 y 𝛼, (𝛽 (0) y 𝛼 (0) ).
(𝑘) (𝑘)
 Estimar 𝐼𝛽𝛽 y 𝑞𝛽 utilizando 𝛽 (𝑘) y 𝛼 (𝑘) .
 Calcular 𝛽 (𝑘+1) utilizando la ecuación (37).
(𝑘) (𝑘)
 Utilizando 𝛽 (𝑘+1) y 𝛼 (𝑘) , estimar 𝐼𝛼𝛼 y 𝑞𝛼 .
 Calcular 𝛼 (𝑘+1) utilizando la ecuación (38).
 Repita los pasos 2 a 5 hasta que se cumpla algún criterio de convergencia.
48 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.16 Modelo Autoregresivo Condicional Heterocedástico Generalizado.


(GARCH)

Los modelos Condicionales Autorregresivos Heterocedásticos (ARCH) fueron


introducidos por Engle (1982) y la extensión GARCH (ARCH generalizado) se debe
a Bollerslev (1986). En estos modelos, el concepto clave es la varianza condicional,
es decir, la varianza condicional en el pasado. En los modelos GARCH clásicos, la
varianza condicional se expresa como una función lineal de los valores pasados al
cuadrado de la serie. Esta particular especificación es capaz de capturar los
principales hechos estilizados que caracterizan una serie (Francq & Zakoïan, 2010).

1.9.17 Definición proceso GARCH (p,q)


Un proceso (𝑦𝑡 ) se llama proceso GARCH(p, q) si existen sus dos primeros
momentos condicionales y satisfacen:

 𝐸(𝑦𝑡 |𝑦𝑢 , 𝑢 < 𝑡) = 0 𝑡 ∈ ℤ


 Existen constantes ω, αi, i = 1, ..., q y 𝛽 j, j = 1, ..., p tal que

𝜎𝑡2 = 𝑉𝑎𝑟(𝑦𝑡 |𝑦𝑢 , 𝑢 < 𝑡) = 𝜔 + ∑𝑞𝑖=1 𝛼𝑖 𝑦𝑡−𝑖


2
+ ∑𝑝𝑗=1 𝛽𝑗 𝜎𝑡−𝑗
2
(39)

Donde podemos escribir la ecuación (39) como:


𝜎𝑡2 = 𝜔 + 𝛼(𝐿)𝑦𝑡2 + 𝛽(𝐿)𝜎𝑡2 , 𝑡 ∈ ℤ (40)

2 2
Donde L es el operador de retardos estándar (𝐿𝑖 𝑦𝑡2 = 𝑦𝑡−𝑖 y 𝐿𝑖 𝜎𝑡2 = 𝜎𝑡−𝑖 para
cualquier entero i), y α y β son polinomios de grados q y p, respectivamente:

𝑞 𝑝

𝛼(𝐿) = ∑ 𝛼𝑖 𝐿𝑖 , 𝛽(𝐿) = ∑ 𝛽𝑗 𝐿𝑗
𝑖=1 𝑗=1

Si 𝛽(𝑧) = 0 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:
𝜎𝑡2 = 𝜔 + ∑𝑞𝑖=1 𝛼𝑖 𝑦𝑡−𝑖
2
(41)

El proceso se denomina un proceso ARCH (q). Por definición, la innovación del


2
proceso 𝑦𝑡2 de es la variable 𝑣𝑡 = 𝑦𝑡2 − 𝜎𝑡2 . Sustituyendo en (39) las variables 𝜎𝑡−𝑖
2
por 𝑦𝑡−𝑗 − 𝑣𝑡−𝑗 , obtenemos la representación:
49 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑦𝑡2 = 𝜔 + ∑𝑟𝑖=1(𝛼𝑖 + 𝛽𝑖 ) 𝑦𝑡−𝑖


2
+ 𝑣𝑡 − ∑𝑝𝑗=1 𝛽𝑗 𝑣𝑡−𝑗 , 𝑡 ∈ ℤ (42)

Donde r = max (p, q), por conveniencia escribimos αi = 0 (βj = 0) si, i > q ; (j > p).
Esta ecuación tiene la estructura lineal de un modelo ARMA, lo que permite un
sencillo cálculo de las predicciones lineales.
Bajo supuestos adicionales (lo que implica la estacionariedad de segundo orden de
𝑦𝑡2 ), podemos afirmar que si (𝑦𝑡 ) es GARCH(p, q), entonces (𝑦𝑡2 ) es un Proceso
ARMA(r,p). En particular, el cuadrado de un proceso ARCH(q) admite, si es
estacionaria, una representación AR(q). La representación ARMA será útil para la
estimación y la identificación de procesos GARCH (Francq & Zakoïan, 2010) .

1.9.18 Correlación de un proceso GARCH.

Un rasgo característico de una serie financiera es que los rendimientos al cuadrado


están autocorrelacionados, mientras que los retornos no lo son. La representación
(42) muestra que los procesos GARCH son capaces de capturar este hecho
empírico.
Si el momento de cuarto orden de (𝑦𝑡 ) es infinito, la secuencia de las
autocorrelaciones de orden h de 𝑦𝑡2 es la solución de una ecuación recursiva que
es característica de los modelos ARMA. En aras de la simplicidad, consideremos el
caso del proceso GARCH(1,1). El proceso (𝑦𝑡2 ) es ARMA(1, 1), y por tanto su
autocorrelación disminuye a cero proporcionalmente a (𝛼1 + 𝛽1 )ℎ ; 𝑝𝑎𝑟𝑎 ℎ > 1,
2 )
𝐶𝑜𝑟𝑟(𝑦𝑡2 , 𝑦𝑡−ℎ = 𝐾(𝛼1 + 𝛽1 )ℎ
Donde K es una constante independiente de h. Por otra parte, los valores para 𝑦𝑡
no están correlacionados, bajo la condición de la definición 1.1 (Francq & Zakoïan,
2010).

1.9.19 Proceso GARCH fuerte (p, q).

Sea (𝜂𝑡 ) una distribución de probabilidad con valor esperado nulo y varianza igual
a la unidad. El proceso (𝑦𝑡 ) se denomina GARCH fuerte (p, q) (con respecto a la
secuencia (𝜂𝑡 )) si:
𝑦𝑡 = 𝜎𝑡 𝜂𝑡
{𝜎 2 = 𝜔 + ∑𝑞 𝛼 𝑦 2 + ∑𝑝 𝛽 𝜎 2 (43)
𝑡 𝑖=1 𝑖 𝑡−𝑖 𝑗=1 𝑗 𝑡−𝑗

Donde el αi y βj son restricciones de no negatividad y ω es una constante positiva


(en sentido estricto).
50 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Reescribiendo la expresión (39) en términos del proceso GARCH(p,q) obtenemos:


𝑞 𝑝
2 2 2
𝜎𝑡2 = 𝜔 + ∑ 𝛼𝑖 𝜎𝑡−𝑖 𝜂𝑡−𝑖 + ∑ 𝛽𝑗 𝜎𝑡−𝑗
𝑖=1 𝑗=1

𝜎𝑡2 = 𝜔 + ∑𝑞𝑖=1 𝛼𝑖 (𝜂𝑡−𝑖 )𝜎𝑡−𝑖


2
(44)

Donde 𝑎𝑖 (𝑧) = 𝛼𝑖 𝑧 2 + 𝛽𝑖 , 𝑖 = 1, … , 𝑟 Esta representación muestra que el proceso de


la volatilidad de un proceso GARCH fuerte, es la solución de una ecuación
autorregresiva con coeficientes aleatorios.

1.9.20 Proceso GARCH(1,1).


Cuando p=q=1 se le asignan estos valores a la expresión (43), entonces adopta la
forma:
𝑦𝑡 = 𝜎𝑡 𝜂𝑡
{𝜎 2 = 𝜔 + 𝛼 𝑦 2 + 𝛽 𝜎 2 (45)
𝑡 𝑡−𝑖 𝑡−𝑗

Con ω ≥ 0, α≥ 0, β≥ 0. Tenemos a(z) = αz2 + β

1.9.21 Estacionariedad estricta del proceso GARCH fuerte(1, 1):

−∞ ≤ 𝛾 ∶= 𝐸𝑙𝑜𝑔{𝛼𝑖 𝜂𝑡2 + 𝛽} < 0 (46)


Donde la serie infinita
ℎ𝑡 = {1 + ∑∞
𝑖=1 𝑎(𝜂𝑡−1 ) … 𝑎(𝜂𝑡−𝑖 )}𝜔 (47)

Converge con toda seguridad y el proceso (𝑦𝑡 ) definido por 𝑦𝑡 = √ℎ𝑡 𝜂𝑡 es la solución
única y estrictamente estacionaria del proceso, la expresión (45). Esta solución no
es anticipativa y ergódica (una secuencia estacionaria se dice que es ergódica si
satisface la ley fuerte de los grandes números). Si γ ≥ 0 y ω> 0, no existe una
solución estrictamente estacionaria (Francq & Zakoïan, 2010).

1.9.22 Condición estricta de estacionariedad.

 Cuando ω = 0 y γ < 0, es evidente que, en vista de que la expresión


(47), se tiene que la única solución estrictamente estacionaria es 𝑦𝑡 =
0. Por tanto, es natural para imponer ω> 0.
51 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

 Puede observarse que la condición (46) depende de la distribución de


𝜂𝑡 y que no es simétrica en α y β.
 El análisis de la prueba muestra que los supuestos Eηt = 0 y E𝜂𝑡2 = 1,
que facilitan la interpretación del modelo, no son necesarios. Es
suficiente para tener 𝐸𝑙𝑜𝑔+ 𝜂𝑡2 < ∞
 La Condición (46) implica que β < 1. Ahora bien, si α + β < 1, entonces
(46) se satisface, ya que, usando la desigualdad de Jensen,

𝐸𝑙𝑜𝑔{𝑎(𝜂𝑡 )} ≤ 𝑙𝑜𝑔𝐸{𝑎(𝜂𝑡 )} = log(𝛼 + 𝛽) < 0

 Si la expresión (46) se satisface, además que también se satisface


para cualquier par (α1, β1) de tal manera que α1 ≤ α y β1 ≤ β. En
particular, la estacionariedad estricta de un modelo GARCH(1, 1)
implica que el modelo ARCH(1) se ha obtenido mediante la
cancelación de β y también resulta ser estacionario.
 En el caso ARCH(1), (β = 0), la estricta limitación estacionariedad se
escribe como:

0 ≤ 𝛼 < 𝑒𝑥𝑝{−𝐸(𝑙𝑜𝑔𝜂𝑡2 )} (48)

Para tales distribuciones, una solución para el proceso ARCH(1) es


estrictamente estacionario, si existe cualquiera que sea el valor de α.
52 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2. Capítulo 2. Algunos comandos en R.

2.1. Limpiar y preparar la información.


Antes de iniciar la metodología se debe preparar la información antes de cargarla.
El archivo que se cargara a R debe tener extensión .csv separado por comas.
Además, el archivo debe tener columna con el valor correspondiente, tener en
cuenta con que se separan los decimales, generalmente Excel separa los decimales
con comas (,).

2.2. Lectura de la información y librerías a utilizar.


En el primer paso, se debe cargar la información en R utilizando la función
read.cvs(). En el primer comando de la función se coloca la ubicación de la base
de datos, donde las carpetas deben estar separadas por (/). Además, en esta
función se deben establecer una serie de comandos adicionales para que la lectura
de información se realice de forma adecuada. Los comandos son: header=TRUE,
ya que, la base de datos que se cargará tiene encabezado, sep=”;”, por la forma
en que se creó la base de datos y dec=”,”, en caso que los decimales estén
separados por comas. Además, se muestran las librerías que se utilizaran a lo largo
del análisis.
datos <- read.csv("C:/datos.csv",header = TRUE, sep=";", dec=",")
install.packages("PerformanceAnalytics")
install.packages("quantmod")
install.packages("car")
install.packages("FinTS")
install.packages("stats")
install.packages("forecast")
install.packages("fGarch")
install.packages("TSA")
install.packages("xtable")
library("PerformanceAnalytics")
library("quantmod")
library("car")
library("FinTS")
library("stats")
library("forecast")
library("fGarch")
library("TSA")
library("xtable")
53 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2.3. Convertir la información en una serie de tiempo.


En el segundo paso, se convierte la información en una serie de tiempo con la
función ts().
serie <- ts(datos)
head(datos)

2.4. Estadísticas descriptivas y gráfico de la función pura.


En el tercer paso, se calculan las estadísticas descriptivas de la serie de tiempo
estudiada con la función summary(), esta función muestra indicadores tales como
el mínimo, máximo y los cuartiles. Además, en este paso se observa el
comportamiento de la serie de tiempo utilizando la función plot(), la cual realiza un
gráfico de la serie, esta función permite insertar el nombre de la serie como título
con el comando main=””, ponerle un color a la serie de tiempo con el comando
col=””, asignarle nombre al eje horizontal y vertical con los comandos xlab=”” y
ylab=””.
summary(serie)
plot(serie, main=”Serie”, col=”blue”, xlab=”Tiempo”, ylab=”Valor”)

2.5 Prueba de independencia en los rezagos.

En el cuarto paso, se debe probar si existe independencia entre los rezagos de la


serie de tiempo, utilizando la prueba Ljung-Box, por medio de la función box.test(),
donde el comando utilizado debe ser type=”Ljung-Box”. Esta función permite
establecer los rezagos que se usaran en la prueba, con el comando lag. Además,
a los retornos se les debe aplicar el comando coredata(), que limpia la información
de los retornos. H0: Los retornos de la serie se distribuyen de forma independiente,
por lo que, para continuar con el modelamiento se debe rechazar la hipótesis nula
Box.test(coredata(serie), type=”Ljung-Box”, lag=12)

2.6 Prueba de efectos ARCH.

En el quinto paso, se debe probar si es adecuado el uso de un modelo de volatilidad


para la serie de tiempo, con la función ArchTest().La hipótesis nula de esta prueba
establece que no existen efectos ARCH (H0 : α1 = α2 = ... = αq = 0 (No hay efectos
54 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

ARCH)), por lo que, para continuar con el modelamiento se debe rechazar la


hipótesis nula.
ArchTest(serie.ret)

2.7 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para


el modelo ARIMA.

En el sexto paso, se grafica la FAC y FACP de la serie de tiempo, por medio de las
funciones acf() y pacf(), para definir cuáles son los posibles parámetros que tendrá
el modelo ARIMA(p, q). El parámetro p, representa el orden del modelo
autorregresivo (FACP) y el parámetro q, el orden del modelo de medias móviles
(FAC). Los posibles parámetros para p y q son los rezagos que se salen de las
bandas. Además se aplicará la prueba de Dickey-Fuller La cual tiene como hipótesis
nula H0: la serie tiene raíz unitaria (La serie no es estacionaria).

adf.test(trm)
par(mfrow=c(2,1))
acf(serie, main=”FAC de la serie”)
pacf(serie, main=”FACP de la serie”)

2.8 Modelos ARIMA propuestos.


En el séptimo paso, se estiman los modelos ARIMA de la serie de tiempo, para
todas las combinaciones de los posibles parámetros, p y q, utilizando la función
arima(), en esta función el comando para colocar el orden del modelo es
order=c(p,d,q), donde la d significa si se aplicó el operador diferencia, basados en
la prueba de Dickey-Fuller.
arima110 <- arima(serie, order=c(1, 1, 0))
arima011 <- arima(serie, order=c(0, 1, 1))
arima111 <- arima(serie, order=c(1, 1, 1))

2.9 Selección del modelo ARIMA.


En el octavo paso, por medio del criterio AKAIKE (AIC) se establece el mejor modelo
ARIMA, usando $aic en cada modelo estimado. El modelo con menor AIC es el
modelo ARIMA seleccionado.
aic110 <- arima110$aic
aic011 <- arima011$aic
aic111 <- arima111$aic
nombres <- c("aic110","aic011","aic111")
55 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

aic <- as.numeric(c(aic110,aic011,aic111))


table <- data.frame(nombre,aic)

2.10 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para


el modelo ARCH/GARCH.

En el noveno paso, con los residuos al cuadrado del modelo ARIMA seleccionado,
se construyen la FAC y FACP para determinar los posibles parámetros, p y q, que
tendrán los modelos ARCH/GARCH propuestos.
res_arima011 <- arima011$res
res_arima011_2 <- arima011$res^2
par(mfcol=c(3, 1))
plot(res_arima011_2,main='Residuales al cuadrado del modelo ARIMA')
acf(res_arima011_2,main='FAC de los residuales al
cuadrado',lag.max=50)
pacf(res_arima011_2,main=' FAC de los residuales al
cuadrado',lag.max=50)

2.11 Modelos ARCH/GARCH propuestos.

En el décimo paso, se estiman los modelos ARCH/GARCH de los residuales del


modelo ARIMA seleccionado, para todas las combinaciones de los posibles
parámetros, p y q. Para el modelo ARCH se estiman modelos de los posibles
parámetros q, con la función garch(), estableciendo el comando order=c(0,q). Para
el modelo GARCH, se estiman modelos GARCH de todas las combinaciones de los
posibles, p y q, utilizando la función garch(), estableciendo el comando
order=c(p,q).
arch07=garch(res_arima011,order=c(0,7),trace=F)
arch14=garch(res_arima011,order=c(0,14),trace=F)
garch77=garch(res_arima011,order=c(7,7),trace=F)
garch714=garch(res_arima011,order=c(7,14),trace=F)
garch137=garch(res_arima011,order=c(13,7),trace=F)
garch1314=garch(res_arima011,order=c(13,14),trace=F)
56 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2.12 Selección del modelo ARCH/GARCH.

En el onceavo paso, por medio del criterio AKAIKE (AIC) se establece el mejor
modelo ARCH/GARCH, usando $aic en cada modelo estimado, tanto ARCH como
GARCH. El modelo con menor AIC es el modelo ARCH/GARCH seleccionado.
aicarch07=AIC(arch07)
aicarch14=AIC(arch14)
aicarch77=AIC(garch77)
aicarch714=AIC(garch714)
aicarch137=AIC(garch137)
aicarch1314=AIC(garch1314)
nombres2 <-
c("aicarch07","aicarch14","aicgarch77","aicarch714","aicarch137","aicarch1
314")
aic2 <-
as.numeric(c(aicarch07,aicarch14,aicgarch77,aicarch714,aicarch137,aicarch1
314))
table <- data.frame(nombres2,aic2)

2.13 Modelo ARCH/GARCH seleccionado.

En el doceavo paso, se muestran las estimaciones del modelo ARCH/GARCH


seleccionado y algunas pruebas de diagnóstico, como la prueba Jarque Bera para
establecer si existe normalidad y la prueba Ljung-Box si existe independencia.

summary(arch14)

2.14 Gráfico del modelo ARIMA y GARCH.

En el treceavo paso, se construye el grafico de los valores reales, estimaciones del


modelo ARIMA seleccionado y los intervalos de confianza creados con base al
modelo ARCH/GARCH seleccionado.

ht.arch14=arch14$fit[,1]^2
estimaciones_arima011=fitted.values(arima011)
inf_garch14= estimaciones_arima011-1.96*sqrt(ht.arch14)
sup_garch14= estimaciones_arima011+1.96*sqrt(ht.arch14)
plot(serie.ret, main = “Grafico de los retornos de la serie con los intervalos de
confianza del modelo Arch”, type = "l")
lines(inf_garch14,col='red')
lines(sup_garch14,col='blue')
lines(estimaciones_arima011,col='green')
57 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

3 Capítulo 3. Aplicación de una serie de


tiempo económica utilizando R.

3.1 Lectura de la información y librerías a utilizar.

La serie económica estudiada será la tasa de cambio representativa del mercado


(TRM) diaria Colombiana, durante el periodo entre el 01/01/2015 hasta el
10/08/2016, donde se tienen 589 datos. La fuente de la información es la página del
Banco de la República. Se cargan los datos a R y se instalan las librerías que se
utilizaran a lo largo del ejercicio.

TRM<- read.csv("trm.csv",header =TRUE, sep=";", dec=",")


head(trm)

[1] 2392.46 2392.46 2383.37 2383.37 2383.37 2412.82

3.2 Convertir la información en una serie de tiempo.

Se convierten los datos del TRM diario Colombiano en una serie de tiempo mediante
la función ts().
trm <- trm[,-1]
trm <- ts(trm)
head(trm)

[1] 2392.46 2392.46 2383.37 2383.37 2383.37 2412.82

La función head() me permite visualizar los primeros datos de la serie de tiempo


TRM.

3.3 Estadísticas descriptivas y gráfico de la función pura.


Las estadísticas descriptivas del TRM diario Colombiano entre el 01/01/2015 hasta
el 10/08/2016 son:
> summary(trm)
Min. 1st Qu. Median Mean 3rd Qu. Max.
58 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2361 2567 2945 2877 3086 3435


Durante el periodo, la TRM diario colombiano tuvo una tasa mínima de cambio de
2361 y una tasa máximo de cambio de 3435. Además, tasa promedio de 2877. Para
observar como fue el comportamiento de la TRM diaria colombiana se realiza el
gráfico.

Durante los primero 50 periodos la TRM permanece constante y oscila


aproximadamente entre 2400. Luego, entre los periodos 50 al 120 se presenta un
pico extremo en donde el TRM sube hasta 2650 y luego vuelve a bajar hasta 2400.
Sin embargo entre los periodos 120 y 250, el TRM tiene un crecimiento casi
constante hasta llegar a 3200. Entre los periodos 250 y 300, se presenta uno picos,
donde el TRM baja 2800. Entre los periodos 300 y 380, el TRM tiene un crecimiento
casi constante hasta 3200. Entre los periodos 380 y 420, el TRM oscila
aproximadamente en 330. Luego, entre el periodo 420 y 500, el TRM se reduce
hasta llegar 300. Finalmente, entre los periodos 500 y 600, oscila aproximadamente
en 3000.

3.4 Prueba de independencia en los rezagos.

Antes de la estimación del modelo, se debe realizar la prueba de Ljung-Box, la cual


nos permite establecer la existencia de independencia entre los rezagos.
𝐻0 : Existe independencia entre los rezagos.
𝐻1 : No existe independencia entre los rezagos.
59 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Box-Ljung test

data: coredata(trm)
X-squared = 6570.8, df = 12, p-value < 2.2e-16

Como el valor P (2.2e-16) de la prueba Ljung-Box para la TRM es menor a 0.05.


Existen evidencias suficientes para rechazar la hipótesis nula con un 5% de
significancia, por lo que, los rezagos de la TRM diaria Colombiana son
independientes. Entonces, se puede continuar con el modelamiento.

3.5 Prueba de efectos ARCH.

Además de la prueba de independencia, se debe realizar otra prueba para


establecer si la TRM diaria colombiana es capaz de ajustarse a un modelo
ARCH/GARCH.
𝐻0 : α1 = α2 = ... = αq = 0 (No hay efectos ARCH)

ARCH LM-test; Null hypothesis: no ARCH effects

data: trm
Chi-squared = 572.34, df = 12, p-value < 2.2e-16

Como el valor P (2.2e’16) de la prueba para los retornos es menor a 0.05. Existen
evidencias suficientes para rechazar la hipótesis nula con un 5% de significancia,
por lo que, la TRM diaria Colombiana tiene efectos ARCH/GARCH. Entonces, se
puede continuar con el modelamiento.

3.6 Función de autocorrelación (FAC) y Función de autocorrelación


parcial (FACP) para el modelo ARIMA.

El primer paso para estimar un modelo GARCH, es estimar un modelo ARIMA (p,
q), dónde p representa el orden del modelo autorregresivo, el cual se establece con
la función de autocorrelación parcial (FACP) y q el orden del modelo de medias
móviles, el cual se establece con la función de autocorrelación (FAC).
60 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

En la gráfica de la FAC, se observa que no tiene caída rápida por lo cual se aplicara
la prueba de Dickey-Fuller para determinar si es estacionaria o si se debe realizar
una diferencia de la misma.

> adf.test(trm)

Augmented Dickey-Fuller Test

data: trm
Dickey-Fuller = -1.4003, Lag order = 8, p-value = 0.8322
alternative hypothesis: stationary

En la prueba de Dickey-Fuller se aprecia que a un nivel de significancia del 5% no


se rechaza la hipótesis nula, por lo cual la serie no es estacionaria.

Con el fin de determinar los órdenes para los modelos, se aplicara el operador
diferencia, y se presentara la prueba nuevamente y los gráficos de Autocorrelación
y Autocorrelación Parcial de la serie TRM1.

> adf.test(trm1)

Augmented Dickey-Fuller Test

data: trm1
Dickey-Fuller = -7.5831, Lag order = 8, p-value = 0.01
alternative hypothesis: stationary
61 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

En la prueba de Dickey-Fuller se aprecia que a un nivel de significancia del 5% se


rechaza la hipótesis nula, por lo cual la serie no es estacionaria. Además, se observa
que los posibles ordenes de la serie son p = 1, d = 1 y q =1.
62 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

3.7 Modelos ARIMA propuestos.

Se estiman los modelos ARIMA para todas las combinaciones de los posibles
parámetros, p y q. Ademas, se probaran los modelos con una diferenciación.

arima110 <- arima(trm, order=c(1, 1, 0))


aic110=arima110$aic

arima011 <- arima(trm, order=c(0, 1, 1))


aic011=arima011$aic

arima111 <- arima(trm, order=c(1, 1, 1))


aic111=arima111$aic

3.8 Selección del modelo ARIMA.

Para elegir el mejor modelo ARIMA para la TRM diaria colombiana, se tiene en
cuenta el criterio de Akaike (AIC), dónde el modelo con el menor AIC representa el
mejor modelo.

nombres aic
aic011 5468,222
aic111 5468,930
aic110 5469,945

El mejor modelo es el ARIMA(0,1,1), ya que, tiene el menor AIC (5468.222).

3.9 Función de autocorrelación (FAC) y Función de autocorrelación


parcial (FACP) para el modelo ARCH/GARCH.

Con los residuales al cuadrado del modelo ARIMA(0,1,1) se construye el modelo


ARCH/GARCH, utilizando las mismas herramientas para escoger el modelo ARIMA.
Las gráficas de las FAC y FACP para los residuales al cuadrado del modelo ARIMA
(0,1,1) son:
63 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

En la gráfica de la FAC, se observa que los posibles valores del parámetro q son
7,14.
En la gráfica de la FACP, se observa que los posibles valores del parámetro p son
7,13.

3.10 Modelos ARCH/GARCH propuestos.

Utilizando los residuales del modelo ARIMA(0,1,1), se estiman los modelos ARCH
para los posibles parámetros q. Además, se estiman los modelos GARCH para
todas las combinaciones de los posibles parámetros, p y q.
64 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

arch07=garch(res_arima011,order=c(0,7),trace=F)
aicarch07=AIC(arch07)

arch14=garch(res_arima011,order=c(0,14),trace=F)
aicarch14=AIC(arch14)

garch77=garch(res_arima011,order=c(7,7),trace=F)
aicarch77=AIC(garch77)

garch714=garch(res_arima011,order=c(7,14),trace=F)
aicarch714=AIC(garch714)

garch137=garch(res_arima011,order=c(13,7),trace=F)
aicarch137=AIC(garch137)

garch1314=garch(res_arima011,order=c(13,14),trace=F)
aicarch1314=AIC(garch1314)

3.11 Selección del modelo ARCH/GARCH.

De la misma manera que se eligió el mejor modelo ARIMA, se tiene en cuenta el


criterio de Akaike (AIC) para elegir el mejor modelo ARCH/GARCH, dónde el modelo
con el menor AIC representa el mejor modelo.

nombres aic
arch14 5353,836
arch07 5416,964
garch77 5423,745
garch137 24126,490
garch714 20000000000
garch1314 20000000000

El mejor modelo es el ARCH(14), ya que, tiene el menor AIC (5353,386).

3.12 Modelo ARCH/GARCH seleccionado.

El modelo ARCH(14) tiene los siguientes resultados.

Call:
garch(x = res_arima011, order = c(0, 14), trace = F)
Model:
GARCH(0,14)
Residuals:
65 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Min 1Q Median 3Q Max


-5.269637 -0.335629 0.002085 0.497856 3.932422

Coefficient(s):
Estimate Std. Error t value Pr(>|t|)
a0 1.912e+02 2.980e+01 6.416 1.39e-10 ***
a3 5.454e-02 2.467e-02 2.210 0.027075 *
a4 3.341e-02 1.650e-02 2.026 0.042800 *
a7 1.108e-01 3.836e-02 2.888 0.003876 **
a11 6.067e-02 2.424e-02 2.503 0.012319 *
a13 8.600e-02 3.648e-02 2.357 0.018406 *
a14 1.390e-01 3.924e-02 3.542 0.000397 ***

3.13 Gráfico de los retornos de Precio de cierre de la TRM


Colombiana con los intervalos de confianza del modelo GARCH.

Finalmente, en el siguiente gráfico se puede observar que las estimaciones son muy
cercanas a los valores reales. Además, los intervalos de confianza generados a
partir el modelo GARCH tienen un comportamiento similar a la TRM diaria
Colombiana.
66 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Gráfico de los retornos de la tasa de cambio representativa del mercado (TRM)


diaria Colombiana con los intervalos de confianza del modelo ARCH(14)

Nota:
*Línea verde: Estimaciones
*Línea negra: Valores reales
*Línea azul: Límite inferior (nivel de confianza del 0.05)

*Línea roja: Límite superior (nivel de confianza del 0.05)

Modelo final.
𝐴𝑅𝐼𝑀𝐴(0,1,1): (1 − 𝐿)𝑦𝑡 = (1 − 0.1667𝐿)𝜖𝑡
𝐴𝑅𝐶𝐻(14):
ℎ𝑡2 = 191.2 + 0.0545 ∈2𝑡−3 + 0.0334 ∈2𝑡−4 + 0.0110 ∈2𝑡−7 + 0.0606 ∈2𝑡−11 + 0.086 ∈2𝑡−13
+ 0.139 ∈2𝑡−14
67 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

4 Anexos.

4.1 Pruebas de raíz unitaria.

Una prueba alternativa sobre estacionariedad que se ha empleado con frecuencia


en los últimos años se conoce como la prueba de raíz unitaria (Gujarati, 1997). Esta
prueba es sumamente importante ya que el rechazo de la hipótesis nula de raíz
unitaria en favor de alternativas estacionarias tiene interpretaciones económicas
importantes, admitiendo la posibilidad de relaciones a largo plazo entre variables
económicas. Además, en algunas aplicaciones, es deseable probar no
estacionariedad vs. alternativas explosivas (Bhargava, 1986).
La forma más fácil de introducir esta prueba es considerando el siguiente modelo
(Ramos):
𝑋𝑡 = 𝑋𝑡−1 + 𝜀𝑡 (1)
Donde 𝜀𝑡 es el término de error estocástico que sigue los supuestos clásicos, a
saber: tiene media cero, varianza constante, y no está autocorrelacionado. Un
término de error con tales propiedades es conocido también como ruido blanco.
La ecuación es una regresión de primer orden, o AR(1), en la cual se relaciona el
valor de X en t sobre t - 1. Si el coeficiente de 𝑋𝑡−1 , es en realidad igual a 1, surge
lo que se conoce como raíz unitaria (una situación de no estacionariedad). Por
consiguiente, si se efectúa la regresión (caminata aleatoria):
𝑋𝑡 = 𝜃𝑋𝑡−1 + 𝜀𝑡 (2)
y se encuentra que 𝜃=1, entonces se dice que la variable estocástica X tiene una
raíz unitaria. La ecuación puede rescribirse como:
∆𝑋𝑡 = (𝜃 − 1)𝑋𝑡−1 + 𝜀𝑡 (3)
(4)∆𝑋𝑡 = 𝛿𝑋𝑡−1 + 𝜀𝑡
Donde 𝛿=(𝜃 − 1), ∆ es el operador de primera diferencia estacionaria.
Se puede escribir (3) como:
∆𝑋𝑡 = (𝑋𝑡 − 𝑋𝑡−1 ) = 𝜀𝑡

Esta ecuación indica que la primera diferencia de una serie de tiempo de caminata
aleatoria es una estacionaria porque ut es puramente aleatorio. Desde el punto de
vista estadístico, existen dos problemas (Maddala, 1996; Novales, 1997): el primero
es con respecto a los métodos de eliminación de tendencia que se emplean
68 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

(regresión o diferencias). Según Maddala (1996), los resultados de autocorrelación


son espurios siempre que se elimine la tendencia de una serie en diferencia
estacionaria o se diferencie una serie de tendencia estacionaria. El otro problema
es que la distribución del estimado de mínimos cuadrados del parámetro
autorregresivo tiene una distribución no estacionaria cuando existe una raíz unitaria.
Para esto es preciso calcular la distribución en forma numérica en cada caso,
dependiendo de las demás variables que se incluyen en la regresión. Esto
representa la proliferación de las pruebas de raíces unitarias y las tablas asociadas
(Maddala, 1996).

4.2 Dickey-Fuller (DF) y Dickey-Fuller aumentada(ADF)

Para analizar si una serie de tiempo "X" es no estacionaria, se efectúa la regresión


(2) y se determina si “𝜃” es estadísticamente igual a 1 o, en forma equivalente, se
estima e investiga sí 𝛿 =0 (Gujarati, 1997; Johnston y DiNardo, 1997; Pindyck y
Rubinfeld, 1997). El valor t así obtenido no sigue la distribución t de “Student” aun
en muestras grandes (Gujarati, 1997; Johnston y DiNardo, 1997; Pindyck y
Rubinfeld, 1997; Pankratz, 1995).
Bajo la hipótesis nula de que 𝜃 =1, el estadístico "t" calculado convencionalmente
se conoce como “Γ”, cuyos valores críticos han sido tabulados por Dickey y Fuller
con base en simulaciones de Monte Carlo (Gujarati, 1997; Johnston y DiNardo,
1997; Pindyck y Rubinfeld, 1997; Patterson, 2000). Esta prueba se conoce como la
prueba Dickey-Fuller (DF). Si la hipótesis nula de que 𝜃 =1 es rechazada (la serie
de tiempo es estacionaria), se puede utilizar la prueba "t" usual (de Student)
(Gujarati, 1997; Johnston y DiNardo, 1997; Pindyck y Rubinfeld, 1997, Bahskara,
1994).
Sin embargo, estas tablas no son totalmente adecuadas y han sido ampliadas por
MacKinnon a través de simulaciones de Monte Carlo (Gujarati, 1997; Johnston y
DiNardo, 1997). Si el valor absoluto calculado del estadístico Γ (es decir, | Γ |)
excede los valores absolutos críticos de (DF) o de MacKinnon, DF (Dickey y Fuller),
entonces no se rechaza la hipótesis de que la serie de tiempo dada es estacionaria.
Por el contrario, si éste es menor que el valor crítico, la serie de tiempo es no
estacionaria.
Además del estadístico “t” existen otras dos estadísticas de prueba (Maddala,1996):
1. K(1) = T(𝜃 - 1), F(0, 1);
2. F(0, 1) es el estadístico F usual bajo la prueba de hipótesis conjuntas de que
el parámetro de la tendencia es cero y 𝛼 es igual a uno. La prueba Dickey-Fuller
se aplica a regresiones efectuadas en las siguientes formas:
𝑋𝑡 = 𝛿𝑋𝑡−1 + 𝜀𝑡 (4)
69 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

∆𝑋𝑡 = 𝛽1 + 𝛿𝑋𝑡−1 + 𝜀𝑡 (5)


∆𝑋𝑡 = 𝛽1 + 𝛽2 𝑡 + 𝛿𝑋𝑡−1 + 𝜀𝑡 (6)
Donde "t" es la variable de tiempo o tendencia. En cada caso, la hipótesis nula es
que 𝛿 = 1, es decir, que hay una raíz unitaria. La diferencia entre (4) y las otras dos
regresiones se encuentra en la inclusión del intercepto y el término de tendencia. Si
el término de error está autocorrelacionado, se modifica (6) como sigue (Gujarati,
1997; Johnston y DiNardo, 1997):
∆𝑋𝑡 = 𝛽1 + 𝛽2 𝑡 + 𝛿𝑋𝑡−1 + ∑𝑛𝑖=1 𝜑1 ∆𝑋𝑡−1 + 𝜀𝑡 (7)

Por otro lado, la prueba de hipótesis conjunta en (21), que indica que el PGD es un
paseo aleatorio, se puede probar a través del estadístico F presentado también en
el trabajo de Dickey y Fuller(1981) y así, sucesivamente, para la significancia de los
diversos parámetros.
70 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Bibliografía

Arce, R. d. (1998). Introducción a los modelos autorregresivos con


heterocedasticidad condicional (ARCH).
Brockwell , P. J., & Davis , R. A. (2002). Introduction to Time Series and
Forecasting. New York: Springer.
Casimiro, M. P. (2009). Análisis de series temporales: Modelos Arima. (U. d. (UPV-
EHU), Ed.) País Vasco.
Cobis, A. E. (2011). Tests de bondad de ajuste para modelos de tipos de interés:
Un Enfoque basado en Procesos Empíricos. Santiago de Compostela.
Cryer, J. D., & Chan, K.-S. (2008). Time Series Analysis With Applications in R
(Second Edition ed.). Springer.
Francq, C., & Zakoïan, J.-M. (2010). GARCH Models Structure, Statistical
Inference and Financial Applications. United Kingdom: John Wiley & Sons
Ltd.
Gujarati, D. N., & Porter, D. C. (2009). Econometría (Quinta edición ed.). México,
D. F: McGRAW-HILL.
Kirchgässner, G., & Wolters, J. (2007). Introduction to Modern Time Series
Analysis. Berlin: Springer.
López, C. A. (2004). Probabilidad, variables aleatorias. Valladolid: Universidad de
Valladolid, Secretariado de Publicaciones e Intercambio Editorial.
Markus, K., & Lütkepohl, H. (2004). Applied time series econometrics. Cambridge.:
Cambridge University Press.
Mauricio., J. A. (2007). Introducción al Análisis de Series Temporales. Madrid. :
Universidad Complutense de Madrid. 2007.
Montgomery., D. C., Jennings, C. I., & Kulahci, M. (2008). Introduction to Time
Series Analysis and Forecasting. New Jersey: John Wiley & Sons. Inc.
Ramos, C. A. (s.f.). Conceptos básicos y aspectos matemáticos sobre el análisis
de raíces unitarias y cointegración.
Shumway , R. H., & Stoffer, D. S. (2011). Time Series Analysis and Its Applications
With R Examples. Springer.
TSAY, R. S. (2005). Analysis of Financial Time Series (Second Edition ed.). New
Jersey.: John Wiley & Sons, Inc.
Villavicencio, J. (2014). Introducción a Series de Tiempo.
71 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Yaffee, R. A., & McGee, M. (1999). Introduction to Time Series Analysis and
Forecasting with Applications of SAS and SPSS. Brooklyn, New York:
ACADEMIC PRESS, INC.

Das könnte Ihnen auch gefallen