Sie sind auf Seite 1von 103

UNIVERSIDAD NACIONAL DEL ALTIPLANO

FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA


ESCUELA PROFESIONAL DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA

“MODELO UNIVARIANTE PARA PREDECIR EL NÚMERO DE


CASOS DE IRAS EN MENORES DE 5 AÑOS DE LA
PROVINCIA DE LAMPA, PERIODO 2000 – 2011”

TESIS
PRESENTADA POR:

BACH. YOVANA CONCEPCION COLQUE MENDOZA

PARA OPTAR EL TÍTULO PROFESIONAL DE:

INGENIERO ESTADÍSTICO
E INFORMÁTICO

PUNO – PERÚ

2012
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
ESCUELA PROFESIONAL DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA

“MODELO UNIVARIANTE PARA PREDECIR EL NÚMERO


DE CASOS DE IRAS EN MENORES DE 5 AÑOS DE LA
PROVINCIA DE LAMPA, PERIODO 2000 – 2011”

TESIS
Presentada a la Coordinación de Investigación de la Facultad de Ingeniería
Estadística e Informática de la Universidad Nacional del Altiplano Puno, para
optar el título profesional de Ingeniero Estadístico e Informático.

APROBADA POR:

PRESIDENTE DEL JURADO :


M.Sc Carpio Vargas Edgar Eloy

PRIMER MIEMBRO :
M.Sc. Perez Quispe, Samuel Donato

SEGUNDO MIEMBRO :
Ing. Ramos Calcina, Alcides

DIRECTOR DE TESIS :
M.Sc. Confesor Milan, Vargas Valverde

ASESOR DE TESIS :
Ing. Edgar Pablo Vilca Gonsales
DEDICATORIA

A Dios.

Por haberme permitido llegar hasta este punto y haberme dado salud para lograr

objetivos, además de su infinita bondad y amor.

A mis queridos padres Amadeo y Alejandrina, a ellos mi profundo y eterno

agradecimiento, por el apoyo incondicional que me brindaron en mi formación

profesional y por alentarme a seguir siempre adelante.

A mi amado hijo Isacc y a mis queridos hermanos, Willian e Ivan y a todas las personas

que siempre me motivaron y apoyaron, pienso que sin el apoyo de ellos no hubiese

podido culminar el presente trabajo de investigación.

¡A TODOS MIL GRACIAS!


AGRADECIMIENTO

MI MÁS SINCERO Y PROFUNDO AGRADECIMIENTO:

A: La Universidad Nacional del Altiplano – Puno, a la Facultad de Ingeniería

Estadística e Informática y en especial a todos los docentes de la Escuela

Profesional de Ingeniería Estadística e Informática, por haber impartido

enseñanza y haber formado en mí una persona profesional.

Al: Director de Tesis Msc. Confesor Milán Vargas Valverde mi profundo

reconocimiento y agradecimiento por su colaboración y orientación brindado en

todo momento para la realización del presente trabajo de investigación.

A: A mis compañeros de estudios por su amistad y los gratos recuerdos que siempre

estarán grabados en nuestra mente.


ÍNDICE
RESUMEN
INTRODUCCIÓN. ......................................................................................................... 4
I. PLANTEAMIENTO TEÓRICO DE LA INVESTIGACIÓN ............................ 9
1.1. FORMULACIÓN DEL PROBLEMA. .......................................................... 9
1.2. JUSTIFICACIÓN DE LA INVESTIGACIÓN. .......................................... 10
1.3. OBJETIVOS DE LA INVESTIGACIÓN. ................................................... 11
1.4. HIPÓTESIS. ................................................................................................... 12
1.5. LIMITACIÓN DEL PROBLEMA............................................................... 12
II. MARCO TEÓRICO.............................................................................................. 13
2.1. ANTECEDENTES DE LA INVESTIGACIÓN. ......................................... 13
2.2. BASE TEÓRICA. .......................................................................................... 14
2.3. DEFINICIÓN DE TÉRMINOS BÁSICOS. ................................................ 55
2.4. OPERACIONALIZACIÓN DE VARIABLES. .......................................... 57
III. MATERIALES Y MÉTODOS. ............................................................................ 58
3.1. LUGAR DE ESTUDIO. ................................................................................ 58
3.2. MATERIAL. .................................................................................................. 59
3.3. POBLACIÓN Y MUESTRA. ....................................................................... 59
3.4. MÉTODOS DE RECOPILACIÓN DE DATOS......................................... 59
3.5. MÉTODOS DE TRATAMIENTO DE DATOS. ........................................ 60
3.6. METODOLOGÍA DE LA INVESTIGACIÓN. .......................................... 60
IV. RESULTADOS Y DISCUSIÓN. .......................................................................... 68
4.1 FASE DE IDENTIFICACIÓN. .................................................................... 68
4.2 FASE DE ESTIMACIÓN. ............................................................................ 80
4.3 FASE DE VALIDACIÓN O VERIFICACIÓN. ......................................... 82
4.4 FASE DE PREDICCIÓN. ............................................................................. 87
V. CONCLUSIONES. ................................................................................................ 90
VI. RECOMENDACIONES ....................................................................................... 91
VII.BIBLIOGRAFÍA CONSULTADA. ..................................................................... 93
RESUMEN

El presente trabajo de investigación titulado “MODELO UNIVARIANTE PARA

PREDECIR EL NÚMERO DE CASOS DE IRAS EN MENORES DE 5 AÑOS DE

LA PROVINCIA DE LAMPA, PERIODO 2000 - 2011”; comprende el análisis,

siguiendo la Teoría de WIENER KOLMOGOROV, más conocido como el enfoque de

BOX-JENKINS, a partir del cual se elige el proceso adecuado para realizar

predicciones.

La presente investigación se realizó para el ámbito geográfico de la ciudad de Lampa y

trata de responder a la siguiente interrogante: ¿Cuál es el modelo univariante que mejor

predice la evolución del número de casos de IRAS en menores de 5 años, en la

provincia de Lampa, periodo 2000-2011?

Como objetivo general busca, determinar el modelo univariante que mejor predice la

evolución del número de casos de IRAS en menores de 5 años de la Provincia de

Lampa, periodo 2000 - 2011. Mientras que con los objetivos específicos se pretende:

Analizar y describir la serie del número de casos de IRAS, posteriormente obtener el

modelo y con éste pronosticar la serie del número de casos de IRAS en menores de 5

años de la Provincia de Lampa, periodo 2000 – 2011. La hipótesis de investigación es:

El modelo uniecuacional integrado de Box-Jenkins (ARIMA) nos proporciona mejor

pronóstico en el número de casos de IRAS en menores de 5 años de la Provincia de

Lampa, que los modelos no integrados.

Las conclusiones obtenidas fueron:

Los modelos univariantes integrados de Box-Jenkins proporcionan un mejor pronóstico

en el número de casos de IRAS en menores de 5 años del periodo 2000-2011. El modelo


univariante integrado que mejor se ajusta para pronosticar el comportamiento de la serie

de tiempo del número de casos de IRAS de los menores de 5 años de la provincia de

Lampa del periodo 2000-2011 es un SARIMA(0,1,1)*(0,1,1)12, cuya ecuación de

pronóstico estimada es: 12 Yt  1  0.560460 L12 1  0.581806 L  t

Para identificar el modelo se realizaron algunas transformaciones a la serie original

convirtiéndola en estacionaria. Luego se identificó la forma del modelo usando la

Función de Autocorrelación Estimada y la Función de Autocorrelación Parcial

Estimada. La estimación se realizó con el paquete estadístico Eviews 7. Para la

validación del modelo se realizó el análisis de los residuos y de los coeficientes, con lo

que se llega a cumplir que los residuos son compatibles con un ruido blanco, el valor de

los coeficientes estimados garantiza la invertibilidad (coeficientes menores que 1 

Inverted MA roots <1).

Para la predicción de la serie analizada, se hizo uso del mejor modelo estimado. Se

obtuvieron predicciones para los doce periodos siguientes (Enero a Diciembre de 2012)

dando a conocer que en dichos meses, el comportamiento del número de casos de IRAS

en menores de 5 años seguirá descendiendo en menor número.


i. INTRODUCCIÓN

Lampa es una provincia que por su geografía y condiciones climatológicas está

permanentemente expuesto a periodos de frio intenso, con temperaturas por debajo de

los cero grados centígrados. Esta situación provoca graves enfermedades en niños y

niñas de la primera infancia.

La importancia de saber el comportamiento de las variaciones del número de casos de

IRAS derivado en un futuro, es muy importante, para la prevención y planificación, a

fin de reducir la mortalidad de niños y niñas por IRAS. Las consecuencias de las

infecciones respiratorias agudas tienen una externalidad social negativa grande, al

limitar la capacidad productiva de las que la padecen.

Las técnicas de pronóstico de series de tiempo permiten llevar a cabo esta labor por

medio de la metodología Box-Jenkins, la cual permite obtener buenas aproximaciones

en el caso de que dicho método sea bien aplicado, hasta alcanzar el mejor modelo.

En el presente trabajo de investigación se realizó el análisis de Series de Tiempo

siguiendo la metodología de Box-Jenkins, utilizando información del número de casos

de IRAS en menores de la primera infancia por años y meses, buscando luego un

modelo adecuado que permitió ajustar el comportamiento de la serie, el cual a su vez

permitió realizar pronósticos.

La información obtenida del número de casos de IRAS en menores de 5 años de la

provincia de Lampa corresponde al período 2000-2011, los cuales fueron agrupados

mensualmente, para evaluar el comportamiento de la serie histórica a fin de realizar

proyecciones con la variable en estudio.

4
II. PLANTEAMIENTO TEÓRICO DE LA
INVESTIGACIÓN
1.1. FORMULACIÓN DEL PROBLEMA.

Las infecciones respiratorias agudas (IRAS) representan uno de los problemas

principales de salud entre los niños menores de cinco años de los países en

desarrollo. En la Región de las Américas, las IRAS se ubican entre las primeras

cinco causas de defunción de menores de cinco años y representan la causa

principal de enfermedad y consulta a los servicios de salud. Todos los años, la

neumonía ocasiona en todo el mundo más de 100.000 muertes de niños menores de

un año, es decir un promedio de 300 muertes diarias. Noventa y nueve por ciento de

estas muertes ocurre en los países en desarrollo. Otros 40.000 niños mueren

anualmente por neumonía antes de alcanzar los cinco años de edad, lo cual

representa otras 100 muertes diarias por esta causa en todo el hemisferio.

El número de casos de IRAS se manifiesta en mayor intensidad en la región Sierra

de nuestro país, y Lampa es una de las provincias que presenta un alto índice de

IRAS, en menores de 5 años, con un panorama nada alentador si se tiene en cuenta

que el número de casos de IRAS en menores de 5 años, genera problemas de salud

(incluso la muerte). Peor aún si estos niños suelen ser los de menores recursos y,

por tanto, los que más necesitan cambiar su futuro.

La mayoría de las veces, las infecciones respiratorias agudas se presentan en forma

leve; pero hay que prestarles mucha atención, especialmente cuando el enfermo es

menor de 5 años, debido a que este grupo atareó es causante de la mayor cantidad

5
de consulta en los servicios de salud y por tanto requiere de una mayor inversión de

los programas sociales que dirigen los gobiernos locales en la prevención de las

mismas.

Para poder combatir o por lo menos controlar las IRAS, es primordial tener

conocimiento del comportamiento de la variabilidad que se va registrando a través

del tiempo en el aumento o disminución en el número de casos de los menores de 5

años, para hacer, que los gobiernos locales inviertan en lograr reducir o por lo

menos controlar estas condiciones y se pueda prevenir a la niñez contra ese daño.

El objetivo en el Perú y por ende de la provincia de Lampa debe ser el de la

prevención y de la recuperación de los niños que padecen las IRAS. Por ello el

presente trabajo de investigación se formula de la siguiente manera:

¿Cuál es el modelo univariante que mejor predice la evolución del número de casos

de IRAS en menores de 5 años en la provincia de lampa, período 2000 - 2011?

1.2. JUSTIFICACIÓN DE LA INVESTIGACIÓN.

El desarrollo de este trabajo busca conseguir modelos univariantes, para el número

de casos de IRAS en menores de 5 años de la provincia de Lampa a través de series

de tiempo, y fundamenta su metodología en la de Box Jenkins. Debido a que falta

información relacionada a pronósticos adecuados y eficientes para periodos cortos

de tiempo en función a hechos pasados.

La Municipalidad Provincial de Lampa, actualmente no cuenta con información,

que le permita tener referencia sobre pronósticos de IRAS, en menores de 5 años,

debido a que no se han realizado trabajos con esta variable demográfica,

investigaciones que contribuyan a este tema son necesarias.

6
Este grupo de enfermedades son la principal causa de consulta en los servicios de

salud y la que causa más muertes, especialmente en niños menores de 5 años, por

tal razón, es de vital importancia contar con un instrumento que nos permita tomar

precauciones futuras.

Además, la presente investigación tiene como propósito mostrar la capacidad de

realizar pronósticos en series de Tiempo siguiendo la metodología Box-Jenkins,

con el fin de conocer el comportamiento del número de casos de IRAS en menores

de 5 años de la provincia de Lampa, para que los gobiernos locales y regionales

puedan diseñar programas estratégicos y tomar las medidas correspondientes frente

a esta situación.

1.3. OBJETIVOS DE LA INVESTIGACIÓN.

OBJETIVO GENERAL:

Determinar el modelo univariante que mejor predice la evolución del número de

casos de IRAS en menores de 5 años de la Provincia de Lampa, periodo 2000 -

2011.

OBJETIVOS ESPECÍFICOS:

 Analizar y describir la serie del número de casos de IRAS en menores de 5 años

de la Provincia de Lampa, periodo 2000 - 2011.

 Obtener el modelo de pronóstico del número de casos de IRAS en menores de 5

años de la Provincia de Lampa, periodo 2000 - 2011.

 Pronósticar mediante el modelo obtenido, el número de casos de IRAS en

menores de 5 años de la Provincia de Lampa.

7
1.4. HIPÓTESIS.

HIPÓTESIS GENERAL:

El modelo uniecuacional integrado de Box-Jenkins (ARIMA) nos proporciona

mejor pronóstico en el número de casos de IRAS en menores de 5 años de la

Provincia de Lampa, periodo 2000 – 2011, que los modelos univariantes no

integrados.

1.5. LIMITACIÓN DEL PROBLEMA.

El presente trabajo que se investiga se desarrollara únicamente para un modelo de

casos de IRAS, abarcando solo a la provincia de Lampa y solo para los menores de

5 años.

8
I. MARCO TEÓRICO

2.1. ANTECEDENTES DE LA INVESTIGACIÓN.

 NEIRA CHURATA, PORFIRIO. “Modelos Univariantes y Espectros de Series

de Tiempo para los Pacientes Hospitalizados por Neumonía en el hospital Carlos

Monje Medrano de Juliaca (1980 - 1993)”. Su objetivo fue determinar el modelo

univariante más eficiente en las Series de Pacientes Hospitalizados por

Neumonía y Bronconeumonía. Concluye que los Modelos Integrados de la Serie

de Pacientes hospitalizados por Neumonía y Bronconeumonía proporcionan un

mejor ajuste con respecto a los modelos No Integrados, y que los Modelos

Integrados de la Serie de pacientes Niños menores de 5 años hospitalizados por

Neumonía y Bronconeumonía proporcionan un mejor ajuste respecto a los

Modelos Integrados1.

 DIAZ MAMANI, Nela. “Pronóstico mediante modelos de series de tiempo para

el consumo de agua potable de la Empresa Municipal de Saneamiento Básico de

la ciudad de Puno, periodo 2000-2007”. Su objetivo fue determinar el mejor

modelo de series de tiempo para el consumo de agua potable de la Empresa

municipal de Puno (2000-2007). Concluye que el mejor modelo para el consumo

de agua potable es: ARIMA(0,1,3)2.

1 NEIRA, Porfirio. (1995). “Modelos Univariantes y Espectros de Series de Tiempo para los pacientes
Hospitalizados por Neumonía Carlos Monje Medrano Juliaca, 1980 – 1993”. [TESIS]. Facultad de Ingeniería
Estadística e Informática-Universidad Nacional del Altiplano, Puno-Perú.

2 DIAZ MAMANI, Nela. (2008). “Pronóstico mediante modelos de series de tiempo para el consumo de agua
potable de la Empresa Municipal de Saneamiento Básico de la ciudad de Puno, periodo 2000-2007”. [TESIS].
Facultad de Ingeniería Estadística e Informática-Universidad Nacional del Altiplano, Puno-Perú.

9
 HUACANTARA CHAMBI, Karin Corina. “Modelo Uniecuacional para

describir y predecir el comportamiento de los niveles medios de agua del Lago

Titicaca – Puno, 1984 – 2008”. Su objetivo fue determinar el modelo

uniecuacional que mejor se ajusta para describir y predecir el comportamiento de

las variaciones de los niveles medios mensuales de agua del Lago Titicaca

(sobre los 3810 m.s.n.m.) de la región de Puno, período 1984 – 2008. Concluye

que los modelos univariantes integrados de Box Jenkins proporcionan un mejor

ajuste para describir y predecir el comportamiento de las variaciones de niveles

medios de agua del Lago Titicaca del periodo 1984 – 2008. El modelo

univariante integrado que mejor se ajusta es el SARIMA (1,1,0)(2,1,1)3.

2.2. BASE TEÓRICA.

2.2.1. PRONÓSTICOS.

Los pronósticos son predicciones de lo que puede suceder o esperar, son

premisas o suposiciones básicas en que se basan la planeación y la toma de

decisiones.

El propósito del pronóstico consiste en reducir el margen de incertidumbre,

haciendo el mejor uso de la información que se tiene para guiar las

actividades de la empresa hacia el cumplimiento de sus metas y objetivos.

Los pronósticos se basan en el uso de datos anteriores de una variable para

predecir su desempeño futuro. A este respecto, los datos anteriores se dan

generalmente en la forma de series de tiempo. Una hipótesis básica en la

aplicación de las técnicas de pronóstico es que el desempeño de los datos

3
HUACANTARA CHAMBI, Karin Corina. (2010). “Modelo uniecuacional para describir y predecir el
comportamiento de los niveles medios de agua del Lago Titicaca, periodo 1984 – 2008, Puno”. [TESIS]. Facultad
de Ingeniería Estadística e Informática-Universidad Nacional del Altiplano, Puno-Perú.

10
anteriores continuará ocurriendo en el futuro inmediato. Evidencias

empíricas indican que este supuesto es válido en muchas situaciones reales,

sobre todo cuando las series de tiempo representan una larga historia de las

variables analizadas.

2.2.2. LA NECESIDAD DE PRONOSTICAR.

Debido a que siempre ha sido cambiante el mundo en el que operan las

organizaciones, siempre ha existido la necesidad de hacer pronósticos. Sin

embargo, en los últimos años se ha incrementado la confianza en las

técnicas que abarcan una compleja manipulación de datos4.

¿Quién requiere hacer pronósticos? Casi cualquier organización, grande y

pequeña, pública y privada, utiliza el pronóstico, debido a que casi todas las

organizaciones deben planear cómo enfrentar las condiciones futuras de las

cuales tiene un conocimiento imperfecto. Además, la necesidad de hacer

pronósticos cruza todas las líneas funcionales, lo mismo que todo tipo de

organizaciones.

2.2.3. TÉCNICAS DE PRONÓSTICOS.

Se pueden emplear dos técnicas básicas de pronósticos: Las técnicas de

pronóstico cualitativas y las técnicas de pronóstico cuantitativas5.

4 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 3.
5 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall

Hispanoamericana S.A. p. 4.

11
a) TÉCNICAS DE PRONÓSTICO CUALITATIVAS.

Este método es apropiado cuando los datos confiables son escasos o

difíciles de emplear. Se basan en el juicio humano y en la intuición, más

que en la manipulación de datos históricos anteriores. Las técnicas

cualitativas comunes incluyen al método Delphi, curvas de crecimiento,

escritura de escenarios, investigación de mercado y grupos de enfoque.

b) TÉCNICAS DE PRONÓSTICO CUANTITATIVAS.

Las técnicas de pronóstico cuantitativas se utilizan cuando existen

suficientes datos históricos disponibles y cuando se juzga que estos

datos son representativos de un futuro desconocido. Trabajan con

modelos cuantitativos o modelos matemáticos que se basan en datos

históricos, bajo el supuesto de que son relevantes para el futuro. Estos

modelos se pueden utilizar con series de tiempo.

2.2.4. PRONÓSTICOS SEGÚN PLAZOS.

Los pronósticos a largo plazo son necesarios para establecer el curso general

de la organización para un largo periodo, sirven para tomar decisiones

estratégicas y por lo general abarcan de tres a cinco años. Los pronósticos a

mediano plazo abarcan de uno a dos años. Los pronósticos a corto plazo se

utilizan para diseñar estrategias inmediatas que ayuden en la toma de

decisiones, sólo abarcan meses.

12
Las técnicas más complejas de Box-Jenkins resultan apropiadas para

pronósticos de corto y mediano plazos6.

2.2.5. SERIES DE TIEMPO.

Es un conjunto de observaciones ordenadas según una característica

cuantitativa de un fenómeno individual en diferentes momentos del tiempo,

en el cual las observaciones son realizadas7.

Una serie de tiempo consta de datos que se reúnen, registran u observan

sobre incrementos sucesivos de tiempo8.

Una serie de tiempo es una secuencia cronológica de observaciones de una

variable en particular9.

Una serie de tiempo es un conjunto de observaciones producidas en

determinados momentos durante un periodo, semanal, mensual, trimestral o

anual, generalmente a intervalos iguales. El primer paso para analizar una

serie de tiempo es graficarla, esto permite identificar la tendencia, la

estacionalidad, las variaciones irregulares (componente aleatorio). Un

modelo clásico para una serie de tiempo, puede ser expresada como suma o

producto de tres componentes: tendencia, estacional y un término de error

aleatorio.

6 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 117.
7 ANDERSON, Oliver D. (1985). Times Serie Análisis and Forecasting. (1ra Edición).
8 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall

Hispanoamericana S.A. p. 98.


9 BOWERMAN, B. y O’CONNEL, R. (1993). Forecasting and time series: an applied approach. (3ra Edición).

California: Duxbury Press.

13
COMPONENTES DE UNA SERIE TEMPORAL.

En el análisis de series de tiempo de datos, una tentación inmediata consiste

en intentar explicar o contabilizar el comportamiento de las series. La

descomposición clásica es un método que se basa en la suposición de que se

pueden descomponer en componentes como tendencia, ciclo, estacionalidad

e irregularidad. Una predicción se hace mediante la combinación de las

proyecciones de cada componente individual10.

a) Tendencia.

La tendencia es un movimiento de larga duración que muestra la

evolución general de la serie en el tiempo. Es un movimiento que puede

ser estacionario o ascendente o descendente, y su recorrido, una línea

recta o una curva.

b) Componente cíclico o Variación cíclica.

El componente cíclico es un conjunto de fluctuaciones en forma de onda

o ciclos, de más de un año de duración. El ciclo sugiere la idea de que

este tipo de movimiento se repite cada cierto periodo con características

parecidas.

c) Componente estacional o Variación estacional.

Se habla de este tipo de variaciones usualmente cuando el

comportamiento de la variable en el tiempo en un periodo está

10 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 99.

14
relacionado con la época o un periodo particular, por lo general en el

espacio cronológico presente.

El componente estacional es un patrón de cambio que se repite a sí

mismo año tras año. Se encuentran típicamente en los datos clasificados

por trimestre, mes o semana.

d) Componente aleatorio o Variación residual.

El componente aleatorio mide la variabilidad de las series de tiempo

después de que se retiran los otros componentes. Contabiliza la

variabilidad aleatoria en una serie de tiempo ocasionada por factores

imprevistos y no recurrentes. La mayoría de los componentes irregulares

se conforman de variabilidad aleatoria. Sin embargo, ciertos sucesos a

veces impredecibles como huelgas, cambios de clima (inundaciones,

sequías o terremotos), elecciones, conflictos armados o la aprobación de

asuntos legislativos, pueden causar irregularidades en una variable11.

ANÁLISIS DE SERIES DE TIEMPO.

El análisis de series de tiempo está dedicado al estudio de series; por lo

general, los datos de dichas series son independientes pero están

correlacionados; se puede decir que existe una relación entre observaciones

contiguas12.

Es el análisis de una secuencia de medidas hechas a intervalos específicos.

El tiempo es usualmente la dimensión dominante de los datos. Sirven para

11 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 99-100.
12 ANDERSON, Oliver D. (1985). Times Serie Análisis and Forecasting. (1ra Edición).

15
establecer la efectividad de medidas que afectan a grupos poblacionales

teniendo en cuenta las variaciones naturales que puede haber en el tiempo.

Son muy comunes en la evaluación de leyes en la población. Permiten una

visión parcial de la relación causa efecto, pero no pueden extrapolar los

hallazgos de la población a individuos específicos13.

El análisis de series de tiempo consiste en una descripción (generalmente

matemática) de los movimientos y componentes presentes14.

De acuerdo a Chatfield (1978), son varios los objetivos por los cuales se

desea analizar una serie de tiempo15:

Descripción: Al tener una serie de tiempo, el primer paso en el análisis es

graficar los datos y obtener medidas descriptivas simples de las propiedades

principales de la serie.

Explicación: Cuando las observaciones son tomadas sobre dos o más

variables, es posible usar la variación en una serie para explicar la variación

en las otras series.

Predicción: Dada una serie de tiempo se intenta predecir los valores futuros

de la serie. Este es el objetivo más frecuente en el análisis de series de

tiempo.

Control: Si una serie de tiempo se genera por mediciones de calidad de un

proceso, el objetivo del análisis puede ser el control del proceso.

13 DATA MINING INSTITUTE, “Diccionario estadístico”. [Acceso 7 de Mayo de 2009]. Disponible en Web:
http://www.estadistico.com/dic.html?p=3729
14 SPIEGEL R, Murray, STEPHENS J, Larry. Estadística. (3ra Edición). México: Editorial Mexicana.
15 CHATFIELD, C. (1978). The analysis of time series: theory and practice, Londres: Chapman and Hall.

16
ESTIMACION DE LA TENDENCIA.

La tendencia se estima de la siguiente manera:

 Método de los Mínimos Cuadrados.

El método de los mínimos cuadrados se utiliza para calcular la ecuación

de una recta o curva de tendencia apropiada. permite identificar el grado

de correlación entre una variable dependiente y una o más variables

independiente. El criterio de este método es usar la recta (Y  a  bX)

cuya suma de los cuadrados de los errores sea mínima.

Cálculo para b:

n xy   x y
b
n x 2  ( x ) 2

Calculo para a:

a
 x  y   x  xy
2

n  x  ( x )
2 2

a  Y  Xb

Donde:

a: Intersección en el eje vertical.

b: Pendiente de la línea de regresión

n: Número de observaciones.

x: Valores de y que caen en la línea de tendencia.

17
y: valores de x que caen en la línea de tendencia.

 Método “a mano”.

El método consiste en trazar una recta o curva de tendencia simplemente

observando la grafica, se usa para estimar la ecuación de una recta o

curva de tendencia apropiada. Sin embargo tiene la desventaja de

depender del juicio individual.

2.2.6. PROCESO ESTOCÁSTICO.

Un proceso estocástico se define como una familia de variables aleatorias

que corresponden a momentos sucesivos del tiempo. Será designado por Y

(t,u), donde t es el tiempo y u es la variable aleatoria.

Un proceso estocástico es una familia de variables aleatorias que

corresponden a momentos sucesivos de tiempo16.

Se denomina proceso estocástico a la sucesión infinita de variables

aleatorias ordenadas.

…, Y1 , Y2 ,........, Yt ,….

Si se dispone de un conjunto finito de estas variables, Y1 , Y2 ,........, Yt . se

dice que ésta sucesión de observaciones (realizaciones) forma una serie

temporal.

16 URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial
Paraninfo S.A. p. 24.

18
PROCESO ESTOCÁSTICO ESTACIONARIO.

Se dice que un proceso estocástico es estacionario en sentido estricto cuando

al realizar un mismo desplazamiento en el tiempo de todas las variables de

cualquier distribución conjunta finita, resulta que esta distribución no

varía17.

Considerando la función de distribución conjunta

F (Yt1 , Yt 2 ,...., Ytk )

Si se adopta el supuesto de que a todos los elementos de la anterior

distribución se desplazan m periodos, la nueva función de distribución

conjunta será

F (Yt1m , Yt 2m ,...., Ytk m )

Si el proceso es estacionario en sentido estricto se deberá verificar que

F (Yt1 , Yt 2 ,...., Ytk )  F (Yt1m , Yt 2m ,...., Ytk m )

E igualmente, se deberá obtener un resultado análogo para cualquier otra

distribución conjunta que tenga carácter finito.

Se dice que un proceso es estacionario de primer orden, o en media, si se

verifica que:

E (Yt )   , t

17 URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial
Paraninfo S.A. p. 27.

19
Por tanto, en un proceso estacionario en media, la esperanza matemática, o

media teórica, permanece constante a lo largo del tiempo.

Se dice que un proceso es estacionario de segundo orden (o en sentido

amplio) cuando se verifican las dos condiciones siguientes:

1. La varianza es finita y permanece constante a lo largo del tiempo, es

decir:

E (Yt   ) 2   2   , t

2. La autocovarianza entre dos periodos distintos de tiempo únicamente

viene afectada por el lapso de tiempo transcurrido entre esos dos

periodos. Así:

E (Yt k   )(Yt   )   k , t

Que sería una autocovarianza de orden k, por ser éste el lapso de tiempo

que separa a Yt de Yt+k. Su valor,  k es independiente de cuál sea el

periodo t que se considere. Como puede verse, la varianza del proceso es

simplemente la autocovarianza de orden 0.

Al definir un proceso estacionario en sentido amplio, se tiene en cuenta

implícitamente que el proceso es también estacionario en media, ya que

tanto en la varianza como en las autocovarianzas, el símbolo µ no viene

afectado por ningún subíndice.

En un proceso estacionario las autocorrelaciones quedan definidas de la

siguiente forma:

20
k
k  , donde k ≥ 0
0

La representación gráfica de  k para k= 0, 1, 2, 3, …, recibe el nombre

de correlograma18.

2.2.7. RUIDO BLANCO.

Se llama ruido blanco a una sucesión de variables aleatorias (proceso

estocástico) con esperanza (media) cero, varianza constante e

independientes para distintos valores de t (covarianza nula). Un tipo especial

de proceso estocástico es el denominado ruido blanco.

Una variable  t se denomina “ruido blanco” si cumple las siguientes

condiciones:

i) E t   0 t

ii ) E t    2 t
2

iii ) COV t ,  s   E t ,  s   0 t  s

2.2.8. ESTACIONALIDAD.

Estacionalidad es una variación repetitiva a lo largo de un intervalo de

tiempo19. Se dice que una serie de tiempo es estacional cuando los datos

tienen oscilaciones estrictamente periódicas, donde el periodo es igual o

18 URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial
Paraninfo S.A. p. 27-28.
19 DATA MINING INSTITUTE, “Diccionario estadístico”. [Acceso 7 de Mayo de 2009]. Disponible en Web:

http://www.estadistico.com/dic.html?p=3729

21
inferior al año, por ejemplo la repetición del patrón puede ser cada 3 meses,

6 meses, cada año (12 meses), cada 4 años, etc.

2.2.9. COEFICIENTE DE CORRELACIÓN.

El coeficiente de correlación mide el grado de independencia de una

variable relacionada con otra variable. Es una cantidad que está entre -1 y

+1, presenta el grado de correlación entre dichas variables; mientras este

valor se aproxima a los límites, diremos que la correlación es buena, se

expresa:

r  R2

Donde R2 es el coeficiente de determinación, y es una medida de ajuste de la

Regresión. Es determinado por la proporción de la suma de cuadrados del

total. Se expresa como:

 
n n
R 2   Yˆi  E Y  /  Yi  E Y 
2 2

i 1 i 1

El error siempre existirá; en estadística es posible lograr una menor varianza

de error  e2 , como lograr un R 2 cercano a los límites.

2.2.10. VARIANZA Y ERROR ESTÁNDAR DE RUIDO BLANCO.

La varianza de ruido blanco de la regresión es una medida que sirve para

analizar la capacidad explicativa del modelo. Se expresa como:

 
 e2   p1 Yt  Yˆt / T  k
T 2

22
Donde:

T es el número de residuos o errores.

K es el número de estimadores.

El error estándar o desviación estándar de la regresión está dado por:

 e   e2

2.2.11. FUNCIÓN DE AUTOCORRELACIÓN.

Se usa para ver si la serie es estacionaria o no estacionaria. La función de

autocorrelación mide la correlación entre los valores de la serie

distanciados un lapso de tiempo k.

Dada una muestra Y0, Y1, …, Yn-1 de n observaciones, la función de

autocorrelación muestral (FAC) de la muestra al rezago k, denotada por ρk,

se define como:

𝛾𝑘
𝑝𝑎𝑟𝑎 𝑘 = 1, … , 𝑛 − 1
𝜌𝑘 = { 𝛾0
1 𝑝𝑎𝑟𝑎 𝑘 = 0

Donde:

𝛾0 es la varianza de la muestra dada por:

𝑛
1
𝛾0 = ∑(𝑌𝑡 − 𝑌̅)2
𝑛
𝑡=1

𝛾𝑘 es la covarianza al rezago k definida como:

23
𝑛−𝑘
1
𝛾𝑘 = ∑(𝑌𝑡 − 𝑌̅)(𝑌𝑡+𝑘 −𝑌̅)
𝑛
𝑡=1

La función de autocorrelación indica cuánta correlación existe entre datos

individuales contiguos en la serie Yt. Conforme el valor del retraso

aumenta, el número de observaciones comprendidas en la autocovarianza

disminuye hasta el elemento final20. Al graficar ρk frente a k, la gráfica

obtenida se conoce como correlograma.

2.2.12. FUNCIÓN DE AUTOCORRELACIÓN PARCIAL.

La Función de Autocorrelación Parcial se emplea para ayudar a identificar

el grado de relación entre los valores reales de una variable y valores

anteriores de la misma, mientras que se mantienen constantes los efectos

de las otras variables (periodos retrasados)21.

La función de autocorrelación parcial (FACP) de la muestra ρkk en el

retraso k es la correlación entre observaciones (series de tiempo) que están

separadas k periodos de tiempo, manteniendo constantes las correlaciones

en los rezagos intermedios (es decir rezagos menores de k). En otras

palabras, la autocorrelación parcial es la correlación entre Yt y Yt-k después

de eliminar el efecto de las Y intermedias.

En la siguiente tabla se dan algunos lineamientos generales acerca de los

patrones típicos de las funciones de correlaciones muestral y parcial22.

20 PINDICK, R. S. y RUBINFELD, D. L. (2001). Econometría: Modelos y pronósticos. (4ta Edición). México: Mc


Graw-Hill, p. 520.
21 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall

Hispanoamericana S.A. p. 436.


22 GUJARATI, D. N. (2004). Econometría. (3ra Edición). México: Mc Graw-Hill, p. 725.

24
Tipo de
Patrón típico de FAC Patrón típico de FACT
modelo
Disminuye exponencialmente o Picos grandes a los largo
AR(p) con un patrón sinusoidal de los p rezagos.
decrecientes o ambos.
Picos grandes a los largo de los q Decrece
MA(q)
rezagos. exponencialmente.
Decrece exponencialmente. Decrece
ARMA(p,q)
exponencialmente.

2.2.13. MODELO.

Un modelo es una expresión formalizada de una teoría, o la representación

matemática de los datos observados. En el análisis estadístico un modelo

es expresado en símbolos, en forma matemática23.

Es un esquema teórico, generalmente en forma matemática, de un sistema

o de una realidad compleja, como la evolución económica de un país, que

se elabora para facilitar su comprensión y el estudio de su

comportamiento.

2.2.14. MODELOS DE SERIES TEMPORALES.

Son formas teóricas determinísticas y/o aleatorias o la combinación de

ambas, para realizar el análisis de una serie de tiempo24.

Variables Temporales: Son variables que se observan a lo largo del

tiempo. Yt indica la variable Y en el momento t.

Serie Temporal: Es el conjunto de t observaciones, una observación por

cada una de las variables: Y1 , Y2 ,........, Yt . También es llamada serie

cronológica.

23 G. KENDALL Maurice y BUCKLAND William. (1984). Diccionario de Estadística. Traducido por Eduardo
Morales. (3ra Edición). Ediciones Pirámide.
24 SPIEGEL R, Murray, STEPHENS J, Larry. Estadística. (3ra Edición). México: Editorial Mexicana.

25
2.2.15. MODELO UNIVARIANTE.

Los modelos univariantes en una serie de tiempo { Yt }, son todos

aquellos que solamente tienen una variable observada en el tiempo. Estos

tipos de modelos se expresan en forma polinomial25.

Son técnicas univariantes: el modelo autorregresivo de primer orden, el

modelo de tendencia lineal o exponencial, entre otros.

Las técnicas más rigurosas para la predicción univariante son las

denominadas técnicas o modelos Box-Jenkins, o más concretamente

modelos ARIMA, pues las técnicas Box-Jenkins constituyen un conjunto

más amplio, dentro del cual los modelos ARIMA univariantes son sólo

una parte.

a) Modelo Univariante No Integrado.

Los procesos Autoregresivos AR(p), de Medias Móviles MA(q) y

procesos Mixtos ARMA(p,q) son considerados como los modelos No-

Integrados debido a que no interviene el grado de diferenciación y la

estacionalidad de la serie.

b) Modelo Univariante Integrado.

Son aquellos modelos que se pueden obtener mediante suma o

integración de un proceso estacionario. A estos modelos se les denomina

también modelos no estacionarios homogéneos26.

25ANDERSON, Oliver D. (1985). Times Serie Análisis and Forecasting. (1ra Edición).
26 URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial
Paraninfo S.A. p. 61.

26
Los procesos Mixtos Integrados ARIMA(p,d,q), los procesos

Estacionales Mixtos Integrados SARIMA(p,d,q)*(P,D,Q), procesos de

Medias Móviles Integrado IMA, proceso de Medias Móviles

Exponenciales EWMA, y los procesos de Autoagregación, son

considerados como los modelos Integrados debido a que si interviene el

Grado de Diferenciación y la Estacionalidad de la serie.

2.2.16. OPERADOR DE RETARDO Y DIFERENCIACIÓN DE UNA

SERIE.

Introduciremos a continuación el operador polinomial de retardos L. El

operador L determina que:

LYt = Yt-1

Es decir, el resultado de aplicar el operador L corresponde a la

observación en el período anterior de la variable (serie).

Aplicada dos veces sobre la variable Yt es: L(LYt)=L2Yt=Yt-2

En general: LkYt=Yt-k

La diferencia de una serie es: Yt  Yt  Yt 1  (1  L)Yt

En general: k Yk  (k 1Yt )  (1  L) k Yt

2.2.17. ELABORACIÓN DE MODELOS AR, MA, ARMA Y ARIMA.

Los modelos ARIMA o modelos de promedio móvil autorregresivo

integrado son un tipo general de los modelos de Box-Jenkins para series de

tiempo estacionarias. Una serie histórica estacionaria es aquella cuyo valor

27
promedio no cambia a través del tiempo. Este grupo incluye a los modelos

AR sólo con términos autorregresivos, los modelos MA sólo con términos

de promedio móvil y los modelos ARIMA que comprenden tanto términos

autorregresivos como de promedio móvil. La metodología de Box-Jenkins

permite al analista seleccionar el modelo que mejor se ajuste a sus datos.

Dado el concepto de proceso estacionario anteriormente definido, los

modelos de pronóstico se dividen en:

A. MODELOS LINEALES ESTACIONARIOS

A.1. Modelos Autorregresivos: AR (p)

A.2. Modelos de Promedio Móvil MA(q)

A.3. Modelos Autorregresivos de promedio móvil: ARMA(p,q).

B. MODELOS LINEALES NO ESTACIONARIOS

B.1. Modelos autorregresivos de promedio móvil integrado: ARIMA

(p,d,q).

A. MODELOS LINEALES ESTACIONARIOS

A.1. MODELOS AUTORREGRESIVOS (AR)

Los modelos autorregresivos (AR) expresan Yt como una función lineal de

cierto número de valores anteriores reales de Yt27.

Modelo AR(p): Un modelo autorregresivo de orden p, o abreviadamente

un modelo AR(p), se define de la siguiente forma:

27 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 438.

28
Yt  C  1Yt 1  2Yt 2  ......   pYt  p   t

Donde:

Yt : Variable dependiente.

Yt 1 , Yt 2 ,..., Yt  p : Variables independientes que son variables dependientes

desfasadas un número específico de periodos.

C , 1 , 2 ,...,  p : Coeficientes de regresión.

 t es el término de residuo que representa sucesos aleatorios no

explicados por el modelo. También se le conoce como “ruido blanco”,

y  t ~ (0,  2 ) .

Usando el operador polinomial de retardos L, se denota como:

Yt  C  1LYt  2 L2Yt  ...   p LpYt   t

Realizando algunas transformaciones tenemos:

Yt  1LYt  2 L2Yt  ...   p LpYt  C   t

(1  1L  2 L2  ...   p Lp )Yt  C   t

La expresión entre paréntesis como un polinomio en el operador de

retardos L, se puede expresar de forma compacta:

 ( L)Yt  C   t

 ( L)  1  1 L  2 L2  ...   p Lp

29
Para que el proceso sea estacionario se requiere que las raíces de la

ecuación polinomial estén fuera del círculo unidad.

1  1 L  2 L2  ...   p Lp  0

Modelo AR(1): El caso más sencillo corresponde a un modelo

autorregresivo de primer orden, donde el parámetro C es igual a cero:

El modelo autorregresivo de primer orden, viene definido por:

Yt  1Yt 1   t donde 1  1

O, utilizando el operador de retardos, por (1  1L)Yt   t .

Cada variable ruido blanco influye sobre los valores de Y correspondientes

al mismo periodo, o a periodos posteriores, pero nunca ejerce influencia

sobre los valores de Y correspondientes a periodos anteriores. Una

consecuencia importante es que E tYt    0 ,   0

Para que el proceso AR(1) definido, sea estacionario, la raíz del polinomio

característico 1  1 L  0 , debe caer fuera del círculo unidad. Es decir

L  1/ 1  1, lo que equivale a que 1  1

Modelo AR(2): Un modelo autorregresivo de segundo orden, viene

definido por:

Yt  1Yt 1  2Yt 2   t

O, utilizando el operador de retardos,

30
(1  1 L  2 L2 )Yt   t

Para que el proceso anterior sea estacionario se requiere que las raíces de

la ecuación estén situadas fuera del círculo unidad, es decir:

1  1 L  2 L2  0

Si se cumplen las condiciones de estacionariedad se verificará que

E (Yt )  0

Condiciones de estacionariedad

Para que un modelo AR de orden p, Yt  1Yt 1  2Yt 2  ...   pYt  p   t ,

sea estacionario, se debe cumplir lo siguiente:

Usando el operador polinomial de retardos L:

Yt  1LYt  2 L2Yt  ...   p LpYt   t

Realizando algunas transformaciones se tiene:

Yt  1LYt  2 L2Yt  ...   p LpYt   t

(1  1L  2 L2  ...   p Lp )Yt   t

Y en forma compacta:  ( L)Yt   p ( L)Yt   t

Para que el proceso sea estacionario se requiere que las raíces de la

ecuación polinomial estén fuera del círculo unidad.

1  1 L  2 L2  ...   p Lp  0

31
La estacionalidad de la serie Yt requiere, entre otras condiciones una media

que no varía; es decir que no debe existir una tendencia a lo largo del

tiempo.

El polinomio autorregresivo usando el operador de retardo L, es:

 ( L)  1  1 L  2 L2  ...   p Lp

A.2. MODELOS DE MEDIAS MÓVILES (MA).

Los modelos autorregresivos (AR) expresan Yt como una función lineal de

cierto número de valores anteriores reales de Yt, mientras que los modelos

de promedio móvil (MA) proporcionan pronósticos de Yt con base en una

combinación lineal de errores anteriores de Yt28.

Un modelo de medias móviles explica el valor de una determinada

variable en un período t en función de un término independiente y una

sucesión de errores correspondientes a períodos precedentes, ponderados

convenientemente29. Se denotan normalmente con las siglas MA, como en

el caso de los modelos autorregresivos, del orden entre paréntesis. Así, un

modelo con q términos de error se denota como MA(q).

Modelo MA(q).

Un modelo de medias móviles de orden q, MA(q), se define de la siguiente

forma: Yt   t  1 t 1   2 t 2  ...   q t q

28 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 438.
29 URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial

Paraninfo S.A.

32
Donde

Yt : Variable dependiente.

1 , 2 ,..., q : Peso específico.

 t : Residuo o error. También conocido como “ruido blanco”.

 t 1 ,  t 2 ,...,  t q : Valores previos de residuos.

Utilizando el operador polinomial de retardos,

 ( L)  1  1 L   2 L2  ...   q Lq , el modelo de medias móviles se puede

expresar de forma compacta

Yt   ( L) t

Donde la media es cero, cualesquiera que sean los valores de  i , es decir:

EYt    ( L) E ( t )  0

Si en el modelo MA(q) se incluye un término constante

Yt     t  1 t 1   2 t 2  ...   q t q

Donde

Yt : Variable dependiente.

 , 1 ,  2 ,...,  q : Peso específico.

 t : Error aleatorio o residuo. También conocido como “ruido blanco”.

 t 1 ,  t 2 ,...,  t q : Valores previos de residuos.

Entonces al tomar esperanzas matemáticas en la expresión anterior resulta

33
EYt   

Así pues, en los modelos de medias móviles, la media del proceso coincide

con el término independiente, que aparece en el segundo miembro. Sin

pérdida de generalidad se supondrá en lo sucesivo que   0 .

Para que un proceso MA(q) sea invertible se requiere que las raíces de la

ecuación polinomial caigan fuera del círculo unidad.

1  1L   2 L2  ...   q Lq  0

Calculando los momentos del proceso, a partir del operador de retardo L se

tiene:


E (Yt )  E    t  1 L t   2 L2 t  ...   q Lq t 
 E (  )  E  q ( L) t      q ( L) E ( t )

Respecto de la varianza, se tiene:


V (Yt )  E(Yt 2 )  E  t  1 t 1   2 t 2  ...   q t2q 
2

Modelo MA(1).

Un modelo MA(1) viene definido por:

Yt     t  1 t 1

Donde  t es un ruido blanco con las propiedades, ya definidas.

Un modelo MA(1) omitiendo la constante viene definido por:

34
Yt   t  1 t 1

Yt  (1  1 L) t

Donde  t es un ruido blanco.

Para que la ecuación sea estable se requiere que la raíz del polinomio

característico caiga fuera del círculo unidad, es decir

1  1 L  0

1
L 1
1

O, de forma equivalente, que 1  1

La condición de invertibilidad de un modelo MA(1) es equivalente en

sentido formal a la condición de estacionariedad de un modelo AR(1). Un

modelo MA(1) es siempre estacionario y la condición de invertibilidad se

establece para poder pasar a un modelo AR(∞).

Modelo MA(2).

Un modelo MA(2) omitiendo la constante viene definido por:

Yt   t  1 t 1   2 t 2  (1  1 L   2 L2 ) t

Donde  t es un ruido blanco.

Para que un proceso MA(2) sea invertible se requiere que las raíces del

polinomio característico caigan fuera del círculo unidad.

1  1 L   2 L2  0

35
Condiciones de estacionariedad e invertibilidad en los Procesos MA

Los modelos de medias móviles finitos son siempre estacionarios. Como

puede apreciarse de las deducciones anteriores, los momentos de los

procesos (esperanza, varianza y autocovarianzas) son invariantes en el

tiempo. A diferencia de los procesos AR, para la deducción de los

momentos no es necesario suponer la estacionariedad de la serie. Si las

raíces del polinomio de medias móviles caen fuera del círculo unidad, el

proceso será también invertible.

Veamos el caso de un proceso MA(1) (omitiendo la constante para

simplificar la exposición). Se tiene:

 t  Yt  1  t 1
 t 1  Yt 1  1  t 2

Sustituyendo la segunda expresión en la primera:

 t  Yt  1 [ yt 1  1 t  2 ]

 t  Yt  1 yt 1  12 t  2

Y continuando con la sustitución recursiva:

 t  Yt  1 Yt 1  12Yt  2  ....  1iYt  i  ........



Yt   t  1 Yt 1  1 Yt  2  ....  1 Yt  i  ......
2 i


 Yt   1 Yt  i   t
i

i 1

Alternativamente:

36
 t  Yt  1 Yt 1  12Yt  2  ....  1i Yt  i  .....
1   1
2 i

L  1 L2  ...  1 Li  ..... Yt   t

Es decir, en principio es posible expresar el modelo MA(1)como un

AR().

Para que efectivamente ambos modelos sean equivalentes se requiere que

el modelo AR sea estacionario, lo que impone la condición que   1

De esta forma, cuando el polinomio de medias móviles  q (l ) (L) tiene sus

raíces fuera del círculo unidad, el proceso de medias móviles puede

transformarse en un proceso AR estacionario.

Otra forma de mostrar la invertibilidad para procesos MA(1).

Yt   t  1  t 1  (1  1 L) t 
1
 t  Yt
1 - 1 L 

A.3. MODELOS MIXTOS AUTORREGRESIVOS - MEDIAS

MÓVILES (ARMA).

La combinación de modelos Autorregresivos (AR) y de Medias Móviles

(MA) da lugar al modelo ARMA. Un modelo ARMA (p,q) se define de la

siguiente forma:

Yt  c  1Yt 1  2Yt 2  ....   pYt  p   t  1 t 1   2 t 2  ....   q t q

Donde  t es un ruido blanco.

37
Utilizando los operadores polinomiales de retardo, el modelo se expresará

de forma compacta de la siguiente forma:

 ( L)Yt   ( L) t

 Para que el modelo sea estacionario se requiere que las raíces de la

ecuación polinomial caigan fuera del círculo unidad.

 ( L)  1  1L  ...   p Lp  0

Si se cumplen las condiciones de estacionariedad, el modelo ARMA(p,q)

se puede expresar como un MA(∞), pudiendo representarse de la siguiente

forma:

 ( L)
Yt     ( L) t
 ( L) t

Por tanto los coeficientes del operador polinomial  (L) , que tiene

infinitos elementos, deben cumplir la siguiente identidad:

 ( L) ( L)   ( L)

O, en notación más detallada, se establece la siguiente identidad:

(1  1 L  ...   p Lp )(1  1 L  2 L2  ...)  (1  1 L  ... q Lq )

A partir de la anterior identidad, se pueden deducir un conjunto de

ecuaciones que nos permiten obtener los  i , en función de los coeficientes

h y  j . Así en un modelo ARMA (1,1), la identidad anterior sería

(1  1 L)(1   1 L   2 L2  ...)  (1  1 L)

38
 Para que un modelo ARMA (p,q) sea invertible, se requiere que las

raíces de la ecuación polinomial caigan fuera del círculo unidad.

 ( L)  1  1L  ...   q Lq  0

Modelo ARMA(1,1)

Un proceso ARMA (1,1) (excluyendo la constante) se define:

Yi  1Yt 1   t  1 t 1

El proceso ARMA(1,1) es estacionario cuando   1, e invertible cuando

  1.

Multiplicando ambos miembros por Yt  k y tomando esperanzas, tenemos:

Yk  E[YtYt k ]  1Yk 1  E[ tYt k ]  1E[ t 1Yt k ]

Teniendo en cuenta que:

E[ t Yt ]   2

E[ t 1Yt ]  E[ t 1 (1Yt 1   t  1 t 1 )]  (1  1 ) 2

La expresión se deduce a las siguientes expresiones:

Para k=0  Y0  1Y1   2  1 (1  1 ) 2

Para k=1  Y1  1Y0  1 2

Sustituyendo este valor en la expresión de la varianza ( Y0 ) se tiene: 0

39
Y0  1 (1Y0  1 2 )   2  1 (1  1 ) 2 
1  211  12 2
 Y0  
1  12

Que vuelve a sustituirse en la expresión de la covarianza de primer orden (

Y1 )

Para k>1  Yk  1Yk 1

De esta forma, los coeficientes de autocorrelación quedan como:

 (1  11 )(11 )
 k 1
Pk   1  211  12
 P k 1
 1 k 1

Es decir, los coeficientes de autocorrelación de un ARMA(I,q) se

comportan como un AR(1) puro para k>1.

B. MODELOS LINEALES NO ESTACIONARIOS

B.1. Modelos de promedio móvil autorregresivo integrado: ARIMA

(p,d,q).

Es un modelo que permite describir un valor como una función lineal de

datos anteriores y errores debidos al azar. Se analiza sobre una serie

estacionaria.

Los modelos de promedio móvil autorregresivo integrado (ARIMA:

Autorregresive integrated moving-average) son una clase especializada de

técnicas de filtración que ignoran por completo a las variables

independientes en la formulación de pronósticos. Estos modelos son

40
dispositivos altamente refinados de ajuste de curvas que utilizan valores

reales y anteriores de la variable dependiente, para producir pronósticos

precisos de corto plazo30.

En 1970, Box y Jenkins desarrollaron un cuerpo metodológico destinado a

identificar, estimar y diagnosticar modelos dinámicos de series temporales

en los que la variable tiempo juega un papel fundamental. Podemos decir

que la consideración exclusiva de los valores pasados de una determinada

variable para explicar su evolución presente y futura supone, al mismo

tiempo una ventaja y un inconveniente:

- La ventaja radica en el hecho de no necesitar distintas series de datos

(distintas variables) referida al mismo periodo de tiempo (característica

común a todos los modelos univariantes) y, al mismo tiempo, ahorramos la

identificación y especificación del modelo en el sentido de la econometría

tradicional.

- El inconveniente es que, al renunciar a la inclusión de un conjunto más

amplio de variables explicativas, no atendemos a las relaciones que sin

duda existen entre casi todas las variables económicas perdiendo

capacidad de análisis de tiempo que renunciamos, implícitamente, al

estudio teórico previo del fenómeno y a su indudable utilidad.

Los modelos ARIMA (p,d,q) constituyen una clase particular de procesos

no estacionarios y se define como:

30 HANKE John E. (1996). Pronósticos en los negocios. (5ta Edición). México: Editorial Prentice Hall
Hispanoamericana S.A. p. 431.

41
Donde:

La mayor parte de las series económicas corresponden a procesos no

estacionarios. Así, si se desea obtener un tratamiento de las series basado

en el análisis de series de tiempo (modelo ARMA), es necesario discutir

mecanismos de transformación de las series a procesos estacionarios.

En principio pueden presentarse distintas (infinitas) formas por las que se

introduce la no estacionariedad en un proceso estocástico. Sin embargo,

interesa considerar solo algunas formas de la no estacionariedad que sean

adecuados para describir el comportamiento de series económicas y, al

mismo tiempo, posibles de ser transformados en procesos estacionarios.

En primer lugar, analizaremos el proceso de "caminata aleatoria".

Caminata aleatoria

Es una serie de tiempo estocástica en la que cada cambio sucesivo en Yt,

expresado como ut es extraído en forma independiente de una distribución

de probabilidad con media 0 y varianza σ231. Por lo tanto, Yt está

determinada por:

Yt  Yt 1   t

Donde  t es un ruido blanco.

31 PINDICK, R. S. y RUBINFELD, D. L. (2001). Econometría: Modelos y pronósticos. (4ta Edición). México: Mc


Graw-Hill.

42
CASO GENERAL

Dada una serie Yt, que eventualmente corresponde a los logaritmos de los

valores originales, si su diferencia de orden "d" puede ser representada por

un proceso ARMA(p,q) estacionario, se dice que la serie Yt sigue un

proceso ARIMA(p,d,q).

La letra "I" en ARIMA corresponde a "Integración", la operación inversa a

la diferenciación.

Si Z t  d Yt y Z t sigue un proceso ARMA(p,q) estacionarios:

1   L   L
1 2
2
  
 ...   p Lp Z t  1  1L   2 L2  ....   q Lq  t
 p ( L) Z t   q ( L) t

Entonces Yt sigue un proceso ARIMA(p,d,q). También se escribe en la

variable original Yt como:  p ( L)(1  L) d Yt   q ( L) t

Generalmente, no son necesarias diferencias regulares de orden superior a 2,

excepto en el caso de variables que presentan estacionalidad.

Transformaciones Box Cox

Box y Cox (1964) definieron una transformación instantánea en el sentido

de que no están involucrados simultáneamente varios periodos de tiempo de

carácter más general que la transformación logarítmica. Esta transformación

(Y   1) /  0
se define por: Yt   t
Ln Yt  0

43
La transformación Box Cox requiere definir el parámetro  de la

transformación.

Cuando el parámetro es   1 , la transformación Box Cox consiste

prácticamente en tomar logaritmos.

Cuando el parámetro es   0 , se define por la segunda igualdad

(transformación logarítmica).

La primera igualdad vale también en el límite, el logarítmico de la serie

original.

MODELOS ARIMA ESTACIONALES (SARIMA)

Un modelo estacional puro se caracteriza porque sólo existe relación entre

las observaciones que distan entre sí s periodos o múltiplos de s32. Son

series con ciclos u oscilaciones estrictamente periódicas, donde el periodo es

igual o inferior al año. El periodo estacional se designa por “s”, así en datos

trimestrales s=4, en datos anuales s=12, etc. La elaboración de modelos

ARIMA estacionales presentan características análogas a las de los modelos

ARIMA no estacionales.

Los métodos que emplean modelos estacionales ó SARIMA(p,d,q)(P,D,Q)

suponen que el componente estacional es generado por un proceso

estocástico, cuya identificación se realiza de manera similar a los modelos

que representan la estructura regular de una serie, con la excepción de que

para ello se examinan los “valores estacionales” de las funciones de

32 URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial
Paraninfo S.A. p. 153.

44
autocorrelación (valores que corresponden a los rezagos 4,8,12, … si los

datos son trimestrales y 12, 24, 36, … si los datos son mensuales). De este

modo una serie podría requerir diferencias de orden estacional si los valores

estacionales de la función de autocorrelación no tienden a cero rápidamente.

Un proceso SARIMA(p,d,q)(P,D,Q) se define así,

 p L P Ls (1  L) d (1  Ls ) D Yt   q LQ Ls  t

Donde:

 p L  1  1L  2 L2  ...   p Lp

 q L  1  1L   2 L2  ...   q Lq

 
 P Ls  1  1Ls   2 L2 s  ...   P LPs

 
Q Ls  1  1Ls  2 L2 s  ...  Q LQs

INTERVALOS DE CONFIANZA PARA LAS PREDICIONES.

La varianza del error de predicción puede utilizarse para obtener intervalos

de confianza de las predicciones elaboradas, mediante la expresión:


Pr ~

yT k    eT ( k ) 

Donde, si se supone que la innovación  t sigue una distribución normal, el

parámetro  se obtendrá de las tablas de dicha distribución, al nivel de

confianza  elegido.

45
DISTRIBUCIONES TEÓRICAS DE LOS COEFICIENTES DE

AUTOCORRELACION PARA ALGUNOS LOS MODELOS ARIMA

MÁS COMUNES.

Figura Nº 01. Coeficientes de Autocorrelación y de Autocorrelación Parcial de los

Modelos AR(1) y AR(2).

46
Figura Nº 02: Coeficientes de Autocorrelación y de Autocorrelación Parcial de los

Modelos MA(1) y MA(2).

47
Figura Nº 03: Coeficientes de Autocorrelación y de Autocorrelación Parcial de un

Modelo ARIMA(1,1) FFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF

48
2.2.18. MÉTODOLOGÍA DE BOX-JENKINS.

El método de Box-Jenkins es uno de los métodos predictivos y se

fundamenta en la estimación eficiente de los parámetros por medio de los

procesos iterativos33.

De acuerdo a Box-Jenkins (1970), el análisis de series de tiempo implica

las siguientes etapas: (i) Identificación, (ii) Estimación, (iii) Verificación

y, (iv) Pronóstico (Predicción). Si la serie es débilmente estacionaria, se

procede de inmediato con la etapa (i); caso contrario, la serie debe ser

"pre-procesada" a fin de ser transformada en realizaciones estacionarias.

Asumiendo que se cuenta con series estacionarias, la identificación tiene

por objeto determinar el tipo de modelo a aplicar (AR, MA ó ARMA) y el

orden de los parámetros "p" y "q".

El procedimiento de la elaboración de un modelo ARIMA mediante la

metodología Box Jenkins se muestra y explica más adelante en la figura

Nº 04.

Un aspecto importante en la modelación ARIMA de una serie de tiempo

simple es el número de veces que ésta necesita de una diferencia antes de

fijar el modelo.

2.2.19. DICKEY-FULLER AMPLIADO (TEST ADF).

Sin duda alguna, el test más habitual a la hora de determinar la

estacionariedad de una serie temporal, consiste en la aplicación del

33
URIEL JIMENEZ, Ezequiel. (1985). Análisis de Series Temporales. Modelos ARIMA. Madrid-España: Editorial
Paraninfo S.A. p. 431.

49
conocido como test de Dickey–Fuller (Test DF) o Dickey-Fuller Ampliado

(Test ADF). Éste es un contraste de “No estacionariedad” ya que la

hipótesis nula es precisamente la presencia de una raíz unitaria en el

proceso generador de datos de la serie analizada.

Como modelo de partida para el análisis de una determinada serie Yt, el de

un proceso estacionario autorregresivo de orden uno:

Yt  1Yt 1   t

Como hipótesis nula H0, el modelo alternativo de un paseo aleatorio no

estacionario del tipo1: Yt  1Yt 1   t

El Test de Dickey-Fuller Ampliado (DFA): contrasta la presencia de una

raíz unitaria en una serie que sigue un proceso AR(p), deberá aplicarse el

procedimiento expuesto para el caso simple AR(1), pero suponiendo ahora

del modelo:

B
Yt  a0  Yt 1   Bi Yt i 1  t
i 2

H0:  = 0 raíz unitaria (proceso no estacionario).

H1:  < 0 no existe raíz unitaria (proceso estacionario).

2.2.20. ESTADÍSTICO BOX PIERCE.

El contraste de "Q" propuesto por Box-Pierce (1970) analiza la hipótesis

nula de que:

𝐻0 = 𝜌1 = 𝜌2 = 𝜌3 =…𝜌𝑀 = 0

50
𝐻1 = 𝜌1 = 𝜌2 = 𝜌3 =…𝜌𝑀 > 0

Cuya expresión es:

M
Q  T   k2
k 1

La cual fue refinada a fin de disminuir el sesgo en pequeñas muestras, por

Ljung y Box (1978) que propusieron el siguiente estadístico:

M
Q *  T T  2 T  k   k2
1

k 1

Donde

M: Número máximo de rezagos a analizar.

T: Número total de observaciones.

Rj: La función de autocorrelación de los errores del proceso.

Que se distribuye con una  M2  pq grados de libertad.

Si Q*   M2  pq (α) se acepta H0

Si Q*   M2  pq (α) se rechaza H0

Si Prob(Q)> α, se acepta H0. Los residuos son ruido blanco.

Si Prob(Q)< α, se rechaza H0.Los residuos no son ruido blanco.

2.3. DEFINICIÓN DE TÉRMINOS BÁSICOS.

Correlograma.- Representación gráfica de los valores individuales de la función

de autocorrelación total y parcial respecto a los rezagos.

51
IRAS (Infecciones respiratorias agudas).- Conjunto de infecciones del aparato

respiratorio causadas por microorganismos virales, bacterianos y otros.

Modelo.- Esquema teórico, generalmente en forma matemática, de un sistema o de

una realidad compleja.

Modelo de Box-Jenkins.- El modelo de BOX-JENKINS es uno de los métodos

predicativos y se fundamenta en la estimación eficiente de los parámetros por

medio de los procesos iterativos.

Modelo univariante de Box Jenkins.- Es una serie de tiempo zt, basado en la

información existente en el pasado.

Modelo Univariante de Box Jenkins- No Integrados.- Son los procesos de Media

Móviles MA(q), Autoregresivos AR(P) y Procesos Mixtos ARMA (pq) se las

considera como los modelos no integrados en vista de que no invierte la

estacionalidad de las serie observada.

Modelo Univariante de Box Jenkins- Integrados.- A los procesos mixtos

integrados ARIMA (p,d,q), proceso estacional mixto integrado SARIMA

(p,d,q)*(P,D,Q), proceso de medias móviles exponenciales porque interviene la

estacionalidad de la serie en estudio.(6)

Periodo.- Espacio de tiempo que incluye toda la duración de algo.

Pronóstico.- Enunciado sobre lo que es probable que ocurra en el futuro, basándose

en análisis y en consideraciones de juicio.

Residual.- Es la diferencia entre el valor real observado y su valor de pronóstico.

52
Ruido blanco.- Es un proceso puramente aleatorio en donde las variables son

distribuidas con media cero, varianza constante y ausencia de autocorrelación

entre observaciones.

Serie de Tiempo.- Conjunto de observaciones ordenadas que puede ser analizada

respecto a la información existente en el pasado y así poder determinar la estructura

en el futuro.

Variable.- Que varía o puede variar. Inestable, inconstante y mudable. Magnitud

que puede tener un valor cualquiera de los comprendidos en un conjunto.

2.4. OPERACIONALIZACIÓN DE VARIABLES.

Variables Indicadores Índice


Variable Dependiente:
 Número de casos de IRAS en menores Unidad de Casos
Meses y años
de 5 años de la provincia de Lampa, de IRAS
para el período 2000 – 2011.
Variable independiente:
 Número de casos de IRAS en menores
Meses y Años Unidad de Casos
de 5 años de la provincia de Lampa,
(2000 - 2011) de IRAS
para el período 2000 – 2011, rezagada
en distintos períodos de tiempo.

53
III. MATERIALES Y MÉTODOS.
I.1. LUGAR DE ESTUDIO.

La presente investigación comprende el estudio del número de casos de IRAS de los

menores de 5 años de ámbito geográfico de la provincia de Lampa. Dicha provincia

se encuentra ubicada en la parte centro occidental de la Región de Puno. Por el Sur,

con la provincia de San Román, por el Este, con la provincias de San Román y

Azángaro y Por el Oeste, con las provincias de Espinar y Canas de la Región Cuzco,

y provincia de Caylloma de la Región Arequipa.

Mapa físico – político del Lago Titicaca Perú (Puno)- Bolivia.

FUENTE: Plan Vial Provincial Participativo 2010-2019

54
I.2. MATERIAL.

El presente trabajo de investigación toma como material de análisis a la serie del

número de casos de IRAS en menores de 5 años de la provincia de Lampa, periodo

2000 - 2011.

I.3. POBLACIÓN Y MUESTRA.

I.3.1. POBLACIÓN.

La población motivo de estudio está compuesta por todos los menores de 5

años de edad de la Provincia de Lampa con casos de IRAS registrados hasta

la fecha en la Dirección Regional de Salud (DIRESA) – Puno.

I.3.2. MUESTRA.

La muestra está compuesta por todos los menores de 5 años de edad de la

Provincia de Lampa con casos de IRAS registrados en el período

comprendido desde 2000 al 2011, de la Dirección Regional de Salud - Puno.

Para lo cual se efectuó los fundamentos del muestro no probabilístico a

criterio del investigador.

I.4. MÉTODOS DE RECOPILACIÓN DE DATOS.

Los datos registrados del número de casos de IRAS de la provincia de Lampa, son

recopilados de la Base de Datos que encuentran en la Oficina de Estadística e

Informática de la Dirección Regional de Salud - Puno, para los años 2000 - 2011.

55
I.5. MÉTODOS DE TRATAMIENTO DE DATOS.

Primeramente la información obtenida será ingresada en una hoja de cálculo, para

lo cual, se utilizará un equipo de cómputo y los softwares estadísticos, Eviews 7,

MINITAB 16, y la hoja de cálculo de Excel.

Finalmente, se determinara el análisis de Series de Tiempo para el número de casos

de IRAS en menores de 5 años, de la provincia de Lampa con los paquetes

estadísticos respectivos.

I.6. METODOLOGÍA DE LA INVESTIGACIÓN.

I.6.1. TIPO DE INVESTIGACIÓN.

El presente trabajo de investigación es descriptivo – aplicativo.

I.6.2. METODOLOGÍA DE ANÁLISIS.

Para el presente trabajo de investigación se hará uso de la Metodología de

Box Jenkins, con los denominados modelos ARIMA. Los pasos a seguir en

ésta metodología para obtener modelos univariantes son:

Representación gráfica de la serie.

1) Cálculo de la Función de Autocorrelación (F.A.C.) y la Función de

Autocorrelación Parcial (F.A.C.P.)

2) Proceso de identificación.

3) Estimación de parámetros.

4) Proceso de verificación.

5) Procesos de predicción.

56
METODO DE BOX-JENKINS (Teoría de WIENER – KOLMOGOROV).

La metodología Box-Jenkins sigue un proceso que consta de cuatro fases, las

cuales son:

1. Identificación: Se trata de elegir uno o varios modelos ARIMA como

posibles candidatos para explicar el comportamiento de la serie.

2. Estimación: Se realiza la estimación de los parámetros de los modelos

seleccionados.

3. Verificación o Validación: Se comprueba la adecuación del modelo

estimado y se verifica que cumplan las propiedades respectivas.

4. Pronóstico o Predicción: Si el modelo elegido es satisfactorio se realizan las

predicciones de la variable.

La metodología de elaboración de modelos ARIMA, se muestra en la figura N°

04.

57
METODOLOGIA DEL ENFOQUE BOX-JENKINS

Figura N° 04. Fases de elaboración de un modelo ARIMA.

58
FASES DEL MÉTODO DE BOX-JENKINS.

FASE 1: Identificación del modelo.

1º El primer paso en la identificación del modelo consiste en determinar si la serie es

estacionaria en función de la serie original. Si la serie no es estacionaria, se convierte a

una serie estacionaria. Se estabiliza la serie mediante la transformación Box Cox, se

especifica el grado de diferenciación según al número de veces que la serie sea

diferenciada para obtener una serie estacionaria en media y varianza. El

orden de integración define el parámetro “d” del modelo ARIMA. En la

práctica es suficiente tomar una diferencia (d=1), o dos diferencias (d=2) para obtener

una serie estacionaria en media. A partir de la tercera diferencia la varianza se deforma,

es decir la varianza crece.

Un aspecto importante en la modelación ARIMA de una serie de tiempo simple es el

número de veces que necesita de una diferencia antes de fijar el modelo. Para esto se

utiliza la Prueba de Dickey Fuller o de raíces unitarias en la cual la hipótesis a verificar

es:

H 0 : Hay raíz unitaria (proceso no estacionario).

H1 : No hay raíz unitaria (proceso estacionario).

El estadístico de prueba es:

 
Tu  a / s (a0 )

Donde:

a 0 : Estimación mínimo cuadrático de a0.

59
La regla de decisión a considerar será:

Rechazar: H0 si tu tt y por tanto el proceso es estacionario.

Es estadístico t u sigue una distribución t de Students que se tabuló por Dickey y Fuller.

2º Una vez obtenida una serie estacionaria con algún valor para la diferencia “d”, se

deberá de identificar la forma del modelo a utilizar encontrando los valores apropiados

de p y q, mediante la comparación de los coeficientes de autocorrelación y de

autocorrelación parcial de los datos. Si el modelo no es satisfactorio, se puede intentar

un modelo alternativo.

FASE 2: Estimación de parámetros.

Una vez seleccionado el modelo tentativo, habiendo identificado los valores apropiados

de p, d y q se procede a estimar los valores de los parámetros de los términos

autorregresivos y de media móvil incluidos en el modelo, a través del uso de los

mínimos cuadrados no lineales que minimizan la suma de los cuadrados de los residuos.

FASE 3: Validación o Verificación.

La finalidad de esta fase consiste en analizar la adecuación entre el modelo y los datos,

o dicho de otra forma en que medida se cumple lo siguiente:

a) Los residuos del modelo estimado se aproximan al comportamiento de un ruido

blanco.

b) El modelo estimado es estacionario e invertible.

c) Los coeficientes son estadísticamente significativos.

d) El grado de ajuste es elevado en comparación al de otros modelos alternativos.

60
Una de las formas para detectar violaciones a los supuestos es a través del análisis de los

residuales, que representan la parte de las observaciones que no es explicada por el

modelo (uso del estadístico de Box Pierce). Conviene señalar que es esencial que se

cumpla el requisito a), pues en caso contrario el modelo debe ser rechazado.

FASE 4: Predicción.

Una vez identificado el modelo adecuado que genera la serie temporal de interés,

estimados los parámetros del modelo correspondiente y después de haber pasado

la etapa de verificación se utiliza el modelo estimado en la predicción de valores

futuros de la variable objeto de estudio.

PROCESO DE PREDICCION.

Dada una serie estacionaria que sigue cualquier proceso de la forma:

zt  1 zt 1  .......   p zt  p   t  1 t 1  ......   q t q

Si se tiene la información hasta el momento t y para predecir “m” periodos hacia

delante, se construye la función.

zt m  1 zt m1  .......   p zt m p   t m  1 t m1  ......   q t mq

Cuya función eficiente de predicción sea z t  m / t cumplen con los siguientes supuestos.

 Los parámetros  p y  p son conocidos.

 Los errores pasados y presentes son conocidos.

 t ,  t 1 ,............., 1

El predictor optimo se constituye de una función lineal de todos los valores conocidos

de  t .

zt m / t   m*  t   m* 1 t 1   m*  z  t  z  ..........
~

61
Donde:  m* : son los coeficientes a estimar, tal que el predictor óptimo tenga un Error

Cuadrático Medio Mínimo.

FUNCION DE AUTOCORRELACION.

La función de autocorrelación está conformada por las correlaciones internas entre los

términos de una serie observada.

 ( zt  ˆ )( zt k  ˆ )
N
cov( zt , zt k ) E ( zt  ˆ )( zt k  ˆ )
k    t k 1
(0) (0)  ( zt  ˆ ) 2
N
t 1

Donde:

 (0) : Es la varianza del proceso.

̂ : Es la media estimada del proceso a la que se ajusta la serie en estudio.

cov( zt , zt k ) : Es la covarianza de la serie original y la serie desplazada en k periodos.

Cabe aclarar que si la muestra de Yt es de tamaño T y el número de diferencias es “d”,

para zt el tamaño de muestra quedará reducida a T-d=N.

La varianza de la Función de Autocorrelación dada por M. S. BARTLETT es la

siguiente: Var( k )  (1 / N )(1  2i1 i2 )


k 1

Cuya desviación estándar es D.E.(  k )  Var (  k ) )

Y los límites del intervalo confidencial:

± (Valor tab ular del nivel de significan cia) * D.E.(  k )

FUNCIÓN DE AUTOCORRELACIÓN PARCIAL.

La matriz de Autocorrelaciones para una serie estacionaria de longitud N, esta dado por:

62
 1 1 2   N-1 
 1 1   N-2 
PN   1
    
 
  N-1  N -2  N-3  1 

El conjunto de autocorrelaciones parciales en varios desplazamientos de k, está definido

Qk
por:  kk 
Pk

Donde:

Pk  Es la determinante de la matriz de autocorrelaciones de orden KxK.

Qk  Es la determinante de la matriz de autocorrelaciones. Con la última columna

reemplazada por las funciones de autocorrelación generada por la serie de niveles

medios de agua del Lago Titicaca.

 k  Es la k-ésima función de autocorrelación del proceso a la que se ajusta la serie

estudiada.

N = Tamaño de la serie conformado por 12 meses x 25 años =300 meses (300 datos en

la serie original) menos el número de diferencias que se tomó hasta ese momento.

La varianza de la Función de Autocorrelación Parcial Estimada dada por M. H.

QUENOUILLE es la siguiente:

Var (  kk )  (1 / N ) , cuya desviación estándar es: D.E.(  kk )  Var (  kk )

Y los límites del intervalo confidencial lo determinan:

± (Valor tab ular del nivel de significan cia) * D.E.(  kk )

63
IV. RESULTADOS Y DISCUSIÓN.
RESULTADOS DE RECOPILACIÓN DE INFORMACIÓN

Para el análisis de datos, se ha utilizado información del número de casos de IRAS del

periodo 2000-2011, los cuales fueron obtenidos de la Oficina de Estadística e

Informática de la Dirección Regional De Salud (DIRESA) - Puno. En el cuadro Nº 1, se

muestran los datos originales de los menores de 5 años con casos de IRAS de la

provincia de Lampa, correspondientes al periodo 2000-2011.

CUADRO Nº 01: Número de casos de IRAS en menores de 5 años de la provincia


de Lampa, por años según meses del periodo 2000-2011.
AÑO ENE FEB MAR ABR MAY JUN JUL AGO SEP OCT NOV DIC
2000 144 132 247 118 167 237 372 372 400 281 292 244
2001 179 127 170 101 165 191 289 300 262 280 224 129
2002 182 90 111 113 176 212 462 434 489 383 367 299
2003 330 217 264 216 350 303 560 658 503 425 316 260
2004 400 244 252 189 285 392 394 443 382 329 316 276
2005 299 251 261 271 364 502 556 511 414 353 392 316
2006 361 293 347 370 452 845 680 600 521 490 552 403
2007 420 307 473 398 622 731 572 668 481 666 618 568
2008 401 360 322 407 712 779 697 584 666 559 634 487
2009 446 294 419 388 579 823 829 559 636 562 541 490
2010 411 302 408 488 657 754 617 452 543 515 533 473
2011 290 236 320 345 504 599 554 480 401 397 323 338
Fuente: Datos obtenidos de la Oficina de Estadística e Informática de la Dirección
Regional de Salud (DIRESA) –Puno.

1.1 FASE DE IDENTIFICACIÓN.

REPRESENTACIÓN GRÁFICA (Serie Original).

En el gráfico Nº 1, se representa la serie original del número de casos de IRAS en

menores de 5 años de la provincia de Lampa, del periodo 2000-2011.

64
SERIE ORGINAL DE CASOS DE IRAS EN MENORES DE 5 AÑOS

1,000
DATOS ORIGINALES

800

600

400

200

0
2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
Tiempo

Gráfico N° 01. Serie del número de casos de IRAS en menores de 5


años de la provincia de Lampa, 2000-2011.

Se puede observar que los valores individuales no se desplazan alrededor de la media

del proceso ( ˆ  403.4 ), además la desviación estándar es s  170.3 , lo cual indica que

la serie no es estacionaria en nivel ni en pendiente, y es un indicio para efectuar alguna

transformación instantánea del tipo de Box Cox a la serie en estudio.

En los gráficos Nº 02 y 03 se muestra la Función de Autocorrelación y Función de

Autocorrelación Parcial, respectivamente, del número de casos de IRAS para los

menores de 5 años. Para los cálculos de la Función de Autocorrelación se siguió la

recomendación de D. J. RIED, que indica que es necesario estimar M  N / 4 , lo que se

muestra en sus respectivos gráficos. La totalidad de los valores estimados se dan en el

ANEXO Nº 01 (1A y 1B), donde también se muestran sus límites de probabilidad a un

nivel del 95,0% de confianza alrededor de 0.

65
Función de autocorrelación estimada
ρ
k
1.0
DATOS ORIGINALES
0.8

0.6

0.4
0.2

0.0

-0.2
-0.4

-0.6

-0.8

-1.0

1 5 10 15 20 25 30 35
Retardos

Gráfico N° 02. Función de Autocorrelación Estimada para la serie original del número de casos
de IRAS en menores de 5 años - Lampa.

En el Gráfico N° 02 se observa que el comportamiento de la Función de

Autocorrelación de la serie es sinusoidal decreciente y con un lento decrecimiento

aritmético en los coeficientes de autocorrelación estimados  k , mas no con un

decrecimiento geométrico que sería lo más adecuado, se puede observar que la serie

requiere de una transformación para convertirla a una serie estacionaria.

También, podemos ver en la presente gráfica, que los valores más altos, los cuales

difiere de cero en forma significativa, nos muestra un marcado componente estacional

de algún orden.

Además, en el gráfico se observa que varias de las autocorrelaciones difieren de cero en

forma significativa al nivel de confianza del 95,0%. Para poder obtener una serie con

irregularidades amortiguadas, se aplicara la transformación de Box Cox.

66
En el gráfico N° 03 se muestra la Función de Autocorrelación Parcial para la serie

original del número de casos de IRAS en menores de 5 años, para la provincia de

Lampa.

Función de autocorrelación parcial


ρ
k
1.0
DATOS ORIGINALES
0.8

0.6

0.4
0.2

0.0

-0.2
-0.4

-0.6

-0.8

-1.0

1 5 10 15 20 25 30 35
Retardos

Gráfico N° 03. Función de Autocorrelación Parcial Estimada para la serie original del número
de casos de IRAS en menores de 5 años-Lampa

Como se puede observar, la gráfica presenta una serie con irregularidades, lo que

confirma la sospecha sobre la no estacionariedad.

Haciendo un análisis en la serie original (gráfico Nº 01), se puede observar que tiene

una tendencia ascendente o positiva, es decir, los valores individuales no se desplazan

alrededor de la media y las oscilaciones dentro de cada año van siendo cada vez más

crecientes, es decir, la varianza de la serie va incrementándose en el tiempo, lo que nos

da un indicio de no estacionariedad, ni en media ni en varianza, además, en la serie se

observa un componente marcadamente estacional año tras año.

Por tanto, para poder lograr que la serie del Número de casos de IRAS en menores de 5

años, sea estacionaria en varianza se realizara la transformación de Box Cox (cuando

67
  0,5 ), para luego realizar una primera diferencia de los datos esto utilizando el

Software MINITAB 16.0.

Serie transformada para el número de casos de IRAS en menores de 5 años

32
DATOS TRANSFORMADOS
28

24

20

16

12

8
00 01 02 03 04 05 06 07 08 09 10 11
Tiempo

Gráfico Nº 04. Serie transformada (Transformación Box Cox) del número de


casos de IRAS en menores de 5 años - Lampa.

Luego de la transformación Box-Cox se puede apreciar que la Gráfica N° 04, se hace

estacionaria en varianza, más no aún en media, para esto se deberá efectuar la

correspondiente diferencia regular y posteriormente la diferencia estacional de ser el

caso.

68
Función de autocorrelación estimada (Transf. Box Cox)
ρ
k
1.0 DATOS TRANSFORMADOS

0.8

0.6

0.4
0.2

0.0

-0.2
-0.4

-0.6

-0.8

-1.0

1 5 10 15 20 25 30 35
Retardos

Gráfico N° 05. Función de Autocorrelación Estimada para la serie transformada del número de
casos de IRAS en menores de 5 años-Lampa.

Podemos observar que en el Gráfico Nº 05, el comportamiento de la función de

Autocorrelación, sigue siendo la misma al de la serie original.

Función de autocorrelación estimada (Transf. Box Cox)


ρ
k
1.0 DATOS TRANSFORMADOS

0.8

0.6

0.4
0.2

0.0

-0.2
-0.4

-0.6

-0.8

-1.0

1 5 10 15 20 25 30 35
Retardos

Gráfico N° 06. Función de Autocorrelación Parcial Estimada para la serie transformada del
número de casos de IRAS en menores de 5 años-Lampa.

69
En el gráfico N° 06 se puede apreciar que los retardos 1, 3, 8, 9,10, 13 y 14 de los 36

coeficientes de Autocorrelación Parcial son estadísticamente significativos con un

95,0% de nivel de confianza.

Para corregir la no estacionariedad en media, se realizó la primera diferencia regular de

la serie, la cual se muestra en el gráfico Nº 07.

Serie transformada para el número de casos de IRAS en menores de 5 años


Primera Diferencia No Estacional

-2

-4

-6
00 01 02 03 04 05 06 07 08 09 10 11
Tiempo

Gráfico Nº 07. Serie transformada (Transformación Box Cox) del número


de casos de IRAS en menores de 5 años Lampa, para la primera
diferencia no estacional.

En el presente gráfico, se puede ver que los datos no presentan tendencia a través del

tiempo.

70
Función de autocorrelación estimada (Transf. Box Cox)
Primera Diferencia No Estacional
ρ
k
1.0
0.8
0.6
0.4
0.2
0.0
-0.2
-0.4
-0.6
-0.8
-1.0

1 5 10 15 20 25 30 35
Retardos

Gráfico N° 08. Función de Autocorrelación Estimada de la serie transformada del número de


casos de IRAS en menores de 5 años - Lampa, para la primera diferencia no estacional.

Se observa que existen autocorrelaciones muy altas en los retrasos 12, 24 y 36, con lo

que se confirma que existe una tendencia entre periodos estacionales sucesivos,

separados por un periodo de desfase de 12 meses. Si el coeficiente de autocorrelación

hubiera caído a cero en el retraso 24, se habría concluido que los datos de la primera

diferencia no estacional eran estacionarios.

Para eliminar la tendencia de los retrasos 12, 24 y 36 que se observaron en el gráfico de

la Funcion de Autocorrelacion Estimada de la primera diferencia no estacional (Gráfico

Nº 08), se emplea la diferencia de largo plazo (diferencias cuya longitud está separada

por 12 periodos). El gráfico Nº 09 muestra la serie para los datos después de la primera

diferencia no estacional (diferencia corta) y de la primera diferencia estacional

(diferencia de largo plazo).

71
Serie transformada para el número de casos de IRAS en menores de 5 años
Primera Diferencia No Estacional y Primera Diferencia Estacional

-2

-4

-6

-8
00 01 02 03 04 05 06 07 08 09 10 11
Tiempo

Gráfico Nº 09. Serie transformada (Transformación Box-Cox) del número de


casos de IRAS en menores de 5 años-Lampa, para la primera diferencia no
estacional y la primera diferencia estacional.

En los Gráficos N° 10 y 11 se muestra la Función de Autocorrelación Estimada y la

Función de Autocorrelación Parcial Estimada, respectivamente, para los datos después

de la primera diferencia corta (primera diferencia no estacional) y de la diferencia de

largo plazo (primera diferencia estacional). La totalidad de sus valores estimados para

se dan en el ANEXO Nº 03 (3A y 3B).

72
Función de autocorrelación estimada (Transf. Box Cox)
Primera Diferencia No Estacional y Primera Diferencia Estacional
ρ
K
1.0
0.8
0.6
0.4
0.2
0.0
-0.2
-0.4
-0.6
-0.8
-1.0

1 5 10 15 20 25 30
Retardos

Gráfico N° 10. Función de Autocorrelación Estimada para la primera diferencia no estacional y


la primera diferencia estacional de la serie transformada del número de casos de IRAS en
menores de 5 años-Lampa.

Función de autocorrelación parcial estimada (Transf. Box Cox)


Primera Diferencia No Estacional y Primera Diferencia Estacional

1.0
0.8
0.6
0.4
0.2
0.0
-0.2
-0.4
-0.6
-0.8
-1.0

1 5 10 15 20 25 30
Retardos

Gráfico N° 11. Función de Autocorrelación Parcial Estimada para la primera diferencia no


estacional y la primera diferencia estacional de la serie transformada del número de casos de
IRAS en menores de 5 años-Lampa.

73
Según los gráficos 09, 10 y 11 se observa que la serie ya no presenta tendencia y es

estacionaria en media.

Luego de conseguir la estacionariedad en media y varianza de la serie según los gráficos

anteriores, se realizan algunos test que demuestran también la estacionariedad en media

y varianza mediante las fases propuestas por Dolado en la aplicación del contraste

Ampliado de Dickey Fuller, pues permite seleccionar p y q y decidir sobre la inclusión

de constante C y la explicativa tendencia (@TREND(2000M01)).

Vamos buscando que el test de A. Dickey-Fuller (ADF Test) nos dé un valor que supere

(en términos absolutos) al 99% (95% y 90%) el valor de tablas para descartar la

existencia de raíz unitaria u orden de integración (si ADF es mayor que valores críticos

rechazamos la Ho que es la no existencia de estacionariedad). Como el test plantea la

Ho como existencia de una raíz unitaria. Cuando la serie no es estacionaria, presenta

una raíz unitaria (integrada de orden 1) y, por tanto, aceptamos la Ho.

En el test hay que incluir el número de retardo que nos lleve a un valor de Durbin

Watson cercano a 2. Cuando se tiene un valor Durbin Watson exigido en esa cifra y un

ADF test superior al valor de tablas al 99% podremos rechazar la hipótesis nula de

existencia de raíz unitaria. Entonces la serie será estacionaria en media y en varianza.

COMENTARIOS SOBRE LOS RESULTADOS DE LAS PRUEBAS DE

ESTACIONARIEDAD EN MEDIA Y VARIANZA

Los resultados de la Prueba de A. Dickey-Fuller (ADF Test) se muestran en el ANEXO

Nº 04 (4A).

A partir del contraste estadístico Durbin-Watson (2.162598), se afirma que no existe

autocorrelación o que el número de retardos ha sido suficiente para eliminar esta.

74
El valor de A. Dickey-Fuller (-20.04914) es superior al de Mckinnon en términos

absolutos al 99% (95% y 90%) por lo que se podría descartar la existencia de raíz

unitaria. Aun así éste punto no se puede confirmar hasta encontrarnos con un modelo en

el que las explicativas sean significativas (tendencia y constante).

Ahora comprobaremos si ha de incluirse o no la explicativa tendencia

(@TREND(2000M01)). Observando el valor t-statistic -0.500211 se confirma que la

explicativa tendencia no es significativa y no debe incluirse con una probabilidad de

equivocación del 61.78% cuando rechazo la hipótesis nula de que el parámetro de ésta

explicativa tendencia no debe incluirse en el modelo. Por consiguiente se vuelve a

estimar éste modelo sin incluir el término tendencia (@TREND(2000M01)) e

incluyendo solo la constante (C).

En el ANEXO Nº 04 (4B), se observa el modelo incluyendo la constante (sin el término

tendencia) y se verifica que ocurre lo mismo que cuando se incluyó el término

tendencia, por lo que es necesario estimar un modelo sin ésta constante.

En el ANEXO Nº 04 (4C) se observa el modelo sin el término tendencia ni la constante.

También se muestran los resultados de las pruebas estadísticas de existencia de raíz

unitaria para ver si la serie no es estacionaria a partir de las tablas de Mckinnon. En el

caso de confirmarse de la existencia de una raíz se diría que la serie presenta no

estacionariedad.

Luego de observar que el valor del estadístico Durbin-Watson (2.159409) se hizo

ligeramente más próximo a 2, entonces se afirma que no existe autocorrelación. Y

viendo que el valor t-statistic -20.17269 (cociente entre el parámetro y la desviación

típica del mismo estimado) es superior en valor absoluto a los valores tabulados por

Mckinnon, en términos absolutos al 99% (95% y 90%), se rechaza la existencia de raíz

75
unitaria. Es decir, decimos que la serie es ya ESTACIONARIA EN MEDIA Y VARIANZA

con una probabilidad del 99%.

Una vez realizada las necesarias transformaciones, alcanzando la estacionariedad en

media y varianza de la serie transformada, procedemos a identificar el proceso

SARIMA que mejor se ajusta a la forma de la función de autocorrelacion de ésta serie.

CONCLUSIÓN DE LOS MODELOS IDENTIFICADOS.

En base a los gráficos Nº 10 y 11 de las Funciones de Autocorrelaciones Estimadas,

luego de realizar la transformación Box Cox y diferenciarse la serie, se identificaron

diferentes modelos alternativos a los cuales se les realizó pruebas siguiendo el proceso

de la metodología Box Jenkins, seleccionando luego dos modelos buenos de los cuales

se eligió sólo uno para la predicción.

Los modelos identificados fueron:

 Modelo 1: Proceso multiplicativo SARIMA (S=12)

SARIMA(0,1,1)*(0,1,1) ó MA(1) SMA(12)

 Modelo 2: Proceso multiplicativo SARIMA (S=12)

SARIMA(1,1,0)*(0,1,1) ó AR(1) SMA(12)

1.2 FASE DE ESTIMACIÓN.

Una vez identificada la serie habiendo reconocido los valores apropiados de p, d, q,

P, D y Q se procede a estimar los valores de los parámetros de los términos

autorregresivos y de media móvil incluidos en los modelos.

76
En el ANEXO Nº 05: (5A) se muestra los valores estimados de la serie para el

modelo 1, con convergencia rápida, es decir con 6 iteraciones, y los parámetros son

significativos.

En el ANEXO Nº 05: (5B) se muestra los valores estimados de la serie para el

modelo 2 donde se observa que la serie identificada converge en 7 iteraciones, y los

parámetros son significativos.

A continuación en un cuadro se muestran los respectivos valores estadísticos

(obtenidos del ANEXO Nº 05A y 05B), donde se comparan los dos modelos

identificados anteriormente según criterios estadísticos que permitieron elegir el

mejor modelo.

CUADRO Nº 02: Comparación de los diferentes procesos estimados.


Modelos Criterio Akaike de la Criterio Schwarz de la Adjusted R-
ecuación ecuación squared
Modelo 1 4.109503 4.159462 0,448771
Modelo 2 4.172527 4.222781 0.416380

El modelo que se ajusta mejor, por tener menores valores en los criterios de Akaike

y Schwarz y por tener mayor R cuadrado ajustado, es el Modelo 1, además, los

parámetros son significativos y son ruido blanco.

El modelo es: SARIMA (0,1,1)* (0,1,1)12

Su ecuación de pronóstico aplicando el operador de retardos “L” es:

1  L 1  LY  1   L 1   L 


12
t 1
12
1 t

1  L 1  L Y  1  0.560460L 1  0.581806 L 


12
t
12
1 t

 
12 Yt  1  0.560460 L12 1  0.5818061 L  t 

77
Donde:

L: Es el operador de retardos.

 : Es el operador de diferencia regular

12 : Es el operador de diferencia estacional

Yt : z t : Es la variable transformada.

 t : Es el término de residuo. También se le conoce como “ruido blanco”.

Para obtener el pronóstico del nivel medio del Lago, se deberá invertir la

transformación Box Cox.

1.3 FASE DE VALIDACIÓN O VERIFICACIÓN.

En esta fase se comprueba la adecuación del modelo estimado. Es decir se verifica

que los residuos sigan un proceso ruido blanco, en base al cumplimiento de ciertas

condiciones.

En base a los resultados del mejor modelo que se obtuvo en el paquete estadístico

EVIEWS (ANEXO 5A), se verifica:

CUADRO Nº 03: Resultados de la estimación del mejor modelo identificado


SARIMA(0,1,1)*(0,1,1)12.
Dependent Variable: D(RA,1,12)
Method: Least Squares
Date: 07/22/12 Time: 10:16
Sample (adjusted): 2001M02 2011M12
Included observations: 131 after adjustments
Convergence achieved after 5 iterations
MA Backcast: 2000M01 2001M01

Variable Coefficient Std. Error t-Statistic Prob.

MA(1) -0.631456 0.065918 -9.579467 0.0000


SMA(12) -0.513887 0.074120 -6.933219 0.0000

R-squared 0.437623 Mean dependent var -0.036205


Adjusted R-squared 0.433263 S.D. dependent var 2.383478
S.E. of regression 1.794328 Akaike info criterion 4.022288
Sum squared resid 415.3301 Schwarz criterion 4.066184

78
Log likelihood -261.4598 Hannan-Quinn criter. 4.040125
Durbin-Watson stat 1.892661

Inverted MA Roots .95 .82+.47i .82-.47i .63


.47+.82i .47-.82i .00+.95i -.00-.95i
-.47+.82i -.47-.82i -.82+.47i -.82-.47i
-.95

FUENTE: Resultados obtenidos de la estimación del modelo SARIMA(0,1,1)*(0,1,1)12 del


Software Estadístico EVIEWS.

 Análisis de los coeficientes.

Invertibilidad: Se determina que el modelo es invertible (CUADRO Nº 03),

considerando las raíces del polinomio de retardos MA estimado. EVIEWS

1
calcula directamente ˆi  (Inverted MA roots), si algunos de estos fueran
Li

mayor que uno, pues se dice que el modelo es no invertible, lo cual es un

síntoma de sobrediferenciación de la serie. En nuestro caso las raíces de la parte

MA son menores que uno, entonces se demuestra que el modelo estimado sí

cumple la condición de invertibilidad.

 Comprobación de la significancia de los parámetros.

En el CUADRO Nº 03, se comprobó que los parámetros son significativos

(distintos de cero) a partir del t-estadístico asociado a un nivel de confianza del

95%, puesto que los parámetros obtenidos son mayores que el valor 2 del t-

estadístico.

Si |t|>2 indica que el parámetro es significativamente distinto de cero.

Si |t|<2 indica que el parámetro es cero y puede ser eliminado del modelo.

79
 Bondad de Ajuste

La calidad del ajuste se puede medir por el coeficiente de determinación, VER

CUADRO Nº 04 (R-squared = 0.43), el cual presenta el mejor ajuste en

comparación al otro modelo.

 Análisis de estabilidad paramétrica

Este análisis permite estudiar los coeficientes del modelo seleccionado si son

estables en toda la muestra.

Para ver si hubo cambio estructural se realizó el contraste Chow con el Software

estadístico Eviews.

CUADRO Nº 04: Resultado del Contraste de Chow


Chow Breakpoint Test: 2010M10
Null Hypothesis: No breaks at specified breakpoints

Equation Sample: 2001M02 2011M12

F-statistic 0.355082 Prob. F(2,127) 0.7018


Log likelihood ratio 0.730491 Prob. Chi-Square(2) 0.6940
Wald Statistic 28.30007 Prob. Chi-Square(2) 0.0000

WARNING: the MA backcasts differ for the original and test equation.
Under the null hypothesis, the impact of this difference vanishes
asymptotically.

FUENTE: Resultados obtenidos del Software Estadístico EVIEWS.

En el CUADRO Nº 04, vemos, que se acepta la hipótesis nula de no existencia

de cambio estructural, ya que 0.7018>0.05.

 Análisis de los residuos (ruido blanco) - Test de Box Pierce.

La interpretación del estadístico Q de Box – Pierce o el de L-JUNG BOX es

más favorable al ruido blanco cuanto mayor sea el valor de la probabilidad “p”.

80
Si se utiliza el nivel de confianza habitual del 95%, entonces los residuos son

ruido blanco siempre que el p-valor sea superior a 0.05. siendo el estadístico Q,

conocida como el estadístico Q de Ljung Box el que aparece en la salida a la

izquierda de la Grafica N° 12

Contraste de autocorrelacion: Para determinar si los residuos eran ruido

blanco se realizó la siguiente comparación.

Si Prob(Q)>0.05, los residuos son ruido blanco.

Si Prob(Q)<0.05, los residuos no son ruido blanco.

Pues el contraste conjunto Ljung-Box, acepta la hipótesis nula de correlaciones

iguales a cero para distintos valores de m, en concreto m=36. Los residuos son

ruido blanco.

Análisis gráfico de autocorrelaciones de los residuos: En el gráfico nº 12, se

puede ver claramente que toda las autocorrelaciones de los residuos se

encuentran dentro de los intervalos. Por consiguiente los residuos son ruido

blanco.

81
GRÁFICO Nº 12: Correlograma para la serie de residuos del mejor modelo Estimado

82
3

0
3 -1

2 -2

-3
1

-1

-2
01 02 03 04 05 06 07 08 09 10 11

Residual Actual Fitted

GRÁFICO Nº 13: Generación de las series de residuos del modelo estimado

Como podemos comprobar en este gráfico, el ajuste del modelo es apropiado, y

la representación gráfica de los residuos corresponde a la de un ruido blanco.

Luego de comprobar que el modelo elegido SARIMA(0,1,1)*( 0,1,1)12 (modelo

uniecuacional “Integrado”) es el mejor modelo de pronóstico, podemos asumir

que dicho modelo es adecuado para modelizar los datos del número de casos de

IRAS en menores de 5 años de la provincia de Lampa.

1.4 FASE DE PREDICCIÓN.

16
Forecast: IRASF
14 Actual: IRAS
Forecast sample: 2001M01 2011M12
12 Adjusted sample: 2002M02 2011M12
Included observations: 119
10 Root Mean Squared Error 0.729738
Mean Absolute Error 0.593561
8 Mean Abs. Percent Error 5.859790
Theil Inequality Coefficient 0.034780
6 Bias Proportion 0.000735
Variance Proportion 0.005851
4 Covariance Proportion 0.993415

2
2002 2003 2004 2005 2006 2007 2008 2009 2010 2011

IRASF ± 2 S.E.

GRÁFICO Nº 14: Ajuste del pronóstico a partir del modelo estimado del número de casos de
IRAS en menores de 5 años-Lampa

83
Como podemos ver en el gráfico Nº 14, el ajuste es bueno, la serie real se ubica

dentro del intervalo de confianza.


16
Forecast: PREDICCION
15 Actual: IRAS
14 Forecast sample: 2011M12 2012M12
Included observations: 1
13 Root Mean Squared Error 0.314178
12 Mean Absolute Error 0.314178
Mean Abs. Percent Error 2.844333
11

10

7
M12 M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 M11 M12
2011 2012

PREDICCION ± 2 S.E.

GRÁFICO Nº 15: Ajuste del pronóstico del número de casos de IRAS para el año 2012
en menores de 5 años-Lampa.

16

14

12

10

4
01 02 03 04 05 06 07 08 09 10 11 12

IRASF IRAS
GRÁFICO Nº 16: Serie transformada del número de casos de IRAS y la serie
Predicción

Se puede observar en el gráfico, que la predicción se ajusta bien a la serie

transformada. El resultado de los valores pronosticados para el modelo elegido

SARIMA(0,1,1)*(0,1,1)12, se presenta en el cuadro Nº 05. Se muestra la

84
predicción de la serie para los datos transformados; pero como nuestro objetivo

es la serie original, se invirtió la transformación efectuada por lo que se presenta

también la predicción de la serie original del número de casos de IRAS en

menores de 5 años de la provincia de Lampa, periodo 2000-2011.

Las predicciones que se presentan son para los doce siguientes meses de la serie

de tiempo.

CUADRO Nº 05: Resultados de las predicciones para el año 2012 según meses.
Modelo SARIMA(0,1,1)*(0,1,1)12.

Pronósticos para la serie


Pronósticos para datos
PERIODO original (transformación
transformados
invertida)
ENERO 10.1631513 385.372662
FEBRERO 8.99244122 357.551226
MARZO 9.95991857 450.568834
ABRIL 10.2809346 345.698664
MAYO 11.9162946 403.356137
JUNIO 12.9565307 464.343218
2012
JULIO 12.351403 600.427012
AGOSTO 11.1549594 603.316339
SETIEMBRE 11.575359 613.85286
OCTUBRE 11.279557 518.564807
NOVIEMBRE 11.3783533 514.517821
DICIEMBRE 10.6027786 457.831006
FUENTE: Elaborado por la ejecutora, las predicciones en base al modelo obtenido del
número de casos de IRAS en menores de 5 años - Lampa.

85
V. CONCLUSIONES.
1. Se determino que los modelos univariantes integrados de Box-Jenkins

proporcionan un mejor ajuste para predecir el comportamiento de las variaciones

del número de casos de IRAS en menores de 5 años de la provincia de Lampa,

periodo 2000-2011. Por tal el modelo univariante integrado que mejor se ajusta

para predecir el comportamiento de esta serie es, SARIMA(0,1,1)*(0,1,1)12,

cuya ecuación de pronóstico estimada es:

  
12 Yt  1  0.560460 L12 1  0.581806 L  t

2. Se puede describir a la serie original como no estacionaria en varianza ni en

nivel, por tanto, se realizo las correspondientes transformaciones, la Box y Cox

(λ=0.5) para reducir la varianza y luego se hizo una diferencia no estacional, ya

que se observo que la serie presentaba tendencia, aun así, se siguió observando

un patrón estacional (s=12), por lo que se realizo otra diferencia a la parte

estacional, y finalmente, se analizó con la prueba de A. Dickey-Fuller (-

20.17269) la no existencia de raíz unitaria. Es decir, decimos que la serie es ya

estacionaria en media y varianza con una probabilidad del 99%.

3. El modelo se obtuvo en la fase de identificación y estimación, usando las

Funciones de Autocorrelación. En la fase estimación se opta por elegir el

modelo con menores valores en los criterios de Akaike (2.227162) y Schwarz

(2.271059) y por tener mayor R cuadrado ajustado (0,429116), además, los

residuos con compatibles con un ruido blanco.

86
4. Las predicciones del modelo SARIMA(0,1,1)* (0,1,1)12, son más útiles y

confiables para el número de casos de IRAS de los menores de 5 años, hacia el

año 2012 Enero-Diciembre.

MESES
AÑO
ENE FEB MAR ABR MAY JUN JUL AGO SEPT OCT NOV DIC
2012 385 358 451 346 403 464 600 603 614 519 515 458

87
VI. RECOMENDACIONES
1. En las fases de identificación, estimación, validación y pronóstico no sólo se

recomienda utilizar las herramientas estadísticas necesarias para comprobar la

estacionariedad, invertibilidad del proceso, el comportamiento ruido blanco;

sino herramientas o paquetes estadísticos que permitan encontrar el mejor nivel

de precisión respecto a otras herramientas estadísticas, garantizando de ese

modo la precisión del pronóstico.

2. Evitar la sobre-diferenciación y la sobre-parametrización debido a que nos

conducen a obtener modelos erróneos.

3. En caso de proceder a la reformulación futura del modelo, tener presente el

modelo SARIMA(0,1,1)*(0,1,1) (conocido en ésta investigación como modelo

1) para el respectivo análisis.

4. A los estudiantes que cursen Series de Tiempo, se les recomienda profundizar la

Metodología Box-Jenkins, para que puedan ampliar sus conocimientos respecto

a la obtención de un modelo suficientemente válido y con pronósticos

adecuados.

88
VII. BIBLIOGRAFÍA CONSULTADA.
Referencias bibliográficas

 ANDERSON, Oliver D. (1985). Times Serie Análisis and Forecasting. (1ra

Edición).

 AZNAR GRASA Antonio, GARCÍA FERRER Antonio. (1984). Problemas de

Econometría. (2da Edición). Madrid: Pirámide S.A.

 BOWERMAN, B. y O’CONNEL, R. (1993). Forecasting and time series: an

applied approach. (3ra Edición). California: Duxbury Press.

 CHATFIELD, C. (1978). The analysis of time series: theory and practice,

Londres: Chapman and Hall.

 DAMODAR. N, Gujarati. Econometría. 4ta Edición. México: Mc Graw-Hill,

2004, 1002 p. 1 vol., 9586009661.

 EZEQUIEL URIEL, Jimenez. Análisis de Series Temporales Modelos ARIMA.

3ra Edición. Magallanes: Paraninfo sa. 1985. 270 p, 1 vol., 84-283-1398-9

 G. KENDALL Maurice y BUCKLAND William. (1984). Diccionario de

Estadística. Traducido por Eduardo Morales. (3ra Edición). Ediciones Pirámide.

 HANKE, John E. Pronósticos en los Negocios. 8va Edición. México: Pearson

Educación, 1996, 535p, 9702607590.

 PINDICK S. Roberto. (1980). Modelos Econométricos. España: Editorial Labor

Universitaria S.A.

 PINDICK, R. S. y RUBINFELD, D. L. (2001). Econometría: Modelos y

pronósticos. (4ta Edición). México: Mc Graw-Hill.

89
 SPIEGEL R, Murray, STEPHENS J, Larry. Estadística. (3ra Edición). México:

Editorial Mexicana.

Tesis

 HUACANTARA CHAMBI, Karin Corina. (2010). “Modelo Uniecuacional para

describir y predecir el comportamiento de los niveles medios de agua del Lago

Titicaca – Puno, 1984 – 2008”. Facultad de Ingeniería Estadística e Informática-

Universidad Nacional del Altiplano, Puno-Perú.

 DIAZ MAMANI, Nela. (2008). “Pronóstico mediante modelos de series de

tiempo para el consumo de agua potable de la Empresa Municipal de

Saneamiento Básico de la ciudad de Puno, periodo 2000-2007”. Facultad de

Ingeniería Estadística e Informática-Universidad Nacional del Altiplano, Puno-

Perú.

 NEIRA, Porfirio. (1995). “Modelos Univariantes y Espectros de Series de

Tiempo para los pacientes Hospitalizados por Neumonía Carlos Monje Medrano

Juliaca 1980 – 1993”. Facultad de Ingeniería Estadística e Informática-

Universidad Nacional del Altiplano, Puno-Perú.

Sitios Web

 Arellano, Mireya, Introducción al Análisis Clásico de Series de Tiempo [en

línea], 2001 [ref. 15 de diciembre del 2011]. Disponible en Web:

http://ciberconta.unizar.es/LECCION/seriest/100.HTM.

 DATA MINING INSTITUTE, “Diccionario estadístico”. [Acceso 7 de Enero

de 2012]. Disponible en Web: http://www.estadistico.com/dic.html?p=3729

90
 GUERRA José, SÁNCHEZ Gustavo y REYES Belkis. “Modelos de series de

tiempo para predecir la inflación en Venezuela”. Serie documentos de Trabajo.

Banco

 Central de Venezuela, Gerencia de Investigaciones Económicas. Versión

Diciembre 1997. [Acceso 2 de Marzo de 2012]. Disponible en Web:

http://www.bcv.org.ve/Upload/Publicaciones/doc13.pdf

 MERMA JARA Marco A., “Series de Tiempo”. [Monografía en Internet]

[Acceso 23 de Marzo de 2012]. Disponible en Web:

http://www.monografias.com/trabajos30/series-de-tiempo/series-de-

tiempo.shtml

 MOLINERO Luis M. (2004), “Análisis de series temporales”, [monografía en

Internet] [Acceso 20 de Abril de 2012]. Disponible en Web:

http://books.google.com.pe/books?id=aT21YbVLghwC&pg=PA263&lpg=PA26

3&dq=modelo+de+box+jenkins&source=web&ots=TmyPZj8A27&sig=bjWND

s5BmJihMxc9EAOPLwjOTM8&hl=es#PPA263,M1

 ORTIZ Guerrero, NUBIA Amparo, La elaboración de los proyectos de

investigación. [Monografía en Internet] *. Universidad Cooperativa de

Colombia-Seccional Popayán. [Acceso 15 de Mayo de 2012]. Disponible en

Web: http://www.monografias.com/trabajos/elabproyec/elabproyec.shtml

91
ANEXOS.
ANEXO Nº 01: Autocorrelaciones estimadas para la serie original del número de casos

de IRAS en menores de 5 años - Lampa.

1A: Valores estimados de la Función de Autocorrelación Estimada.

Límite en 95.0% Límite en 95.0%


Retraso Autocorrelación Error Estd. Inferior Superior
1 0.79597 0.0833333 -0.163331 0.163331
2 0.608127 0.125475 -0.245927 0.245927
3 0.396888 0.1445 -0.283216 0.283216
4 0.280203 0.151882 -0.297684 0.297684
5 0.229185 0.15543 -0.304639 0.304639
6 0.223077 0.15776 -0.309204 0.309204
7 0.224101 0.159935 -0.313468 0.313468
8 0.266015 0.162101 -0.317713 0.317713
9 0.384897 0.165105 -0.3236 0.3236
10 0.547199 0.171223 -0.335591 0.335591
11 0.697824 0.182964 -0.358604 0.358604
12 0.764279 0.200597 -0.393164 0.393164
13 0.628824 0.219891 -0.430979 0.430979
14 0.4429 0.232043 -0.454797 0.454797
15 0.261729 0.237841 -0.466161 0.466161
16 0.167279 0.239833 -0.470065 0.470065
17 0.102889 0.240642 -0.47165 0.47165
18 0.0834491 0.240947 -0.472249 0.472249
19 0.0805678 0.241148 -0.472642 0.472642
20 0.134362 0.241335 -0.473008 0.473008
21 0.241927 0.241854 -0.474025 0.474025
22 0.416825 0.243528 -0.477308 0.477308
23 0.528981 0.248433 -0.486921 0.486921
24 0.554325 0.256136 -0.502018 0.502018
25 0.420096 0.264336 -0.518089 0.518089
26 0.241284 0.268932 -0.527098 0.527098
27 0.102526 0.270431 -0.530036 0.530036
28 0.0227647 0.270701 -0.530565 0.530565
29 -0.0199424 0.270714 -0.530591 0.530591
30 -0.0447021 0.270724 -0.530611 0.530611
31 -0.0304965 0.270776 -0.530711 0.530711
32 0.0271818 0.270799 -0.530758 0.530758
33 0.140149 0.270818 -0.530795 0.530795
34 0.29936 0.271322 -0.531782 0.531782
35 0.376036 0.273606 -0.536258 0.536258
36 0.377677 0.277171 -0.543247 0.543247

1B: Valores estimados de la Función de AutocorrelaciónParcial Estimada.

Parcial Límite en 95.0% Límite en 95.0%


Retraso Autocorrelación Error Estd. Inferior Superior
1 0.79597 0.0833333 -0.163331 0.163331
2 -0.0694313 0.0833333 -0.163331 0.163331
3 -0.179633 0.0833333 -0.163331 0.163331
4 0.112 0.0833333 -0.163331 0.163331
5 0.104233 0.0833333 -0.163331 0.163331
6 0.0439778 0.0833333 -0.163331 0.163331

92
7 0.0154791 0.0833333 -0.163331 0.163331
8 0.154963 0.0833333 -0.163331 0.163331
9 0.323527 0.0833333 -0.163331 0.163331
10 0.312178 0.0833333 -0.163331 0.163331
11 0.268974 0.0833333 -0.163331 0.163331
12 0.193566 0.0833333 -0.163331 0.163331
13 -0.273244 0.0833333 -0.163331 0.163331
14 -0.171193 0.0833333 -0.163331 0.163331
15 -0.0735293 0.0833333 -0.163331 0.163331
16 -0.00580358 0.0833333 -0.163331 0.163331
17 -0.14861 0.0833333 -0.163331 0.163331
18 -0.113731 0.0833333 -0.163331 0.163331
19 -0.0576916 0.0833333 -0.163331 0.163331
20 -0.0117872 0.0833333 -0.163331 0.163331
21 -0.0533481 0.0833333 -0.163331 0.163331
22 0.138023 0.0833333 -0.163331 0.163331
23 0.00221701 0.0833333 -0.163331 0.163331
24 0.0139776 0.0833333 -0.163331 0.163331
25 -0.0876076 0.0833333 -0.163331 0.163331
26 -0.0533854 0.0833333 -0.163331 0.163331
27 0.0806181 0.0833333 -0.163331 0.163331
28 0.00804314 0.0833333 -0.163331 0.163331
29 0.00587683 0.0833333 -0.163331 0.163331
30 -0.0154423 0.0833333 -0.163331 0.163331
31 0.0373537 0.0833333 -0.163331 0.163331
32 0.000955791 0.0833333 -0.163331 0.163331
33 -0.0313015 0.0833333 -0.163331 0.163331
34 0.0466691 0.0833333 -0.163331 0.163331
35 -0.0635999 0.0833333 -0.163331 0.163331
36 0.00632224 0.0833333 -0.163331 0.163331

ANEXO Nº 02: Autocorrelaciones estimadas para la serie transformada

(Transformación Box Cox) del número de casos de IRAS en menores de 5 años -

Lampa.

2A: Valores estimados de la Función de Autocorrelación Estimada.

Límite en 95.0% Límite en 95.0%


Retraso Autocorrelación Error Estd. Inferior Superior
1 0.814191 0.0833333 -0.163331 0.163331
2 0.656626 0.127089 -0.249089 0.249089
3 0.450578 0.148794 -0.291632 0.291632
4 0.322892 0.157986 -0.309647 0.309647
5 0.247028 0.162504 -0.318503 0.318503
6 0.23864 0.165091 -0.323573 0.323573
7 0.235839 0.16747 -0.328235 0.328235
8 0.301999 0.16976 -0.332725 0.332725
9 0.414184 0.173451 -0.339959 0.339959
10 0.580387 0.180189 -0.353164 0.353164
11 0.695484 0.192734 -0.377752 0.377752
12 0.762221 0.209438 -0.410492 0.410492
13 0.634566 0.227889 -0.446656 0.446656
14 0.474246 0.239846 -0.470091 0.470091
15 0.288274 0.246272 -0.482686 0.482686
16 0.184396 0.248604 -0.487257 0.487257
17 0.106656 0.249552 -0.489115 0.489115

93
18 0.0901127 0.249869 -0.489735 0.489735
19 0.0936061 0.250094 -0.490177 0.490177
20 0.161205 0.250338 -0.490654 0.490654
21 0.266019 0.251057 -0.492065 0.492065
22 0.440434 0.253007 -0.495886 0.495886
23 0.521372 0.258277 -0.506214 0.506214
24 0.550297 0.265485 -0.520342 0.520342
25 0.426542 0.273291 -0.535642 0.535642
26 0.274312 0.277876 -0.544628 0.544628
27 0.122322 0.27975 -0.548302 0.548302
28 0.0404987 0.280122 -0.549029 0.549029
29 -0.0109382 0.280162 -0.549109 0.549109
30 -0.0334771 0.280165 -0.549115 0.549115
31 -0.0155694 0.280193 -0.549169 0.549169
32 0.0509151 0.280199 -0.549181 0.549181
33 0.154067 0.280263 -0.549307 0.549307
34 0.303064 0.280851 -0.550458 0.550458
35 0.356816 0.283113 -0.554892 0.554892
36 0.363131 0.286219 -0.560979 0.560979

2B: Valores estimados de la Función de Autocorrelación Parcial Estimada.


Parcial Límite en 95.0% Límite en 95.0%
Retraso Autocorrelación Error Estd. Inferior Superior
1 0.814191 0.0833333 -0.163331 0.163331
2 -0.0186347 0.0833333 -0.163331 0.163331
3 -0.233939 0.0833333 -0.163331 0.163331
4 0.0831036 0.0833333 -0.163331 0.163331
5 0.10392 0.0833333 -0.163331 0.163331
6 0.103445 0.0833333 -0.163331 0.163331
7 -0.00286153 0.0833333 -0.163331 0.163331
8 0.209922 0.0833333 -0.163331 0.163331
9 0.299927 0.0833333 -0.163331 0.163331
10 0.346698 0.0833333 -0.163331 0.163331
11 0.160954 0.0833333 -0.163331 0.163331
12 0.167434 0.0833333 -0.163331 0.163331
13 -0.3022 0.0833333 -0.163331 0.163331
14 -0.183653 0.0833333 -0.163331 0.163331
15 -0.107735 0.0833333 -0.163331 0.163331
16 0.0205378 0.0833333 -0.163331 0.163331
17 -0.0935232 0.0833333 -0.163331 0.163331
18 -0.0894522 0.0833333 -0.163331 0.163331
19 -0.036382 0.0833333 -0.163331 0.163331
20 0.000845723 0.0833333 -0.163331 0.163331
21 -0.0159408 0.0833333 -0.163331 0.163331
22 0.172994 0.0833333 -0.163331 0.163331
23 -0.0487467 0.0833333 -0.163331 0.163331
24 0.000945141 0.0833333 -0.163331 0.163331
25 -0.0750441 0.0833333 -0.163331 0.163331
26 -0.0280755 0.0833333 -0.163331 0.163331
27 0.0440384 0.0833333 -0.163331 0.163331
28 0.030819 0.0833333 -0.163331 0.163331
29 0.0441315 0.0833333 -0.163331 0.163331
30 -0.0810357 0.0833333 -0.163331 0.163331
31 0.0214261 0.0833333 -0.163331 0.163331
32 -0.0187574 0.0833333 -0.163331 0.163331
33 -0.037936 0.0833333 -0.163331 0.163331
34 0.00988148 0.0833333 -0.163331 0.163331
35 -0.084252 0.0833333 -0.163331 0.163331
36 0.0302888 0.0833333 -0.163331 0.163331

94
3A: Valores estimados de la Función de Autocorrelación Estimada.

Límite en 95.0% Límite en 95.0%


Retraso Autocorrelación Error Estd. Inferior Superior
1 -0.51448 0.0873704 -0.171243 0.171243
2 0.144601 0.108049 -0.211773 0.211773
3 -0.0731917 0.109517 -0.214649 0.214649
4 -0.0501535 0.109889 -0.21538 0.21538
5 0.0722477 0.110064 -0.215722 0.215722
6 0.0250688 0.110425 -0.21643 0.21643
7 -0.0360199 0.110469 -0.216515 0.216515
8 -0.0401546 0.110558 -0.216691 0.216691
9 0.139319 0.11067 -0.216909 0.216909
10 -0.163098 0.112001 -0.219517 0.219517
11 0.261268 0.113799 -0.223043 0.223043
12 -0.40228 0.118289 -0.231844 0.231844
13 0.241621 0.128308 -0.25148 0.25148
14 -0.0490579 0.131736 -0.258198 0.258198
15 -0.0651642 0.131875 -0.258472 0.258472
16 0.104773 0.132121 -0.258953 0.258953
17 -0.142932 0.132754 -0.260193 0.260193
18 0.061313 0.133923 -0.262485 0.262485
19 -0.0192752 0.134137 -0.262905 0.262905
20 0.00424734 0.134159 -0.262946 0.262946
21 -0.0541168 0.13416 -0.262948 0.262948
22 0.0335824 0.134326 -0.263275 0.263275
23 -0.0184229 0.13439 -0.2634 0.2634
24 0.0369123 0.134409 -0.263438 0.263438
25 -0.049007 0.134487 -0.26359 0.26359
26 -0.0707263 0.134623 -0.263857 0.263857
27 0.0796065 0.134906 -0.264412 0.264412
28 -0.0548329 0.135265 -0.265114 0.265114
29 0.169136 0.135434 -0.265446 0.265446
30 -0.0843459 0.137037 -0.268588 0.268588
31 -0.00223347 0.137433 -0.269364 0.269364
32 0.0137287 0.137433 -0.269364 0.269364
33 -0.0486501 0.137443 -0.269385 0.269385
34 0.045992 0.137575 -0.269642 0.269642
35 0.00575356 0.137692 -0.269872 0.269872
36 -0.0401299 0.137694 -0.269876 0.269876

3B: Valores estimados de la Función de Autocorrelación Parcial Estimada.

Parcial Límite en 95.0% Límite en 95.0%


Retraso Autocorrelación Error Estd. Inferior Superior
1 -0.51448 0.0873704 -0.171243 0.171243
2 -0.163317 0.0873704 -0.171243 0.171243
3 -0.0987441 0.0873704 -0.171243 0.171243
4 -0.160543 0.0873704 -0.171243 0.171243
5 -0.0468023 0.0873704 -0.171243 0.171243
6 0.0665117 0.0873704 -0.171243 0.171243
7 0.0156479 0.0873704 -0.171243 0.171243
8 -0.0791285 0.0873704 -0.171243 0.171243
9 0.132876 0.0873704 -0.171243 0.171243
10 -0.0263729 0.0873704 -0.171243 0.171243
11 0.21363 0.0873704 -0.171243 0.171243
12 -0.250755 0.0873704 -0.171243 0.171243

95
13 -0.082765 0.0873704 -0.171243 0.171243
14 0.0225183 0.0873704 -0.171243 0.171243
15 -0.12515 0.0873704 -0.171243 0.171243
16 -0.0425136 0.0873704 -0.171243 0.171243
17 -0.120631 0.0873704 -0.171243 0.171243
18 -0.0556432 0.0873704 -0.171243 0.171243
19 -0.0543192 0.0873704 -0.171243 0.171243
20 -0.11559 0.0873704 -0.171243 0.171243
21 -0.0261803 0.0873704 -0.171243 0.171243
22 -0.118353 0.0873704 -0.171243 0.171243
23 0.0536476 0.0873704 -0.171243 0.171243
24 -0.0804196 0.0873704 -0.171243 0.171243
25 -0.0807381 0.0873704 -0.171243 0.171243
26 -0.12388 0.0873704 -0.171243 0.171243
27 -0.147992 0.0873704 -0.171243 0.171243
28 -0.0582588 0.0873704 -0.171243 0.171243
29 0.0754811 0.0873704 -0.171243 0.171243
30 0.0746512 0.0873704 -0.171243 0.171243
31 0.0379069 0.0873704 -0.171243 0.171243
32 0.00216173 0.0873704 -0.171243 0.171243
33 -0.0394137 0.0873704 -0.171243 0.171243
34 -0.0888213 0.0873704 -0.171243 0.171243
35 0.012971 0.0873704 -0.171243 0.171243
36 -0.113115 0.0873704 -0.171243 0.171243

ANEXO Nº 04: Valores obtenidos mediante la prueba de A. Dickey Fuller.

4A: Resultados de la prueba A. Dickey Fuller.


Null Hypothesis: SDRA has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic - based on SIC, maxlag=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -20.04914 0.0000


Test critical values: 1% level -4.030157
5% level -3.444756
10% level -3.147221

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(SDRA)
Method: Least Squares
Date: 07/22/12 Time: 06:17
Sample (adjusted): 2001M03 2011M12
Included observations: 130 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

SDRA(-1) -1.520367 0.075832 -20.04914 0.0000


C 0.138533 0.418059 0.331373 0.7409
@TREND(2000M01) -0.002404 0.004806 -0.500211 0.6178

R-squared 0.759910 Mean dependent var 0.025766


Adjusted R-squared 0.756129 S.D. dependent var 4.162583
S.E. of regression 2.055620 Akaike info criterion 4.301839
Sum squared resid 536.6479 Schwarz criterion 4.368013

96
Log likelihood -276.6195 Hannan-Quinn criter. 4.328727
F-statistic 200.9842 Durbin-Watson stat 2.162598
Prob(F-statistic) 0.000000

4B: Resultados sin incluir tendencia.

Null Hypothesis: SDRA has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic - based on SIC, maxlag=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -20.10187 0.0000


Test critical values: 1% level -3.481217
5% level -2.883753
10% level -2.578694

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(SDRA)
Method: Least Squares
Date: 07/22/12 Time: 06:22
Sample (adjusted): 2001M03 2011M12
Included observations: 130 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

SDRA(-1) -1.519389 0.075584 -20.10187 0.0000


C -0.050130 0.179801 -0.278806 0.7808

R-squared 0.759437 Mean dependent var 0.025766


Adjusted R-squared 0.757558 S.D. dependent var 4.162583
S.E. of regression 2.049591 Akaike info criterion 4.288422
Sum squared resid 537.7052 Schwarz criterion 4.332538
Log likelihood -276.7475 Hannan-Quinn criter. 4.306348
F-statistic 404.0852 Durbin-Watson stat 2.159968
Prob(F-statistic) 0.000000

4C: Resultados sin incluir tendencia ni constante.

Null Hypothesis: SDRA has a unit root


Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -20.17269 0.0000


Test critical values: 1% level -2.582872
5% level -1.943304
10% level -1.615087

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(SDRA)
Method: Least Squares
Date: 07/22/12 Time: 06:24

97
Sample (adjusted): 2001M03 2011M12
Included observations: 130 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

SDRA(-1) -1.518946 0.075297 -20.17269 0.0000

R-squared 0.759291 Mean dependent var 0.025766


Adjusted R-squared 0.759291 S.D. dependent var 4.162583
S.E. of regression 2.042251 Akaike info criterion 4.273645
Sum squared resid 538.0318 Schwarz criterion 4.295703
Log likelihood -276.7869 Hannan-Quinn criter. 4.282608
Durbin-Watson stat 2.159409

ANEXO Nº 05: Valores obtenidos en el proceso estimación de parámetros de los


modelos identificados.

5A: Estimación de parámetros en el proceso SARIMA(0,1,1)*(0,1,1)12.

Dependent Variable: D(RA,1,12)


Method: Least Squares
Date: 08/09/12 Time: 07:11
Sample (adjusted): 2001M02 2009M12
Included observations: 107 after adjustments
Convergence achieved after 8 iterations
MA Backcast: 2000M01 2001M01

Variable Coefficient Std. Error t-Statistic Prob.

MA(1) -0.608980 0.077615 -7.846187 0.0000


SMA(12) -0.585526 0.080157 -7.304774 0.0000

R-squared 0.448771 Mean dependent var -0.012254


Adjusted R-squared 0.443521 S.D. dependent var 2.508334
S.E. of regression 1.871154 Akaike info criterion 4.109503
Sum squared resid 367.6279 Schwarz criterion 4.159462
Log likelihood -217.8584 Hannan-Quinn criter. 4.129756
Durbin-Watson stat 1.939928

Inverted MA Roots .96 .83-.48i .83+.48i .61


.48-.83i .48+.83i .00-.96i -.00+.96i
-.48+.83i -.48-.83i -.83+.48i -.83-.48i
-.96

5B: Estimación de parámetros en el proceso SARIMA(1,1,0)*(0,1,1)12.

Dependent Variable: D(RA,1,12)


Method: Least Squares
Date: 08/09/12 Time: 07:09
Sample (adjusted): 2001M03 2009M12
Included observations: 106 after adjustments
Convergence achieved after 8 iterations
MA Backcast: 2000M03 2001M02

Variable Coefficient Std. Error t-Statistic Prob.

98
AR(1) -0.442428 0.088460 -5.001467 0.0000
MA(12) -0.567198 0.081651 -6.946649 0.0000

R-squared 0.416380 Mean dependent var 0.002713


Adjusted R-squared 0.410769 S.D. dependent var 2.515444
S.E. of regression 1.930890 Akaike info criterion 4.172527
Sum squared resid 387.7471 Schwarz criterion 4.222781
Log likelihood -219.1439 Hannan-Quinn criter. 4.192895
Durbin-Watson stat 2.138867

Inverted AR Roots -.44


Inverted MA Roots .95 .83+.48i .83-.48i .48+.83i
.48-.83i .00+.95i -.00-.95i -.48+.83i
-.48-.83i -.83+.48i -.83-.48i -.95

99

Das könnte Ihnen auch gefallen