Sie sind auf Seite 1von 15

Hauptuniversitt Wien

Zeitreihenanalyse Exporte USA-BRD


Bakkalaureatsarbeit bei Prof. Reschenhofer

von Franz Eigner Jnner 2008

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

Datensatz Der Datensatz1 stammt von der Homepage der Federal Reserve Bank St. Louis und beschreibt die Entwicklung der Exporte von den USA nach Deutschland, ausgedrckt in Dollareinheiten. Es handelt sich um einen Monatsdatensatz, welcher den Zeitraum von 1974-01-01 bis 2007-10-01 umfasst und welcher noch nicht saisonbereinigt worden ist. 1) Einfhrung in die Zeitreihenanalyse Im Rahmen der Zeitreihenanalyse versuchen wir, das Verlaufsmuster bzw. die Struktur einer Zeitreihe zu analysieren, indem man sie mithilfe verschiedener Methoden in ihre Einzelkomponenten zerlegt, die dazugehrigen Parameter berechnet um anschlieend Modelle aufzustellen, welche dann z.B. fr Prognosen verwendet werden knnen. Ziel ist es letztlich, die ursprngliche Zeitreihe, die aus abhngigen Daten besteht, in eine Zeitreihe zu verwandeln, welche sich aus unabhngigen Daten (Innovationen/white noise) zusammensetzt. Das heit, ein Modell sollte geschaffen werden, das in der Lage ist, aus einem Input von unabhngigen Daten eine Zeitreihe zu produzieren, die der ursprnglichen Zeitreihe hnlich schaut. Komponentenzerlegung2:

Trendkomponente als allgemeine Grundrichtung der Zeitreihe Saisonkomponente als eine zyklische Bewegung innerhalb eines Jahres Zykluskomponente (in der konomie: Konjunktur ) mit einer Periodenlnge von mehr als einem Jahr
Rest-Komponente: Zufallsschwankungen, deren Ursachen im einzelnen nicht identifiziert werden knnen (white noise), aber auch Ausreier und Strukturbrche, die durch historische Ereignisse erklrt werden knnen

Es gibt 2 Arten von Modellen3:


deterministisches Modell (Trendbereinigung per Regressionsanalyse) stochastisches Modell (Trendbereinigung per Differenzenbildung, z.B. ARIMA-Modelle)

2) Erste graphische Analyse Eine graphische Analyse erlaubt uns die ersten Schlsse ber die verschiedenen Komponenten der empirischen Zeitreihe (Trends, Saisonalitten) zu ziehen.
U.S. Exports to Germany
8.5

U.S. Exports to Germany

U.S. Exports to Germany


600 ex[1:37, 2] 350 1974.0 400 450 500 550

4000

3000

log(ex[, 2])

ex[, 2]

2000

1000

6.0

6.5

7.0

7.5

8.0

1975

1980

1985

1990 t

1995

2000

2005

1975

1980

1985

1990 t

1995

2000

2005

1974.5

1975.0

1975.5 t[1:37]

1976.0

1976.5

1977.0

In der Zeitreihe drfte ein positiver, exponentieller Trend vorliegen. Nach Logarithmierung wird daraus ein linearer Trend. Auch gewisse Saisonalitten lassen sich erkennen, wenn man die einzelnen Jahre betrachtet. In der Jahresmitte scheint es tendenziell Exporteinbrche zu geben, das Exportmaximum wird gegen Jahresende erreicht.
1

Series: EXPGE, U.S. Exports to Germany, f.a.s. basis http://alfred.stlouisfed.org/series?seid=EXPGE&cid=16


2 3

aus wikipedia: Zeitreihenanalyse, 6.01.2007 s.o. 2

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

3) Deterministische Modelle (Regressionsanalyse) Diese betrachten Zufallsschwankungen als strukturneutral und fassen die systematischen Komponenten als deterministische Funktionen der Zeit auf z.B.: Yt = 0 + 1t + ut Schtzung der Modellparameter (hier fr den linearen Trend) erfolgt ber die Regressionsanalyse (OLS).
Call: > ex.ltrend = lm(ex.log~t) > summary(ex.ltrend) Call: lm(formula = ex.log ~ t) Residuals: Min 1Q Median -0.373057 -0.127470 -0.000973 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -1.178e+02 1.691e+00 -69.63 <2e-16 *** t 6.275e-02 8.495e-04 73.86 <2e-16 *** --Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.1672 on 404 degrees of freedom Multiple R-Squared: 0.9311, Adjusted R-squared: 0.9309 F-statistic: 5456 on 1 and 404 DF, p-value: < 2.2e-16

3Q 0.110708

Max 0.547945

Wir erhalten hier fr den Koeffizienten von t (Trendkomponente) einen Wert von 0.06275, der hochsignifikant ist. Das bedeutet: Da wir die Exporte logarithmiert haben, knnen wir jene als Wachstumsraten interpretieren. Also etwa 6.275% Wachstum pro Zeiteinheit t (=Jahr). Das Ergebnis ist vernnftig, berechnet man das durchschnittliche

geometrische Wachstum erhlt man


U.S. Exports to Germany - with regression line
8.5 6.0 6.5 7.0 7.5 8.0

1975

1980

1985

1990

1995

2000

2005

Damit haben wir eine erste Mazahl fr den linearen Trend unserer Zeitreihe. Da jedoch Trends ber mehrere Jahre (Konjunkturtrends) in unserem Modell noch nicht erfasst werden, knnten jene mittels Dummyvariablen in unserem Regressionsmodell bercksichtigt werden. Um jene Stellen zu finden, an denen Strukturbrche stattfinden, knnen einerseits spezielle Funktionen verwendet werden oder man vertraut auf die Fhigkeiten des menschlichen Auges.
3

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

q1= 85 q2= 133 q3= 205

# 1981 # 1985 # 1991

z1 = c(rep(0,q1),rep(1,(q2-q1)),rep(0,N-q2)) z2 = c(rep(0,q2),rep(1,(q3-q2)),rep(0,N-q3)) z3 = c(rep(0,q3),rep(1,(N-q3)))


Call: lm(formula = ex.log ~ t + t * z1 + t * z2 + t * z3) Residuals: Min 1Q Median -0.280343 -0.085212 -0.005445 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -2.430e+02 1.319e+01 -18.427 <2e-16 *** t 1.261e-01 6.670e-03 18.905 <2e-16 *** z1 3.337e+02 3.385e+01 9.860 <2e-16 *** z2 -4.514e+01 2.152e+01 -2.097 0.0366 * z3 1.573e+02 1.369e+01 11.488 <2e-16 *** t:z1 -1.685e-01 1.708e-02 -9.867 <2e-16 *** t:z2 2.238e-02 1.085e-02 2.063 0.0397 * t:z3 -7.934e-02 6.917e-03 -11.469 <2e-16 *** --Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.1257 on 398 degrees of freedom Multiple R-Squared: 0.9616, Adjusted R-squared: 0.9609 F-statistic: 1423 on 7 and 398 DF, p-value: < 2.2e-16
U.S. Exports to Germany - with regression line (broken trends)
8.5

3Q 0.081399

Max 0.408429

ex.log

6.0

6.5

7.0

7.5

8.0

1975

1980

1985

1990 t

1995

2000

2005

Hier haben wir ein Modell, welches Strukturbrche (Konjunkturzyklen) bercksichtigt. Zwar erhht sich die Gte auf 0.9609 und alle Koeffizienten sind signifikant, doch eignet sich ein solches Modell kaum fr Prognosen (auch nicht fr den linearen Trend), da weitere Strukturbrche nicht prognostiziert werden knnen.

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

Eine wichtige Evaluierungsmethode fr Regressionsmodelle ist die Betrachtung der Residuen, welche im besten Fall keine Korrelationen aufweisen sollten (white noise).
regression/residuals
0.4

brokend trends/residuals

0.4

0.2

0.0

-0.2

-0.4

1975

1980

1985

1990

1995

2000

2005

-0.3 1975

-0.2

-0.1

0.0

0.1

0.2

0.3

1980

1985

1990

1995

2000

2005

In den Residuen ist ein klares saisonales Muster zu erkennen, wobei jenes Muster beim Strukturbruchmodell deutlich schwcher ausgeprgt ist. Das heit, unsere Residuen enthalten noch andere Komponenten (hier vermutlich saisonale), welche wir aus unserer Zeitreihe noch nicht extrahieren konnten. Allgemein kann die Unabhngigkeit der Residuen mittels eines Durbin-Watson Tests kontrolliert werden.

4) Weitere Hilfsmittel fr die Komponentenzerlegung 5.1) Moving averages (MA, Gleitender Durchschnitt) Um in einer Zeitreihen einen Trend zu finden, kann man sie auch einfach gltten, z.B. mit dem Moving Average Filter. Es gilt: Je grer der Bereich, ber welchen gemittelt wird, desto grer die Glttung. Ein Nachteil dieser Methode ist, dass definitionsgem am Anfang und am Ende der Zeitreihe Werte abgeschnitten werden. Im angefhrten Beispiel werden alle Werte (vorher und nachher) gleich gewichtet. Mit unterschiedlicher Gewichtung knnen unverzerrte Ergebnisse sichergestellt werden. Mit MA kann ich brigens sowohl gltten als auch filtern. Bei der Glttung verwende ich zur Berechnung des gleitenden Durchschnitts an einer Stelle sowohl vergangene als auch zuknftige Datenwerte. Im Gegensatz zum Filtern, wo ich nur auf Informationen der Vergangenheit zurckgreife. Hierbei wird nichts abgeschnitten. Diese Variante wrde sich auch zum Prognostizieren eignen. In R:
lines( filter(x, rep(1/w,w), side=1))

Das "side" Argument der filter() Funktion lsst uns whlen zwischen Gltten (Smoothing) und Filtern (filtering) Jenes w entspricht brigens unserem 2k+1 (also mssten wir fr die 2 unteren Graphen w=3 bzw. w=15 verwenden) Ich verwende jedoch nicht den filter-Befehl, sondern die smoothing-Funktion, die wir in der LV durchgenommen haben.

Zeitreihenanalyse, Bakkalaureatsarbeit
moving average filter (k=1)
8.5

Franz Eigner, Jnner 2008

6.0

6.5

7.0

7.5

8.0

100

200

300

400

moving average filter (k=7)


8.5 6.0 6.5 7.0 7.5 8.0

100

200

300

400

Das Ergebnis liefert uns weitere wertvolle Infos. Der Graph mit k=1 lsst die Aussage zu, dass der Verlauf der gegltteten Zeitreihe innerhalb eines Jahres ber die gesamte Zeit (34 Jahre) hnliche Muster aufweist, also ein saisonaler Jahrestrend erkennbar ist, der jedoch mit spterem Verlauf zunehmend schwcher wird. Im Graph mit k=7 lassen sich Konjunkturphasen und Exporteinbrche ber mehrere Jahre ablesen. Man knnte sogar eine noch strkere Glttung vornehmen und wrde dann wohl ein hnliches Bild erhalten wie mit dem Strukturbruchmodell der Regressionsanalyse.

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

5.2) Saisonale Komponente (Sinusoide) Die in R eingebaute Funktion erleichtert uns die Komponentenzerlegung.
ex.ts.dec = decompose(ex.ts); plot(ex.ts.dec)
Decomposition of additive time series
6.0 6.5 7.0 7.5 8.0 -0.2 0.0 0.2 -0.10 0.00 0.10 6.0 6.5 7.0 7.5 8.0

random

seasonal

trend

observed

1975

1980

1985

1990

1995

2000

2005

Time

Der random-Term scheint zu Beginn der Zeitreihe eine hhere Varianz aufzuweisen. (Varianzinstationaritt)
seasonally adjusted by 'decompose'
8.5

not seasonally adjusted

8.0

7.5

7.0

ex.ts 1975 1980 1985 1990 1995 2000 2005

6.5

6.0

6.0 1975

6.5

7.0

7.5

8.0

1980

1985

1990 Time

1995

2000

2005

Gewisse Zacken konnten mit der saisonalen Komponente zumindest entfernt werden. Eigenhndig kann man auch einfache Modelle erstellen, welche auf Sinusoide (Schwingungen) aufbauen. 1 Sinusoid mit Periode 12 und einem linearen Trend 2 Sinusoide mit Periode 12 und einem linearen Trend 6 Sinusoide mit Periode 12 und einem linearen Trend
7

Zeitreihenanalyse, Bakkalaureatsarbeit
Different seasonal components
0.2 ex.ts.sin2.seasonal 0.2

Franz Eigner, Jnner 2008

ex.sin.seasonal

0.1

-0.2 -0.1 0.0

10

20

30 Index

40

50

60

-0.2 -0.1 0.0 0

0.1

10

20

30 Index

40

50

60

0.2

ex.ts.dec$seasonal 0 10 20 30 Index 40 50 60

ex.ts.sin6.seasonal

0.1

-0.2 -0.1 0.0

-0.2 -0.1 0.0 1974

0.1

0.2

1976 Time

1978

Die saisonale Komponente mit 6 Sinusoiden hnelt schon recht stark jener, welche die R-Funktion decompose ausgegeben hat.
> summary(ex.ts.sin6) lm(formula = ex.ts ~ t omega * t) + cos(2 omega * t) + sin(4 omega * t) + cos(5 Residuals: Min 1Q -0.3673846 -0.1272287 Coefficients: (Intercept) t sin(omega * t) cos(omega * t) sin(2 * omega * cos(2 * omega * sin(3 * omega * cos(3 * omega * sin(4 * omega * cos(4 * omega * sin(5 * omega * cos(5 * omega * cos(6 * omega * --Signif. codes: Estimate Std. Error t value Pr(>|t|) 6.104e+00 1.563e-02 390.620 < 2e-16 *** 5.233e-03 6.654e-05 78.636 < 2e-16 *** 4.888e-02 1.101e-02 4.440 1.17e-05 *** 2.853e-02 1.105e-02 2.583 0.0102 * -4.816e-02 1.102e-02 -4.370 1.59e-05 *** -2.647e-02 1.103e-02 -2.399 0.0169 * -1.703e-02 1.103e-02 -1.545 0.1233 -2.163e-03 1.103e-02 -0.196 0.8446 1.458e-03 1.102e-02 0.132 0.8948 2.316e-02 1.103e-02 2.099 0.0364 * 2.623e-02 1.101e-02 2.383 0.0177 * 7.547e-03 1.105e-02 0.683 0.4949 1.437e-03 7.798e-03 0.184 0.8538 + * * * sin(omega * t) + cos(omega omega * t) + sin(3 * omega omega * t) + cos(4 * omega omega * t) + cos(6 * omega * * * * t) + sin(2 * t) + cos(3 * t) + sin(5 * t))

Median 0.0003621

3Q 0.0970748

Max 0.5023438

t) t) t) t) t) t) t) t) t)

0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.1571 on 393 degrees of freedom Multiple R-Squared: 0.9408, Adjusted R-squared: 0.939 F-statistic: 520.2 on 12 and 393 DF, p-value: < 2.2e-16

Die F-Statistik mit ihrem extrem niedrigen p-wert sagt uns, dass zumindest einer der Koeffizienten der verschiedenen Schwingungen signifikant von 0 ist, in unserer Zeitreihe also vermutlich ein saisonaler Trend vorhanden ist.
8

Zeitreihenanalyse, Bakkalaureatsarbeit
seasonally adjusted + without linear trend

Franz Eigner, Jnner 2008

ex.ts - ex.ts.sin6$fitted.values

-0.4

-0.2

0.0

0.2

0.4

1975

1980

1985

1990 t.real

1995

2000

2005

Der Graph sollte die ursprngliche Zeitreihe mit linearer und saionaler Trendbereinigung darstellen, d.h. die Residuals. Das scheint noch kein white noise Prozess zu sein.

5) Stochastische Modelle Man geht davon aus, dass Zufallschwankungen ebenso eine dominierende Rolle bei der Modellierung der systematischen Komponenten innehaben. Deswegen werden Zeitreihen auch gerne durch einen stochastischen Prozess modelliert, z.B. durch ARIMA-Modelle. Da wir in unserer Zeitreihe einen stochastischen Trend (Instationaritt) vorliegen haben (siehe grafische Analyse, aber auch mglich durch einen statistischen Test wie den Augmented-Dickey-Fuller-Test), wird zunchst zur Trendbereinigung die (logarithmierte) Zeitreihe differenziert. Dies ist hier wichtig um eine (schwach) stationre Verteilung sicherzustellen (erfllt gewisse Annahmen, konstante Varianz, konstanter Erwartungswert, Kovarianzen zwischen 2 Werten gleichen, zeitlichen Abstandes sind konstant). Auf einer stationren Verteilung aufbauend knnen anschlieend ARIMA-Modelle konstruiert werden.

6.1) Spektralanalyse

Periodogramm (sample spectrum) Wir werden dafr Fourierfrequenzen verwenden, welche den Vorteil haben, dass die so ermittelten Parameter voneinander unabhngig geschtzt werden knnen, da die einzelnen Fourier-Frequenzen zueinander orthogonal stehen. Im Periodogramm wird die periodische Funktion als eine Summe von sinus und cosinus Schwingungen angeschreiben. Da man die cosinus und sinus-Schwingungen im Periodogramm auch als Summe von Autocovarianzen auffassen kann, ist das Periodogramm geeignet zur Berechnung der (empirischen) Spektraldichte. Das Periodogramm bzw. die spektrale Dichte gibt uns dann an, welcher Anteil der Varianz einer beobachteten Zeitreihe durch Schwingungen mit bestimmten Frequenzen begrndet werden kann. Das Periodogramm hilfts uns folglich festzustellen, welche Schwingungen einen hohen Erklrungsanteil auf unsere Zeitreihe besitzen.

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

In R gibt es dafr die Funktion spec.pgram bzw. spectrum(x, ..., method = c("pgram")). Ich verwende allerdings die Funktion die Sie geschrieben haben. Zuvor berechne ich mir die Returns bzw. die Wachstumsraten durch logarithmieren und anschlieendes differenzieren der Zeitreihe.
Periodogramm
Periodogramm mit vollen Fourier Frequenzen
2 Monate,4 Monate,8 Monate,16 Monate 1/4 Jahr, 1/2 Jahr, 1 Jahr, 2 Jahr 0.04 0.00 0.0 0.01 0.02 0.03

0.00

0.01

0.02

0.03

0.04

0.0

0.5

1.0

1.5

2.0

2.5

3.0

0.5

1.0

1.5 Frequenzen

2.0

2.5

3.0

Berechnung der Schwingungen:


# 2 Monate,4 Monate,8 Monate,16 Monate zweixMonat = c(2,4,8,16) for (i in 1:4) zweixMonatWerte[i]= which(2*pi/zweixMonat[i]==ex.p.12$frequencies) > zweixMonatWerte [1] 199 99 49 25 # 1/4 Jahr, 1/2 Jahr, 1 Jahr, 2 Jahr, einxJahr = c(3,6,12,24) for (i in 1:4) einxJahrWerte<-which(2*pi/einxJahr[i]==ex.p.12$frequencies) > einxJahrWerte [1] 132 66 33

17

Aufruf ber ex.p.12$frequencies[zweixMonatWerte]

Im Allgemeinen erwartet man sich, dass die Werte im Periodogramm strker ausschlagen, falls sichergestellt wird, dass nur ganze Fourierfrequenzen bercksichtigt werden. Das kann man hier tendenziell auch erkennen. Grere Zacken knnen sich i.A. auch zufllig ergeben, jedoch scheint hier das Muster der Zacken als zu regelmig. Nach der Beschriftung der jeweiligen Zacken erkennen wir, dass und und 1-Jahresschwingungen besonders groen Einfluss auf die Varianz unserer Zeitreihe ausben. Das Periodogramm kann brigens auch fr statistische Tests verwendet werden. Um zu testen ob eine gegebene Zeitreihe eine Realisation von Zufallsvariablen ist, kann entweder ein Frequency Domain Test (Periodogramm ist ungefhr konstant) oder ein Time Domain Test (Autokovarianzen sind nahe bei 0) durchgefhrt werden.
10

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

Vergleich des logarithmierten Periodogramms (mit Funktion wie in LV) mit jenem Periodogramm, welches mit der R-Funktion spec.pgram erzeugt worden ist:
Periodogramm mit vollen Fourier Frequenzen Series: r.na.12 Raw Periodogram

-4

-6

-10

spectrum 2 Monate,4 Monate,8 Monate,16 Monate 1/4 Jahr, 1/2 Jahr, 1 Jahr, 2 Jahr 0.0 0.5 1.0 1.5 2.0 2.5 3.0

-12

5e-05 0.0

-14

5e-04

5e-03

-8

5e-02

0.1

0.2

0.3

0.4

0.5

Frequenzen

frequency bandwidth = 0.000722

Nun plotte ich das Periodogramm fr die von mir saisonbereinigte Zeitreihe:
My Periodogram (seasonal adjusted data)

Die greren Zacken am Ende deuten mglicherweise darauf hin, dass kurzfristige Konjunkturperioden (vierteljhrlich oder krzer) ausschlaggebend sind. Es drften also die krzeren Schwingungen in unserer bereinigten Zeitreihe i.A. mehr Aussagekraft besitzen als die lngeren (ber mehrere Jahre).

0.000 0.0

0.002

0.004

0.006

0.008

Die Zacken haben jetzt im Allgemeinen eine deutlich geringere Amplitude, groe Ausreier sind gar nicht mehr zu finden. Die von mir durchgefhrte Saisonbereinigung hat also durchaus vorhandene periodische Schwingungen extrahieren knnen.

0.010

0.5

1.0

1.5

2.0

2.5

3.0

11

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

6.2) Autokorrelationen Abhngigkeiten zwischen Zeitreihenwerten identifizieren

ACF-Plot (Autocorrelation Function) liefert mir die Korrelation zwischen Beobachtung x[i] und Beobachtung x[i-k]. Wenn die ACF eine Ansammlung von positiven und negativen Werten aufweist, die sich jeweils abwechseln, drfte ein periodischer Trend vorliegen. Im Allgemeinen ist eine geringe Anzahl von signifikanten Kovarianzen an sich kein Grund, an der Unabhngigkeitsannahme zu rtteln. Bei 60 Kovarianzen knnen etwa 3 (zweiseitiger Test) zufllig signifikante erwartet werden (Niveau von 5 %). PACF (Partial AutoCorrelation Function) enthlt dieselbe Information, aber liefert jene Korrelation zwischen x[i] und x[i-k], welche noch nicht durch Korrelationen mit einem krzeren Lag erklrt werden konnte. Das Spektogramm versucht periodische Komponenten mit verschiedenen Frequenzen zu finden und stellt den Einfluss der verschiedenen Frequenzen grafisch dar.

returns, aus nicht saisonbereinigter Zeitreihe


r.na 0.1 -0.3

100

200 Index

300

400

Series r.na
0.6 -0.2

ACF

10

20 Lag

30

40

50

Series r.na
Partial ACF

-0.3 0.0 0

10

20 Lag

30

40

50

spectrum

0.001

0.020

0.0

0.1

0.2 bandw idth = 0.0143

0.3

0.4

0.5

Saisonunbereinigt: Einige signifikante Korrelationen in der ACF, noch mehr in der PACF. Hier ist ein periodischer Trend anfangs teilweise erkennbar. Besonders interessant ist das Spektogramm. Es weist klare Muster auf und lsst den Schluss zu, dass bestimmte periodische Komponenten in unserer Zeitreihe bestimmend sind.

12

Zeitreihenanalyse, Bakkalaureatsarbeit
returns, aus saisonbereinigter Zeitreihe
0.1

Franz Eigner, Jnner 2008

-0.3

1975

1980

1985

1990 Time

1995

2000

2005

Series r

-0.4 0.4

ACF

2 Lag

Series r
Partial ACF 0.0 -0.4 0

2 Lag

1e-04 1e-03

spectrum

3 bandw idth = 0.174

Saisonbereinigt: ACF: Die Anzahl der signifikanten Koeffizienten ist gering, jedoch ragt die 2. Kovarianz beraschend klar ber die Signifikanz-Linie hinaus. Auch die PACF deutet auf eine Korrelation der Daten bei den ersten Lags hin, der allmhlich verschwindet. Um auf unabhngige Autokorrelationen bzw. auf Stationaritt zu testen kann ebenso ein Ljung Box-Test (portmanteau statistics) verwendet werden. Hier erhalte ich einen exakten p-wert. Funktion in R:
Box.test(x, lag = 1, type = c("Box-Pierce", "Ljung-Box"))
> Box.test(r.na, type='Ljung') Box-Ljung test data: r.na X-squared = 39.3304, df = 1, p-value = 3.578e-10

> Box.test(r, type="Ljung-Box") Box-Ljung test data: r X-squared = 72.6157, df = 1, p-value < 2.2e-16

Beobachtungen in einer Zeitreihe sind fr gewhnlich abhngig, und in unserer Zeitreihe ist das auch der Fall. Interessanterweise scheinen auch die Werte der saisonbereinigten Zeitreihe voneinander abhngig zu sein, was nicht in unserem Sinne ist. Eventuell mssen wir aus unserer Zeitreihe noch Strukturen stochastischer Form extrahieren.

13

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

6.3) AR-Modell Ein autoregressives Modell beschreibt einen Prozess, bei dem die vorhergehenden Beobachtungen einen Einfluss auf die gegenwrtige haben. AR-Prozess von Ordnung p:

Relationship between growth rates (monthly)


0.4

Series: ex.diff.dm AR (1) spectrum


0.020 spectrum 0.005 0.0 0.010 0.015

g[i-1]

-0.3

-0.2

-0.1

0.0

0.1

0.2

0.3

-0.3

-0.2

-0.1

0.0 g[i]

0.1

0.2

0.3

0.4

0.1

0.2

0.3

0.4

0.5

frequency

Kann die Wachstumsrate des aktuellen Monats durch die Wachstumsrate des Vormonats erklrt werden? Der linke Plot sagt uns: In diesem Fall nicht. Es gibt auch AR-Prozesse hherer Ordnung, in der zustzlich Werte bercksichtigt werden, die viel weiter in der Vergangenheit zurckliegen. Im rechten Plot sehen wir die Spektraldichte eines AR(1) Prozesses (auf die saisonbereinigten Daten). Die Spektraldichte erhalte ich mit der R-Funktion spectrum.
spectrum(x, ..., method = c("ar"))

6.4) ARIMA-Modell (Box-Jenkins-Modelle) Sind lineare Modelle fr stationre und stochastische Prozesse. Besteht aus einem AR und einem MA Prozess, wobei AR den deterministischen und MA den stochastischen Teil umfasst. Das I steht fr "Integrated". Das liegt vor, wenn die Daten, die in das Modell einflieen, vorher abgeleitet worden sind (z.B. zur Herstellung von Stationaritt). Ein ARIMA(1,0,1) Prozess schaut folgendermaen aus: (AR-Term, MA-Term + white noise)

Fr die Berechnung der ARIMA-Modelle verwenden wir die saisonbereinigten Daten. ARIMA(1,0,1)
arima(x = ex.diff.dm, order = c(1, 0, 1), include.mean = FALSE, transform.pars = TRUE) Coefficients: ar1 ma1 0.0209 -0.5938 s.e. 0.0911 0.0750 log likelihood = 440.1, aic = -874.21

sigma^2 estimated as 0.0063:

Wir erhalten fr die Parameter folgende Werte


14

Zeitreihenanalyse, Bakkalaureatsarbeit

Franz Eigner, Jnner 2008

ARIMA(2,0,2)
arima(x = ex.diff.dm, order = c(2, 0, 2), include.mean = FALSE, transform.pars = TRUE) Coefficients: ar1 -0.7464 s.e. 0.5472

ar2 -0.0102 0.1003

ma1 0.1741 0.5446

ma2 -0.4369 0.3467 log likelihood = 440.19, aic = -870.39

sigma^2 estimated as 0.006297:

Wir erhalten fr die Parameter folgende Werte

ARIMA(1,0,1) scheint aufgrund des hheren absoluten AIC-Wertes minimal bessere Ergebnisse zu liefern. Wir plotten das Periodogramm der (saisonbereinigten) Wachstumswerte gemeinsam mit den Spektraldichten der 2 ARIMA-Prozesse. Wir sehen: ARIMA(1,0,1) und ARMA (2,0,2) liefern hnliche Ergebnisse, wobei sich diesmal letzterer optisch etwas besser an die Frequenzen des Periodogramms anschmiegt.
Periodogram together with spectral densities
0.015 ARIMA (1,0,1) ARIMA (2,0,2)

0.000 0.0

0.005

0.010

0.5

1.0

1.5

2.0

2.5

3.0

15