You are on page 1of 21

Kapitel 12 Autokorrelation

There is always an easy solution to every human problem neat, plausible and wrong.
(H.L. Mencken)

Autokorrelation bedeutet mit sich selbst korreliert, das heit, verschiedene Beobachtungen einer Variable sind untereinander korreliert. Damit ein solches Muster interpretierbar ist, muss die Reihenfolge der Beobachtungen einer logischen Ordnung gehorchen, wie dies zum Beispiel bei Zeitreihen der Fall ist. Weil Autokorrelation in erster Linie ein Zeitreihenproblem ist werden wir in diesem Kapitel anstelle des f r u Querschnittsdaten ublichen Index i den Index t (f r time) f r die Beobachtungen u u verwenden, mit t = 1, 2, . . . , T , wobei T die Anzahl der Beobachtungen angibt (wie N f r Querschnittsdaten). u Bei Autokorrelation sind also die Werte einer Variable zum Zeitpunkt t mit Werten dieser Variable in Vorperioden t 1, t 2, t 3, . . . korreliert. Zum Beispiel sind die Konsumausgaben oder Aktienkurse der Periode t hug mit a den Konsumausgaben der Vorperiode t 1 korreliert. Damit ist die Annahme des random sampling verletzt, die Ziehungen sind nicht unabhngig. a Wenn in der Okonometrie einfach von Autokorrelation (serial correlation ) gesprochen wird bezieht sich dies fast immer auf eine Autokorrelation der Strterme t . o Im einfachsten Fall ist jeder Strterm mit dem Strterm der Vorperiode korreliert o o ist, das heit Cov(t , t1 ) = 0 Selbstverstndlich knnen auch weiter auseinanderliegende Strterme untereinana o o der korreliert sein Cov(t , tp ) E [(t )(tp )] = E (t tp ) = 0 f r p = 1, 2, . . . u

wobei p den time lag (Zeitverzgerung) bezeichnet. Wenn p = 1 ist impliziert dies, o dass jede Beobachtung mit der Beobachtung der Vorperiode (t 1) korreliert ist; wenn z.B. p = 3 ist die 4. mit der 1. die 5. mit der 2. Beobachtung usw. korreliert. Man beachte, dass durch die Lag Bildung p Beobachtungen am Anfang der Zeitreihe verloren gehen.

348

Autokorrelation

349

Exkurs: Bildung von zeitverzgerten Variablen (time lags) und ersten Dierenzen: o t 1 2 3 4 5 yt yt1 yt2 yt3 yt = yt yt1 12 9 12 3 14 9 12 5 16 14 9 12 2 20 16 14 9 4

Die durch Autokorrelation verursachten Probleme hneln in mehrerer Hinsicht denen a bei Heteroskedastizitt. Erinnern wir uns, die Gauss-Markov Annahmen uber die a Strterme verlangen o t iid(0, 2 ) d.h., dass die Strterme identical and independently distributed sind. Bei Heteroso 2 kedastizitt war die Annahme identical distributed verletzt, d.h. die Varianz i war a nicht f r alle Beobachtungen gleich. Bei Autokorrelation ist die Annahme indepenu dently distributed verletzt, d.h., die Beobachtungen sind nicht unabhngig von der a Reihenfolge der Ziehung. Selbstverstndlich knnen Heteroskedastizitt und Autokorrelation auch gemeinsam a o a auftreten. Heteroskedastische und/oder autokorrelierte Strterme werden manchmal o auch als non-spherical disturbances bezeichnet. Wir werden spter sehen, dass auch die Auswirkungen von Autokorrelation denen a von Heteroskedastizitt sehr hnlich sind, d.h. die OLS-Schtzer bleiben zwar erwara a a tungstreu und konsistent, sind aber nicht mehr ezient. Die mittels OLS geschtzten a Standardfehler der Koezienten sind dar ber hinaus verzerrt, d.h. die Teststatistiu ken (t- und F -Statistiken) sind bei Vorliegen von Autokorrelation ung ltig! u

12.1

Autoregressive Prozesse 1. Ordnung, AR(1) Prozesse

Wie schon erwhnt beschftigen wir uns in diesem Abschnitt ausschlielich mit einer a a Autokorrelation der Strterme. o Im einfachsten Fall ist jeder Strterm mit dem Strterm der Vorperiode korreliert, o o d.h. wir gehen von folgendem datengenerierenden Prozess aus: yt = 1 + 2 xt2 + + Ks xKs t + t t = t1 + t Alle restlichen Gauss-Markov Annahmen seien erf llt, und dar ber hinaus sei u u
2 t iid(0, )

Autokorrelation

350

Exkurs: Autokorrelation kann hug schon in einem Residuenplot erkannt werden. a Im hugeren Fall von positiver Autokorrelation sind Cluster von positiven und a negativen Residuen zu beobachten, wenn eine Beobachtung uber (unter) der Re gressionsgeraden liegt, liegt die nchste Beobachtung mit hoher Wahrscheinlichkeit a ebenfalls wieder uber (unter) der Regressionsgerade. Beispiel: Kurzfristiger Zinssatz (IRS), Osterreich 1970 2008 (OECD, Economic Outlook)
14 12 10 8 8 6 4 2 2 0 0 -2 -4 1970

IRS = 7.5755 0.0258 TREND (23.0764) (7.0425) R = 0.243,


2

6 4

DW = 0.124,

N = 156

1975

1980

1985

1990

1995

2000 Fitted

2005

Residual

Actual

In diesem Fall folgen die Strterme einem autoregressiven Prozess 1. Ordnung, bzw. o AR(1), da jeder Strterm nur mit dem Strterm der Vorperiode korreliert ist. o o Allgemeiner spricht man von einem autoregressiven Prozess der Ordnung p AR(p), wenn t = 1 t1 + 2 t2 + + p tp + t aber wir wollen uns in diesem Abschnitt auf den einfacheren Fall von AR(1) Prozessen t = t1 + t beschrnken. a Wenn wir im restlichen Abschnitt einfach von Autokorrelation sprechen, so meinen wir damit, dass die Strterme t einem autoregressiven Prozess 1. Ordnung folgen. o Auerdem wollen wir annehmen, dass die restlichen Gauss-Markov Annahmen (wie 2 z.B. E(t ) = 0 und Homoskedastizitt Var(t ) = ) erf llt seien. a u Die Autokorrelation kann positiv oder negativ sein, je nach dem Vorzeichen von (siehe Abbildung 12.1). In makrokonomischen Zeitreihen tritt positive Autokorreo lation weitaus huger auf als negative Autokorrelation. a

12.1.1

Mgliche Ursachen f r Autokorrelation o u

Wir wissen, dass die Vergangenheit hug Auswirkungen auf die Gegenwart und Zua kunft hat, die nicht im systematischen Teil einer Regressionsgleichung erfasst werden kann. Dies kann dazu f hren, dass die uber die Zeit gesammelten Beobachtungen u nicht voneinander unabhngig sind, also zu Autokorrelation. a Zum Beispiel wirken sich Ereignisse wie Erdbeben, Brsencrashs oder andere o Schocks hug nicht nur in der Periode des Auftretens auf die Wirtschaft aus, a

Autokorrelation Positive Autokorrelation: = +0.8 yi = 0.5 + 0.7xi + i , i = 0.8i1 + , N (0, 1)


y 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 x

351 Negative Autokorrelation: = 0.9 yi = 0.5 + 0.7xi + i i = 0.9i1 + , N (0, 1)


y 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 x

Abbildung 12.1: Autokorrelierte Strterme: Die Strterme sind untereinander o o korreliert, d.h. Cov(i , j ) = 0.
y

Abbildung 12.2: Eine fehlspezizierte Funktionsform kann zu Autokorrelation in den Residuen f hren. u sondern auch in den Folgeperioden, aber hug werden diese Auswirkungen uber a Zeit hinweg schwcher. Wenn diese Ein sse nicht explizit gemessen und in den xa u Variablen ber cksichtigt werden, sind diese Eekte in den Strtermen enthalten und u o f hren dort zu Autokorrelation. Generell f hrt Persistenz in konomischen Zeitreiu u o hen hug zu autokorrelierten Residuen. a Weitere mgliche Ursachen f r Autokorrelation sind o u Trgheit (Inertia) in der Anpassung: z.B. Konjunkturzyklen. a Fehlspezikation, falsche Funktionsform: wenn z.B. der wahre Zusammenhang log-linear ist und eine lineare Funktion geschtzt wird (vgl. Abbila dung 12.2). Fehlspezikation, fehlende Variablen: Der Strterm reprsentiert den o a Einuss aller nicht bercksichtigten erklrenden Variablen. Wir erwarten, dass u a

Autokorrelation

352

der Einuss dieser Variablen gering ist und dass sie sich in ihrer Wirkung im Durchschnitt gegenseitig aufheben. Wenn sich die ausgelassenen Variablen aber sehr hnlich verhalten kann dies zu Autokorrelation f hren. a u Messfehler in den abhngigen Variablen. a Cobweb-Phnomen (Schweinezyklus) a Daten-Transformationen (z.B. Glttungs- oder Filterverfahren, Saisonsbea reinigungen). Autokorrelation kann prinzipiell sowohl bei Zeitreihen- als auch Querschnittsdaten auftreten, spielt aber bei Zeitreihenanalysen eine weit grere Rolle. F r Zeitreiheno u daten stellt Autokorrelation vermutlich das mit Abstand hugste Problem dar. Bei a Querschnittsdaten ist nur dann auf Autokorrelation zu achten, wenn die Reihenfolge der Beobachtungen einer bestimmten logischen Ordnung gehorcht. Zum Beispiel knnen Daten f r regionale Einheiten, wie. z.B. Gemeinden oder Bezirke, rumliche o u a Autokorrelation (spatial autocorrelation ) aufweisen.

12.1.2

Stationaritt a

Da im Fall von Autokorrelation die Annahme der Unabhngigkeit der Strterme a o verletzt ist, bentigen wir eine zustzliche Annahme, nmlich dass der Autokorrelao a a tionskoezient der Beziehung t = t1 + t zwischen minus und plus Eins liegt (1 < < 1), die sogenannte Stationarittsannahme. a Wre der Absolutbetrag von grer als Eins w rden die Strterme t = t1 + t a o u o im Zeitablauf immer grer werden und schlielich explodieren, was oensichtlich o f r die meisten Zeitreihen nicht beobachtet wird. Der Spezialfall = 1 ist interesu santer und wird in der Zeitreihenkonometrie ausf hrlich diskutiert, hier wollen wir o u im Moment nicht nher darauf eingehen. a In der Zeitreihenanalyse wird meistens von stochastischen Prozessen ausgegangen. Vereinfacht ausgedr ckt ist ein stochastischer Prozess (stochastic oder random prou cess) eine Folge von Zufallsvariablen in der Zeit, d.h. eine empirische Zeitreihe kann als Realisation eines stochastischen Prozesses angesehen werden (analog zu einer Stichprobenziehung aus der Grundgesamtheit bei Querschnittsdaten). Wiederum vereinfacht ausgedr ckt ist ein stochastischer Prozess stationr, wenn u a Mittelwert und Varianz uber die Zeit konstant sind, und wenn die Kovarianz zwi schen zwei Zeitpunkten nur von der Lag-Lnge abhngt, nicht aber von dem Zeita a punkt, an dem gemessen wird. In anderen Worten, ein stochastischer Prozess {}t wird schwach stationr genannt, a wenn E(t ) unabhngig von t ist; a wenn Var(t ) ebenfalls unabhngig von t und eine endliche positive Zahl ist, a und wenn Cov(t , tp ) nur eine Funktion von t p, aber nicht von t oder p ist.

Autokorrelation F r einen autoregressiven Prozess 1. Ordnung u yt = 0 + 1 xt1 + + Ks xtKs + t t = t1 + t

353

stellt die Stationarittsbedingung 1 < < 1 sicher, dass die Auswirkungen a verzgerter Strvariablen mit den Verzgerungen (Lags) abnehmen. Wre dies nicht o o o a der Fall, w rden die Schwankungen im Zeitablauf stndig zunehmen und das Mou a dell wre nicht stabil. Deshalb werden wir im Folgenden stets annehmen, dass die a Stationarittsbedingung erf llt ist. a u Eine Zeitreihe mit Autokorrelation hat ein Gedchtnis (memory), dass heit, eine a Zufallsstrung in der Periode t hat Auswirkungen auf die Zukunft, allerdings werden o diese bei stationren Zeitreihen aufgrund von 1 < < 1 im Zeitablauf schwcher a a und verschwinden schlielich zur Gnze. a Die Stationarittsannahme garantiert, dass a E(t ) = E(t1 ) = E(t2 ) = . . . Var(t ) = Var(t1 ) = Var(t2 ) = . . . Intuitiv kann man sich vorstellen, dass die Stationarittsannahme sicher stellt, dass a sich die Zukunft hnlich verhlt wie die Vergangenheit. Wenn dies nicht der Fall a a wre, knnte aus den vergangenen Realisationen der Beobachtungen nichts uber die a o Zukunft gelernt werden. Wenn sich Mittelwert und/oder Varianzen im Zeitablauf ndern w rden, htte dies a u a auch dramatische Auswirkungen auf die statistischen Eigenschaften der Schtzuna gen. Der Spezialfall || = 1, bzw. t = t1 + t , wird unit roots genannt und hat v.a. in der makrokonometrischen Literatur groe Aufmerksamkeit erregt. Es hat sich o nmlich gezeigt, dass f r viele makrokonomische Zeitreihen (z.B. das BIP oder der a u o Konsumentenpreisindex) die Nullhypothese || = 1 hug nicht verworfen werden a kann, was weitreichende Konsequenzen f r die Schtzung hat. u a Eine intuitive Vorstellung von den Problemen vermittelt Abbildung 12.3. Dazu wurden 300 standardnormalverteilte Zufallsvariablen t N (0, 1) generiert. Die Beobachtung 100 wurde auf 20 gesetzt (100 = 20). Mit Hilfe dieser Zufallsvariable wurden drei AR(1) Prozesse erzeugt ut = 0.5ut1 + t vt = 0.9vt1 + t wt = 1.0wt1 + t Wie man aus Abbildung 12.3 erkennen kann fllt die Zeitreihe u mit = 0.5 nach a dem einmaligen Schock wieder ziemlich schnell auf ihr urspr ngliches Niveau zur ck. u u F r die Zeitreihe v mit = 0.9 geht dies nicht ganz so schnell, aber auch sie kehrt u wieder auf ihr urspr ngliches Niveau zur ck. Diese Tendenz, zum urspr nglichen u u u Niveau zur ckzukehren, wird in der Literatur mean reversion genannt. u Der AR(1) Prozess mit = 1 (w) hingegen wandert schon vor dem Schock ziemlich umher und hat nach dem Schock 100 = 20 keine Tendenz zur R ckkehr zum uru spr nglichen Niveau. Aufgrund dieser Eigenschaft spricht bei bei solchen Variablen u

Autokorrelation

354

25 20 15 10 5 0 -5 -10 -15 50 100 0.5 150 0.9 200 1.0 250 300

Abbildung 12.3: K nstlich erzeugte AR(1) Zeitreihen t = t1 + t mit = u 0.5, 0.9, 1.0. Bei Beobachtung 100 wurde der Strterm auf 20 o gesetzt (Schock).

Autokorrelation

355

auch von einem random walk, oder man sagt, die Variable folgt einem stochastischen Trend. Wenn man zwei solche unit roots Variablen aufeinander regressiert passieren komische Dinge, die herkmmlichen statistischen Gesetze scheinen auer Kraft gesetzt. o Man kann zeigen, dass in solchen Fllen die Koezienten und Standardfehler systea matisch verzerrt sind, d.h. die ublichen Teststatistiken sind nicht mehr anwendbar. Wenn wir zum Beispiel von zwei Zeitreihen yt = yt1 + t xt = xt1 + t mit Cov(, ) = 0 ausgehen, w rden wir erwarten, dass in einer Regression yt = u b0 + b1 xt + t der Koezient b1 nicht signikant von Null verschieden ist. Wenn man dieses Experiment aber durchf hrt stellt man fest, dass die t-Statistik in sehr u vielen Fllen einen hochsignikanten Koezienten b1 anzeigt. Dies ist allerdings eia ne reine Scheinkorrelationen (spurious correlation), die nur aus der unit roots Eigenschaft || = 1 folgt. Wie man mit diesem Problem umgeht wird in der Zeitreihenkonometrie ausf hrlich behandelt. o u Gl cklicherweise sind die Folgen weit weniger dramatisch, wenn die Zeitreihen stau tionr sind, wenn also || < 1 ist. Mit diesem Fall werden wir uns im Folgenden a beschftigen. a

12.1.3

Eigenschaften von AR(1) Prozessen

F r die Berechnung der eigentlich interessierenden Varianz-Kovarianzmatrix der u geschtzten Koezienten Var(b) bentigen wir die Varianz-Kovarianzmatrix der a o Strterme E( ).1 F r den Fall ohne Heteroskedastizitt und Autokorrelation o u a (spherical disturbances) konnten wir zeigen, dass E( ) = 2 I ist. In diesem Abschnitt wollen wir nun die E( ) Matrix f r den Fall von Autokorreu lation 1. Ordnung berechnen. Wir beginnenn mit dem Erwartungswert von t . Wenn die Stationarittsbedingung a 1 < < 1 erf llt ist, sind die Erwartungswerte sowie die Varianzen und Kovarianu zen im Zeitablauf konstant. Dies impliziert E(t ) = E(t1 ) woraus f r t = t1 + t folgt u E(t ) = = = (1 )E(t ) = E(t ) =
1

E(t1 + t ) E(t1 ) + E(t ) E(t ) + 0 0 0

Zur Erinnerung: Var(b) = (X X)1 X E( )X(X X)1 .

Autokorrelation

356

wobei ist ein unbekannter Parameter der Grundgesamtheit ist. Wenn der Strterm o t also einem AR(1) Prozess folgt, und t alle Gauss-Markov Annahmen erf llt, ist u der Erwartungswert von t gleich Null. Als nchstes wollen wir nun die Varianz-Kovarianzmatrix E( ) berechnen. Wir a beginnen mit den Hauptdiagonalelementen:
2 Var(t ) = = = = = 2

E(2 ) = E (t1 + t )2 t 2 E 2 2 + 2t1 t + t t1 2 2 E(2 ) + E(t ) (da t1 und t unabh. sind) t1 2 Var(t ) + Var(t ) (Stationaritt) a 2 2 2 + (da t homoskedast.)

Var(t )

2 = 1 2

Man beachte, dass keine der Variablen einen Subindex t hat, das bedeutet, dass die Hauptdiagonalelemente der Varianz-Kovarianzmatrix der Strterme den gleichen o numerischen Wert haben, oder in anderen Worten, dass die Strterme homoskedao stisch sind! Wenden wir uns nun den Nebendiagonalwerten der Varianz-Kovarianzmatrix E() zu. Die Kovarianzen f r den ersten time-lag knnen hnlich berechnet werden: u o a Cov(t , t1 ) = = = = = E(t t1 ) E [(t1 + t )t1 ] E 2 + t t1 t1 E(2 ) t1 Var(t )

2 Cov(t , t1 ) =

Man beachte, dass als Korrelationskoezient zwischen t und t1 interpretiert werden kann, da Cov(t , t1 ) 2 rt ,t1 = 2 = Var(t )Var(t1 )
2 da aufgrund der Stationarittsannahme Var(t ) = Var(t1 ) = . . . = , daher der a Name Autokorrelationskoezient. F r die Berechnung der weiteren Nebendiagonal-Elemente der Varianzu Kovarianzmatrix E( ), d.h. Cov(t , t2 ), Cov(t , t3 ), . . ., ber cksichtigen u wir, dass aus

t = t1 + t und t1 = t2 + t1 durch Substitution folgt t = [(t2 + t1 ) + t ] = 2 t2 + t1 + t

Autokorrelation Also: Cov(t , t2 ) = E (2 t2 + t1 + t )t2 2 = 2 da E(t1 t2 ) = E(t t2 ) = 0) und E(t ) = 0. Analog dazu folgt durch weitere Substitution
2 Cov(t , t3 ) = 3 2 Cov(t , t4 ) = 4 . . . . . .

357

mit

Damit haben wir alle Elemente der VarianzKovarianzmatrix eines AR(1) Prozesses beisammen, die gesuchte VarianzKovarianzmatrix der Strterme ist also o 1 2 T 1 1 T 2 2 2 2 1 T 3 = = V (12.1) E( ) = . . . . .. . . . . . . . . . T 1 T 2 T 3 1
2 = 2 1 2

Man beachte, dass diese Varianz-Kovarianzmatrix eine sehr einfache Form hat, sie 2 enthlt nur die unbekannten Parameter und . a Mit Hilfe dieser Matrix wird es uns spter mglich sein, eine geeignete Schtzmea o a thode f r Autokorrelation zu nden. u

12.1.4

Konsequenzen von Autokorrelation

Wir haben schon fr her erwhnt, dass Autokorrelation der Strterme nicht die Eru a o wartungstreue der OLS Schtzer f r die Koezienten b beeinusst, da f r determia u u nistische X E(b) = E (X X)1 X (X + ) = + (X X)1 X E() = wenn E(|X) = 0. Allerdings w rden wir bei Anwendung der einfachen OLS Methode die falsche u Varianz-Kovarianzmatrix der Koezienten Var(b) = s2 (X X)1 verwenden anstatt der richtigen Varianz-Kovarianzmatrix der Koezienten
2 Var(b) = (X X)1 X X(XX) 1

vgl. Gleichung (12.1), deshalb ist der OLS-Schtzer nicht ezient, und die Stana dardfehler der Koezienten sind verzerrt! Wir fassen zusammen:

Autokorrelation

358

Der OLSSchtzer ist bei Vorliegen von Autokorrelation in den Residuen zwar a weiterhin unverzerrt und konsistent, aber nicht mehr ezient. Zudem hat eine einmalige Strung langfristige Auswirkungen, allerdings mit abneho menden Gewichten. Schlimmer, die Standardfehler der geschtzten Koezienten sind in a der Regel verzerrt, d.h. die Teststatistiken sind nicht lnger g ltig. a u Im Falle der (hugeren) positiven Autokorrelation werden die Standardfeha ler der Koezienten systematisch unterschtzt (d.h. sie sind nach unten vera zerrt), wodurch die Przision der geschtzten Parameter uberschtzt wird. a a a Dies f hrt dazu, dass die Nullhypothese zu hug verworfen wird, wenn sie u a tatschlich akzeptiert werden sollte. Auerdem f hrt dies hug zu einem sehr a u a groen Bestimmtheitsma und zeichnet somit ein zu optimistisches Bild von der Schtzung. a Falls verzgerte abhngige Variablen auf der rechten Seite der Regressionso a gleichung vorkommen (z.B. yt = 0 + 1 yt1 + t ) und der Strterm t dieser o Gleichung einem AR(1) Prozess folgt, liefert die OLSSchtzung verzerrte und a nicht konsistente Ergebnisse, da dies aufgrund von t = t1 +t zu einer Korrelation zwischen yt1 und t (also Endogenitt) f hrt. a u Eine intuitive Idee von den Auswirkungen (positiver) Autokorrelation vermittelt Abbildung 12.4. Je nachdem, ob das erste Residuum 1 positiv oder negativ ist, wird die Steigung uber- oder unterschtzt. Da aber das erste Residuum mit gleicher a Wahrscheinlichkeit positiv oder negativ ist, ist die Schtzung weiterhin unverzerrt. a Allerdings minimiert OLS die Quadratsumme der Residuen ohne Bercksichtigung u der Autokorrelation, deshalb gibt OLS einen zu guten Fit. Deshalb ist das Bestimmtheitsma R2 bei positiver Autokorrelation in der Regel verhltnismig gro. a a

12.2

Tests auf Autokorrelation

Das Problem bei den Tests auf Autokorrelation besteht darin, dass die Strterme der o Grundgesamtheit t nicht beobachtbar sind, wir knnen nur den Residuenvektor der o Stichprobe e beobachten. Wir wissen bereits, dass e = M mit M = IX(XX)1 X (siehe Abschnitt 5.2, Seite 185). Deshalb gilt unter den Gauss-Markov Annahmen 2 E(ee ) = E(M M ) = ME( )M = M. Da aber die Nebendiagonal-Elemente von M nicht gleich Null sind hngen die OLS a Residuen von der Matrix X ab und eignen sich deshalb nicht direkt f r einen Test u auf Autokorrelation.

12.2.1

DurbinWatson Statistik

Der DurbinWatson Test ist der gebruchlichste Test auf Autokorrelation. Im Una terschied zu den spter folgenden Tests gilt dieser Test auch in kleinen Stichproben, a er ist also nicht nur asymptotisch g ltig. u

Autokorrelation

359

y
yt = 0 + 1 xt1 + t

yt = b0 + b1 xt1 + et

yt = 0 + 1 xt1 + t yt = b0 + b1 xt1 + et

Abbildung 12.4: Positive Autokorrelation, wahrer (durchgezogene Linie) und geschtzter (strichlierte Linie) Zusammenhang; OLS ist erwara tungstreu, aber nicht ezient, im linken Fall wird die Steigung unterschtzt, weil der erste Strterm 1 positiv ist, im rechten a o Fall wird die Steigung uberschtzt, weil der erste Strterm 1 a o negativ ist. Basierend auf den geschtzten OLSResiduen et wird die Null-Hypothese = 0 a getestet. Berechnet wird die DurbinWatson Teststatistik aus den Stichprobenresiduen T (et et1 )2 DW = t=2 T 2 t=1 et Diese Teststatistik kann Werte zwischen 0 und 4 annehmen, wobei Werte nahe bei Null auf positive Autokorrelation und Werte nahe bei 4 auf negative Autokorrelation hindeuten. Im Idealfall sollten die Werte der DW Statistik mglichst nahe bei 2 o liegen. Dies ist erkennbar, wenn man obige Formel ausmultipliziert: DW = e2 + t e2 2 t1 e2 t (et et1 )

Da sich e2 und e2 nur durch eine Beobachtung unterscheiden werden sie in t t1 groen Stichproben annhernd gleich sein. In diesem Fall gilt nherungsweise a a DW 2 e2 2 t e2 t (et et1 ) =2 1 (et et1 ) e2 t (et et1 )/ e2 , deshalb t

Der Korrelationskoezient zwischen et und et1 ist = knnen wir einfacher o DW 2 (1 )

schreiben. Wenn = 1 ist die DW = +4, wenn = +1 ist die DW = 0, also gilt f r 1 +1, dass 0 DW 4. u Wenn der Korrelationskoezient zwischen et und et1 gleich Null ist, hat die Durbin-Watson Statistik den Wert 2.

Autokorrelation

360

Allerdings hngen die geschtzten OLSResiduen von den Werten der X Matrix ab, a a deshalb ist die Verteilung der DW Statistik etwas komplizierter. Durbin und Watson konnten zeigen, dass sich f r die Verteilung der DW Statistik u Grenzen angeben lassen, die nur von der Anzahl der x-Variablen und der Anzahl der Beobachtungen (N) abhngen, nicht aber von den konkreten Werten der xa Variablen. Deshalb nden sich in den Tabellen f r die kritischen Werte der DW Statistik eiu ne Untergrenze dL und eine Obergrenze dU . Liegt der berechnete Wert der DW Statistik zwischen diesen beiden Werte liefert der DW Test keine interpretierbare Aussage. Liegt der berechnete Wert der DW Statistik aber unter dem kritischen Wert der Untergrenze dL muss die Nullhypothese = 0 (d.h. keine Autokorrelation) zugunsten der Hypothese positiver Autokorrelation verworfen werden. Konkret ist die DW Statistik in Bezug auf Autokorrelation 1. Ordnung ist folgendermaen zu interpretieren: 0< dL < dU < 2< 4 dU < 4 dL < DW DW DW DW DW DW < dL < dU <2 < 4 dU < 4 dL <4 Verwirf Nullhypothese = 0, positive Autokorrelation keine Aussage mglich o Akzeptiere Nullhypothese = 0 Akzeptiere Nullhypothese = 0 keine Aussage mglich o Verwirf Nullhypothese = 0, negative Autokorrelation

Verwirf H0 : Positive AutoKorrelation

Unschrfea bereich

Verwirf weder H0 noch H0


(keine Autokorrelation)

Unschrfea bereich

Verwirf H0 :

Negative AutoKorrelation

dL

dU

4 dU 4 dL

H0 : keine positive Autokorrelation H0 : keine negative Autokorrelation Abbildung 12.5: Die Durbin-Watson Statistik

Beispiel: Angenommen wir mchten eine lineare Kostenfunktion o COST = b0 + b1 OUTPUT + e schtzen und erhalten folgendes Ergebnis a

Autokorrelation

361

Tabelle 12.1: Durbin-Watson Statistik: Untere (dL ) und obere (dU ) Schranken der kritischen Werte des Durbin-Watson Tests; 5% Signikanzniveaus ( = 0.05). T ist die Anzahl der Beobachtungen, und Ks die Anzahl der erklrenden Variablen (ohne Interzept). a

Ks = 1 T 10 15 20 25 30 40 50 60 70 80 90 100 dL 0.88 1.08 1.20 1.29 1.35 1.44 1.50 1.55 1.58 1.61 1.63 1.65 dU 1.32 1.36 1.41 1.45 1.49 1.54 1.59 1.62 1.64 1.66 1.68 1.69

Ks = 2 dL 0.70 0.95 1.10 1.21 1.28 1.39 1.46 1.51 1.55 1.59 1.61 1.63 dU 1.64 1.54 1.54 1.55 1.57 1.60 1.63 1.65 1.67 1.69 1.70 1.72

Ks = 3 dL 0.52 0.82 1.00 1.12 1.21 1.34 1.42 1.48 1.52 1.56 1.59 1.61 dU 2.02 1.75 1.68 1.66 1.65 1.66 1.67 1.69 1.70 1.72 1.73 1.74

Ks = 4 dL 0.38 0.69 0.90 1.04 1.14 1.29 1.38 1.44 1.49 1.53 1.57 1.59 dU 2.41 1.97 1.83 1.77 1.74 1.72 1.72 1.73 1.74 1.74 1.75 1.76

Ks = 5 dL dU 0.24 2.82 0.56 2.21 0.79 1.99 0.95 1.89 1.07 1.83 1.23 1.79 1.34 1.77 1.41 1.77 1.46 1.77 1.51 1.77 1.54 1.78 1.57 1.78

COST

= 166.47 + 19.93 OUTPUT (8.75) (6.50) R2 = 0.84 DW = 0.71 T = 25

+ ei

Da der empirische Wert der DW Statistik kleiner ist als der kritische Wert dL = 1.29 muss die Nullhypothese = 0 (keine Autokorrelation) zugunsten der Hypothese positive Autokorrelation verworfen werden (f r = 0.05). u Wir haben bereits erwhnt, dass positive Autokorrelation hug die Folge einer a a Fehlspezikation ist, z.B. falsche Funktionsform oder fehlende relevante x-Variablen. Deshalb liefert die Durbin Watson Statistik hug auch Hinweise auf eine Spea zikationsfehler allgemeiner Art. In diesem Fall wre oensichtlich eine kubische a Funktionsform COST = b0 + b1 OUTPUT + b2 OUTPUT2 + b3 OUTPUT3 + e geeigneter gewesen, wie die Abbildung des Residuenplots (Abb. 12.6) zeigt Achtung: Die Durbin-Watson Statistik ist nur g ltig, wenn die Regression ein Inu terzept enthlt und wenn alle x-Variablen strikt exogen sind! a Der DurbinWatson Test darf auch nicht verwendet werden, wenn eine verzgerte o abhngige Variable (z.B. yt1 ) im Schtzansatz vorkommt. In diesem Fall ist entwea a der Durbins h Test oder ein allgemeinerer LagrangeMultiplier Test zu verwenden.

Autokorrelation
Cost = b0 + b1*Output + e

362

450 400 350 300 60 40 20 0 -20 -40 1 2 3 4 5 6 Actual 7 8 9 10 250 200 150

Residual

Fitted

Abbildung 12.6: Gettete Werte und Residuen

12.2.2

Durbins h Test

Wenn yt = + yt1 + xt + t , dann ist h= T = 1 T [Var(b)] 1 DW 2 T 1 T [Var(b)]

asymptotisch standardnormalverteilt (b ist die Schtzung f r ). a u

12.2.3

Korrelogramm and Q-Statistik:

In EViews sind im Men View Residual Tests Correlogram-Q-statistics in der u Equation Toolbar die Autokorrelationen, die partiellen Autokorrelationen sowie die Ljung-Box Q-statistic verf gbar. Falls keine Autokorrelation der Residuen voru liegt sollten die Autokorrelationen und partiellen Autokorrelationen alle annhernd a Null sein und die Ljung-Box Q-statistic nicht signikant sein (d.h. groe p-Werte aufweisen). Nheres dazu hren Sie in der Zeitreihenkonomik. a o o

12.2.4

LMTests

Dieser Lagrange Multipier Test ist allgemeiner anwendbar als Durbins h Test und auerdem robuster. Dieser Test auf Autokorrelation der Ordnung p ist auch mit verzgerten abhngigen Variablen und f r 2SLS anwendbar! o a u Allerdings ist dieser Test nur asymptotisch g ltig, in kleinen Stichproben kann er u verzerrte Ergebnisse liefern. In EViews ist dieser LM-Test, oder genauer der Breusch-Godfrey Serial Correlation Lagrange Multiplier (LM) Test for ARMA Strterme p-ter Ordnung, im o Equation-Men unter View Residual Tests Serial Correlation LM Test verf gbar. u u

Autokorrelation Konkret wird die Teststatistik folgendermaen berechnet: f r das Modell u yt = 0 + 1 xt1 + + Ks xtKs + t wird die Teststatistik mittels der folgenden Hilfsregression berechnet:

363

et = b0 + b1 xt1 + + bKs xtK + +a1 et1 + + ap etp + t wobei et die geschtzten Residuen f r t sind. a u Falls keine Autokorrelation vorliegt w rden wir erwarten, dass die Koezienten der u verzgerten Residuen (ak ) sich nicht signikant von Null unterscheiden. o EViews gibt tatschlich eine F -Statistik f r die gemeinsame Signikanz dieser Koa u ezienten ak aus. Allerdings ist die exakte Verteilung dieser F-Statistik unbekannt, weil die Residuen keine unabhngigen, deterministischen Variablen sind, aber sie a wird trotzdem oft f r eine grobe Beurteilung herangezogen. u EViews gibt deshalb neben der F -Statistik die asymptotisch g ltige Obs*R-squared u Statistik (Anzahl der Beobachtungen mal Bestimmtheitsma) aus. Diese Obs*R-squared Statistik ist die eigentliche Breusch-Godfrey LM Test Statistik. Unter ziemlich allgemeinen Bedingungen ist diese Statistik asymptotisch 2 (p) verteilt. Die Nullhypothese besagt, dass in den Residuen keine Autokorrelation bis zur angegebenen Ordnung vorliegt. Als nchstes stellt sich die Frage, was zu tun ist, wenn die Tests auf autokorrelierte a Strterme hinweisen. o

12.3

Manahmen bei Autokorrelation

Ahnlich wie bei der Heteroskedastizitt knnen auch bei Autokorrelation durch eine a o geeignete Transformation der Daten Bedingungen hergestellt werden, unter denen eine OLSSchtzung BLUE ist. Dazu gehen wir folgendermaen vor: a Da das Modell annahmegem in jeder Periode gelten soll, knnen wir die um eine a o Periode verzgerte Gleichung mit (dem unbekannten Autokorrelationskoezienten o der Grundgesamtheit) multiplizieren und von der urspr nglichen Gleichung subtrau hieren: yt = 0 + 1 xt1 + + Ks xtKs + t yt1 = 0 + 1 xt1,1 + + Ks xt1,Ks + t1 daraus folgt yt yt1 = (1 )0 + 1 (xt1 xt1,1 ) + +
yt

x t1

+Ks (xtKs xt1,Ks ) + (t t1 )


x s tK =t t

Autokorrelation oder
yt = (1 )0 + 1 x + + Ks x s + t1 tK t

364

Wir erinnern uns, dass wir f r den Strterm angenommen haben t = t1 + , u o bzw. = t t1 Der neue Strterm o t t1 = t t erf llt per Denition alle Gauss-Markov Annahmen, deshalb wre die Schtzung u a a dieses transformierten Modells BLUE, d.h. unverzerrt und ezient. W rden wir den unbekannten Parameter kennen knnten wir einfach das transu o formierte Modell
yt = (1 )1 + 1 x + + Ks x s + t t1 tK

f r t = 2, . . . , T u

schtzen. Man nennt diese Transformation auch eine Quasi-Dierenzenbildung, a da von jeder Beobachtung der mit multiplizierte Wert der Vorperiode subtrahiert wird. Diese Transformation wird nach ihren Entdeckern Cochrane-Orcutt Transformation genannt. Allerdings verlieren wir durch die Quasi-Dierenzen (lag) - Bildung die erste Beobachtung. Prais & Winsten haben deshalb eine spezielle Transformation der ersten Beobachtung vorgeschlagen, die diesen Nachteil behebt. Dazu wird nur die erste Beobachtung y1 = 0 + 1 x11 + 1 mit 1 2 multipliziert. 1 2 y1 = 0
y1

1 2 +1
x 10

1 2 x11 +
x 11

1 2 1
1

das heit
y1 = 0 x + 1 x + 10 11 1

Diese Transformation der ersten Beobachtung liefert das gew nschte Ergebnis, da u 1 die gleichen Eigenschaften wie 1 hat, d.h. Erwartungswert E( ) = 1 und Varianz Var( ) = (1 2 )Var(1 ) = (1 2 ) 1 1 2 E(1 ) = 0
2 2 = 1 2

Das komplette Modell ist also y = X + mit E() = 0 und


2 Var() = E( ) = IT

Autokorrelation wobei

365

y =

y1 y2 . . . yT

= x 11 x 21 . . . x 1 T

1 2 y1 y2 y1 . . . yT yT 1

1 2 1 2 . . . T

= =

x x 12 1K x x 22 2K . . .. . . . . . xT 2 xT K

1 2 1 . . . 1

1 2 x12 x22 x12 . . .

.. .

1 2 x1K x2K x1K . . .

xT 2 xT 1,2 xT K xT 1,K

Wenn das der Grundgesamtheit bekannt ist, ist die Schtzung dieses Modells BLU a (best linear unbiased ). Der Schtzer b f r ist ein GLS - Schtzer (Generalized Least a u a Squares Estimator ) b = (X X )1 X y mit der Varianz-Kovarianz Matrix
2 Var(b) = (X X )1 2 Ein Schtzer s2 f r die Varianz der Strterme kann aus dem transformierten a o u Modell geschtzt werden a

s2 =

(y X b) (y X b) T K

Das Problem dabei ist, dass f r diese Transformation eine Schtzung f r bentigt u a u o wird, da ein unbekannter Parameter der Grundgesamtheit ist. F r diese Schtzung u a von wurden verschiedene Verfahren vorgeschlagen, f r die allerdings nur asymptou tische Eigenschaften bekannt sind.

12.3.1

Schtzung des Autokorrelationskoezienten a

Die gebruchlichsten Verfahren zur Schtzung von sind: a a CochraneOrcutt: Die CochraneOrcutt Prozedur ist ein iteratives Verfahren zur Schtzung von . F r den bivariaten Fall yt = 0 +1 xt1 +t kann die Prozedur a u einfach veranschaulicht werden: Man beginnt mit einem beliebigen Startwert f r , transformiert mit diesem u Startwert die Variablen wie in Gleichung (12.2) (Quasi-Dierenzenbildung) und schtzt die Koezienten b0 und b1 mit OLS. a

Autokorrelation

366

yt yt1 = (1 )0 + 1 (xt1 xt1,1 ) + t (yt 0 1 xt1 ) = (yt1 0 1 xt1,1 ) + t

(12.2) (12.3)

Die zweite Gleichung (12.3) ist eine einfache Umformung der ersten Gleichung. Die Schtzungen f r b0 und b1 aus der Schtzung der ersten Gleichung werden a u a nun verwendet, um in einem zweiten Schritt die zwei transformierten Datenreihen yt b0 b1 xt1 und yt1 b0 b1 xt1,1 zu berechnen. Mit Hilfe dieser transformierten Variablen kann aus der zweiten Gleichung mittels OLS ein neues genaueres geschtzt werden. a Dann beginnt man mit dieser neuen Schtzung f r von vorne, man berechnet a u aus Gleichung (12.2) verbesserte Schtzungen f r b0 und b1 und verwendete a u diese, um aus Gleichung (12.3) ein neues besseres zu berechnen. Dieses Verfahren wird wiederholt, bis b0 , b1 und konvergieren, bzw. bis die DurbinWatson Statistik auf weies Rauschen der Residuen schlieen lsst. a Achtung: Dieses Verfahren darf nicht angewandt werden, wenn in der Gleichung verzgerte endogene Variablen (z.B. yt1 ) vorkommen! o Ein weiterer Nachteil dieses Verfahrens ist, dass es zu einem lokalen anstatt globalen Maximum f hren kann. Dies wird bei den folgenden Methoden veru mieden. Hildreth-Lu Die HildrethLu Prozedur benutzt eine gridsearch und hnelt desa halb einer MaximumLikelihood Schtzung. a Maximum-Likelihood Maximum-Likelihood Schtzungen erfordern nicht-lineare a Schtzverfahren und sind deshalb rechenintensiver. Konkret werden die , a 2 und so gewhlt, dass die folgende Log-Likelihood Funktion maximiert wird a log L =
2 1 T t 2 log(1 2 ) log(2 ) 2 2 2 2

siehe z.B. Kmenta (1986, Chapter 8.3, 298) Nicht-lineare Schtzverfahren Durch geeignete Substitution erhlt man eine a a Gleichung, die nicht-linear in den Parametern ist, z.B. f r Autokorrelation u 1. Ordnung yt = 0 + 1 xt1 + t t = t1 + t Einsetzen der zweiten Gleichung in die erste gibt: yt = 0 + 1 xt1 + t1 + t yt = yt1 + 0 (1 ) + 1 (xt1 x1,t1 ) + t da t1 = yt1 0 1 x1,t1 Diese Gleichung kann mit Hilfe geeigneter Verfahren numerisch geschtzt wera den.

Autokorrelation

367

12.3.2

Umsetzung in EViews

EViews verwendet f r die Schtzung ein nicht-lineares Schtzverfahren, wie es sou a a eben skizziert wurde. Die Anwendung in EViews ist einfach, f r Autokorrelation 1. Ordnung wird zur u Liste der erklrenden Variablen ein AR(1) angef gt, z.B. a u ls Y c X1 X2 ar(1) Dies funktioniert auch f r Autokorrelation hherer Ordnung, f r f r Autokorrelation u o u u 4-ter Ordnung wird z.B. ein AR(4) eingegeben. Die b und das werden von EViews mit Hilfe eines Marquardt Algorithmus die simultan geschtzt (diese Methode ist a auch f r sonstige nicht-lineare Gleichungen anwendbar, wobei in diesem Fall ein u Gauss-Newton Algorithmus zur Anwendung kommt). Ahnlich wie bei Heteroskedastizitt die robusten Standardfehler nach White bea rechnet werden knnen, gibt es f r Autokorrelation robuste Standardfehler o u nach Newey-West (zur Berechnung siehe z.B. Wooldridge, 2005, S. 432). Diese Standardfehler werden heteroskedasticity and autocorrelation consistent oder HACSchtzer f r Var(b) genannt. Wie bei den White-Schtzern f r heteroskedastiea u a u konsistente Standardfehler werden auch bei HAC-Schtzern die (erwartungstreuen) a Koezienten davon nicht ber hrt. u In EViews kann man die die Newey-West Standardfehler im Equation Specication Men unter Options whlen. Die geschtzten Koezienten werden dadurch u a a nicht verndert, aber die Standardfehler der Koezienten werden damit konsistent a geschtzt, weshalb die t-Statistik interpretierbar bleibt. a Achtung: Von einer unreektierten Angabe der Newey-West Standardfehler wird abgeraten. Wir haben vorher gesehen, dass aus Autokorrelation erster Ordnung eine nicht-lineare Gleichung in den Lags von y und x resultiert. yt = yt1 + 0 (1 ) + 1 (xt1 xt1 , 1) + t Okonometrikerinnen w rden es im allgemeinen bevorzugen diese nicht-lineare Gleiu chung mit geeigneten Methoden zu schtzen und auf die aus der Autokorrelation a folgenden Restriktionen zu testen! Autokorrelation ist sehr hug ein Indikator f r (dynamische) Fehlspezikation. Desa u halb sollte man auf jeden Fall versuchen eine geeignetere Spezikation zu nden, bevor man sich auf eines der herkmmlichen Verfahren zur Korrektur der Autokoro relation verlsst! a Dieser Punkt wurde u.a. bereits von Mizon (1995) betont der Artikel trgt den a vielsagenden Titel A simple message for autocorrelation correctors: Dont. Wenn gen gen Beobachtungen zur Verf gung stehen werden in der Praxis oft so viele u u verzgerte endogene Variablen (ytp ) im Schtzansatz verwendet, bis die Durbin o a Watson Statistik auf weies Rauschen schlieen lsst. Dieses Verfahren liefert oft a erstaunlich gute Ergebnisse, da die verzgerten endogenen Variablen den Einuss uno beobachtbarer Variablen erfassen knnen, die sich im Zeitablauf nur langsam ndern. o a Dies liefert allerdings ein dynamisches System und hat Auswirkungen auf die Interpretation der Koezienten. Nheres dazu erfahren Sie in Veranstaltungen zur a Zeitreihenkonometrie. o

Autokorrelation

368

Literaturverzeichnis
Kmenta, J. (1986), Elements of Econometrics, 2 edn, Macmillan Pub Co. Mizon, G. E. (1995), A simple message for autocorrelation correctors: Dont, Journal of Econometrics pp. 267288. Wooldridge, J. (2005), Introductory Econometrics: A Modern Approach, 3 edn, South-Western College Pub.